JP5307958B1 - 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 - Google Patents

動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP5307958B1
JP5307958B1 JP2013519908A JP2013519908A JP5307958B1 JP 5307958 B1 JP5307958 B1 JP 5307958B1 JP 2013519908 A JP2013519908 A JP 2013519908A JP 2013519908 A JP2013519908 A JP 2013519908A JP 5307958 B1 JP5307958 B1 JP 5307958B1
Authority
JP
Japan
Prior art keywords
screen
moving image
encoded
server
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013519908A
Other languages
English (en)
Other versions
JPWO2013125220A1 (ja
Inventor
哲史 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Holdings Co Ltd
Original Assignee
Square Enix Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Holdings Co Ltd filed Critical Square Enix Holdings Co Ltd
Priority to JP2013519908A priority Critical patent/JP5307958B1/ja
Application granted granted Critical
Publication of JP5307958B1 publication Critical patent/JP5307958B1/ja
Publication of JPWO2013125220A1 publication Critical patent/JPWO2013125220A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/08Bandwidth reduction

Abstract

描画された画面、該画面の描画に用いられた視点情報、及び該画面に対応する深度バッファを順次取得する。動画配信サーバは、取得された第1の画面を分割した複数のブロックの各々について評価画素を設定し、評価画素に描画されている描画オブジェクトについて、第1の画面よりも前に取得された第2の画面におけるスクリーン座標及び深度値を特定する。また第2の画面に対応する深度バッファにおける、スクリーン座標の深度値と、評価画素に描画されている描画オブジェクトの深度値とを比較し、2つの深度値を同一とみなせるブロックについては第2の画面との間でフレーム間符号化を行うことを決定する。そして第1の画面の描画に用いられた視点情報、第1の画面に対応する深度バッファ、及び第1の画面の各ブロックについてフレーム間符号化が行われるか否かを示す情報を含む符号化詳細情報を外部装置に送信する。

Description

本発明は、動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体に関し、特に符号化動画データのストリーミング配信技術に関する。
ネットワーク接続可能なパーソナルコンピュータ(PC)等のクライアント機器が普及している。このような機器の普及により、インターネットにおけるネットワーク人口は増加している。近年では、ネットワークユーザに対する、インターネットを利用した様々なサービスが展開されており、ゲーム等のエンターテインメントサービスも提供されている。
ネットワークユーザに対するサービスの1つとして、MMORPG(Massively Multiplayer Online Role-Playing Game)等の多人数同時参加型のネットワークゲームがある。多人数同時参加型のネットワークゲームでは、ユーザは使用するクライアント機器を、ゲームを提供するサーバ機器に接続することで、該サーバ機器に接続されているクライアント機器を使用するユーザとの対戦プレイや協力プレイを行うことができる。
一般的な多人数参加型のネットワークゲームでは、クライアント機器はサーバ機器との間でゲームの描画に必要なデータの送受信を行う。クライアント機器は、受信した描画に必要なデータを用いて描画処理を実行し、生成したゲーム画面をクライアント機器に接続された表示装置に提示することで、ユーザにゲーム画面を提供する。また、ユーザが入力インタフェースを操作することで入力された情報はサーバ機器に送信され、サーバ機器における演算処理に使用されたり、サーバ機器に接続された他のクライアント機器に伝送されたりする。
しかしながら、このようなクライアント機器で描画処理を行うネットワークゲームの中には、十分な描画性能を有するPCや専用のゲーム機をユーザが使用することが必要となるものがある。このため、ネットワークゲーム(1コンテンツ)のユーザ数は、コンテンツが要求するクライアント機器の性能に依存してしまう。高性能の機器は当然高価であり、該機器を所有できるユーザも限られる。即ち、例えば美麗なグラフィックを提供するゲーム等の高い描画性能が要求されるゲームでは、ユーザ数を増加させることが困難である。
これに対し、近年ではクライアント機器の描画性能等の処理能力に依存せずに、ユーザがプレイ可能なゲームも提供されている。特許文献1のようなゲームでは、サーバ機器はクライアント機器においてなされた操作の情報を取得し、該情報を用いて描画処理を実行して得られたゲーム画面を、クライアント機器に対して提供している。
国際公開第2009/138878号明細書
上述した特許文献1のようなゲームでは、サーバ機器がクライアント機器に対して提供するゲーム画面は、送信する情報量を削減するために、符号化された動画データの形態で提供される。採用される符号化方式にも依るが、例えばMPEG規格のように一般的な動画符号化方式においては、1フレームの画像を分割した各ブロックについて動き補償を伴わないイントラ符号化(フレーム内符号化)、あるいはフレーム間予測による動き補償を伴うインター符号化(フレーム間符号化)が行われる。それぞれの符号化方式には圧縮効率のよい被写体が存在しており、一般的には各ブロックについてイントラ符号化及びインター符号化のそれぞれを行ったブロック(iblock、pblock)を生成し、圧縮効率が高いブロックを符号化データに含める。
イントラ符号化は、圧縮対象のブロックの画像を加工せずにDCT変換及びランレングス符号化等を適用して圧縮する。一方、インター符号化は、圧縮対象のブロックの画像と、前のフレームの画像から抽出した該ブロックに対応する参照画像との差分画像を生成して、DCT変換及びランレングス符号化等を適用して圧縮する。このため、インター符号化においては、前のフレームの画像について、圧縮対象のブロックの画像との相関が最も高い領域を特定する処理が含まれる。このような相関が最も高い領域の検出に係る処理は、前のフレームの画像について評価領域を移動させながら、圧縮対象のブロックの画像との類似度及び距離を算出して解析を行うため、解析処理に時間を要してしまうことがある。
特に、ユーザの入力に応じてインタラクティブに描画内容が変化するゲーム等では、リアルタイム性、即ち入力に対する高速なレスポンスが要求され、動画符号化処理に要する時間が制限される。このような場合、各ブロックについての符号化処理、及びイントラ符号化及びインター符号化のいずれを行うかの判断処理を高速に行うことが要求される。しかしながら、描画した画面を高速かつ効率的に動画符号化する具体的な方法については、これまで開示されていなかった。
本発明は、上述の問題点に鑑みてなされたものであり、描画処理により得られた画面を高速かつ効率的に動画符号化する動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体を提供することを目的とする。
前述の目的を達成するために、本発明の動画配信サーバは、以下の構成を備える。
描画された画面、該画面の描画に用いられた視点情報、及び該画面に対応する深度バッファを順次取得する取得手段と、取得手段により取得された第1の画面を複数のブロックに分割する分割手段と、分割手段により分割された各ブロックについて評価画素を設定する設定手段と、設定手段により設定された評価画素に描画されている描画オブジェクトについて、第1の画面よりも前に取得された第2の画面におけるスクリーン座標及び深度値を特定する特定手段と、第2の画面に対応する深度バッファにおける、スクリーン座標の深度値と、特定手段により特定された評価画素に描画されている描画オブジェクトの深度値とを比較し、2つの深度値を同一とみなすか否かを判断する判断手段と、判断手段により2つの深度値が同一とみなされたブロックについては第2の画面との間でフレーム間符号化を行い、判断手段により2つの深度値を同一とみなされなかったブロックについてはフレーム内符号化を行う符号化手段と、第1の画面の描画に用いられた視点情報、第1の画面に対応する深度バッファ、及び第1の画面の各ブロックについて符号化手段によりフレーム間符号化が行われるか否かを示す情報を含む符号化詳細情報を外部装置に送信する送信手段と、を有し、送信手段は、符号化手段により符号化された第1の画面の各ブロックの符号化データの生成が完了する前に、符号化詳細情報を外部装置に送信することを特徴とする。
前述の目的を達成するために、本発明の動画再生装置は、以下の構成を備える。
1フレームの画面が符号化された符号化動画データを動画配信サーバから順次取得し、復号して再生する動画再生装置であって、第1の符号化動画データに符号化された第1の画面の描画に用いられた視点情報、第1の画面に対応する深度バッファ、及び第1の画面の各ブロックについてフレーム間符号化が行われたか否かを示す情報を含む符号化詳細情報を動画配信サーバから受信する第1の受信手段と、第1の受信手段により受信された符号化詳細情報に基づいて、第1の符号化動画データの復号に用いられる参照データを、第1の符号化動画データよりも前に取得された第2の符号化動画データを復号して得られた第2の画面から生成する復号前処理手段と、第1の符号化動画データを動画配信サーバから受信する第2の受信手段と、第2の受信手段により受信された第1の符号化動画データを、復号前処理手段により生成された参照データを用いて復号して再生する復号手段と、を有することを特徴とする。
このような構成により本発明によれば、描画処理により得られた画面を高速かつ効率的に動画符号化することが可能となる。
本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明の実施形態1に係る動画配信システムのシステム構成を示した図 本発明の実施形態に係るPC100の機能構成を示したブロック図 本発明の実施形態に係る動画配信サーバ200の機能構成を示したブロック図 本発明の実施形態1に係る動画配信サーバ200で実行される動画配信処理を例示したフローチャート 本発明の実施形態に係る動画配信サーバ200で実行される符号化判断処理を例示したフローチャート 本発明の実施形態に係る評価深度値と前フレーム深度値の比較方法を説明するための図 本発明の実施形態に係る動画配信サーバ200で実行される符号化処理を例示したフローチャート 本発明の実施形態に係るPC100で実行される動画再生処理を例示したフローチャート 本発明の実施形態に係るPC100で実行される復号前処理を例示したフローチャート 本発明の実施形態2に係る動画配信システムのシステム構成を示した図 本発明の実施形態2に係る中央サーバ1000の機能構成を示したブロック図 本発明の実施形態2に係る動画配信サーバ200で実行される情報収集処理を例示したフローチャート 本発明の実施形態2に係る中央サーバ1000で実行される判断処理を例示したフローチャート 本発明の実施形態2に係る動画配信サーバ200で実行される動画配信処理を例示したフローチャート
[実施形態1]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、動画配信システムの一例としての、動画再生装置であるPC100と、動画を配信する動画配信サーバ200とに本発明を適用した例を説明する。
《動画配信システムの構成》
図1は、本発明の実施形態に係る動画配信システムのシステム構成を示す図である。
図示されるように、PC100と動画配信サーバ200とはインターネット等のネットワーク300を介して接続されている。本実施形態ではPC100は、動画配信コンテンツの一例として、動画配信サーバ200において実行されるゲームコンテンツに係るゲーム画面を、符号化動画データとして受信する。本実施形態では動画配信サーバ200は、PC100においてなされた操作(ユーザ入力)を受信し、該操作に応じたゲーム画面を1フレームごとに描画する。そして動画配信サーバ200は、描画したゲーム画面を符号化し、得られた符号化動画データをPC100に配信する。またPC100は、動画配信サーバ200から符号化動画データを受信すると、該符号化動画データを復号して再生することで、ユーザに対してゲーム画面を提供することができる。
なお、本実施形態では動画配信コンテンツの一例として、ネットワーク300上の動画配信サーバ200において実行されるゲームプログラムにより描画されたゲーム画面を提供するコンテンツを説明するが、本発明の実施はこれに限られるものではない。動画配信サーバ200は、配信先に提供する動画配信コンテンツの1フレームを描画処理により描画し、毎フレームについて行われた符号化処理により得られた符号化動画データを配信する構成であればよい。また、1フレームに係る画面の描画は、必ずしも動画配信サーバ200において実行される必要はなく、例えば外部の描画サーバにより実行されてもよい。即ち、動画配信サーバ200は、1フレームに係る画面、該画面の描画に用いられた視点情報(カメラパラメータ)、及び該画面に対応する深度バッファを受信し、後述する符号化処理を実行するものであればよい。
また、本実施形態では動画配信サーバ200に接続するクライアント機器として、PC100を用いて説明するが、本発明の実施はこれに限られるものではない。例えば動画配信サーバ200と接続するクライアント機器は、家庭用ゲーム機、携帯ゲーム機、携帯電話、PDA、タブレット等の、動画配信サーバ200から受信した符号化動画データを復号して再生可能な機器であればよい。
〈PC100の構成〉
図2は、本発明の実施形態に係るPC100の機能構成を示すブロック図である。
CPU101は、PC100が有する各ブロックの動作を制御する。具体的にはCPU101は、例えばROM102に記録されている動画再生処理の動作プログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。
ROM102は、例えば書き換え可能な不揮発性メモリである。ROM102は、動画再生処理等の動作プログラムに加え、PC100が有する各ブロックの動作に必要な定数等の情報を記憶する。
RAM103は、揮発性メモリである。RAM103は、動作プログラムの展開領域としてだけでなく、PC100が有する各ブロックの動作において出力された中間データ等を一時的に記憶する格納領域としても用いられる。
復号部104は、後述する通信部105が受信した符号化動画データについて復号処理を行い、1フレームに係るゲーム画面を生成する。また復号部104は、符号化動画データについての復号処理を行う前に、該復号処理に用いる参照データを準備する復号前処理を行う。復号部104において実行される復号前処理及び復号処理については、後述する動画再生処理において詳述する。
通信部105は、PC100が有する通信インタフェースである。通信部105は、ネットワーク300を介して接続した、動画配信サーバ200等の他の機器との間におけるデータ送受信を行う。データ送信時には通信部105は、ネットワーク300あるいは送信先の機器との間で定められたデータ伝送形式にデータを変換し、送信先の機器へのデータ送信を行う。またデータ受信時には通信部105は、ネットワーク300を介して受信したデータを、PC100において読み取り可能な任意のデータ形式に変換し、例えばRAM103に記憶させる。
なお、本実施形態ではPC100と動画配信サーバ200とは、ネットワーク300を介して接続されるものとして説明するが、例えばPC100と動画配信サーバ200とが直接ケーブルにより接続される形態であってもよいことは容易に想像されよう。
表示部106は、例えばLCDモニタ等のPC100に接続された表示装置である。表示部106は、入力されたゲーム画面を表示領域に表示する表示制御を行う。なお、表示部106は、ラップトップPCのようにPC100に内蔵される表示装置であってもよいし、ケーブルを用いてPC100に外部接続された表示装置であってもよい。
操作入力部107は、例えばマウス、キーボード、ゲームパッド等のPC100が有するユーザインタフェースである。操作入力部107は、ユーザによりユーザインタフェースの操作がなされたことを検出すると、該操作に対応する制御信号をCPU101に対して出力する。
〈動画配信サーバ200の構成〉
図3は、本発明の実施形態に係る動画配信サーバ200の機能構成を示すブロック図である。
サーバCPU201は、動画配信サーバ200が有する各ブロックの動作を制御する。具体的にはサーバCPU201は、例えばサーバROM202に記憶されている動画配信処理の動作プログラムを読み出し、サーバRAM203に展開して実行することにより、各ブロックの動作を制御する。
サーバROM202は、例えば書き換え可能な不揮発性メモリである。サーバROM202は、動画配信処理等の動作プログラムに加え、動画配信サーバ200が有する各ブロックの動作において必要となる定数等の情報を記憶する。
サーバRAM203は、揮発性メモリである。サーバRAM203は、動作プログラムの展開領域としてだけでなく、動画配信サーバ200が有する各ブロックの動作において出力された中間データ等を一時的に記憶する格納領域としても用いられる。
サーバGPU204は、PC100の表示部106に表示するゲーム画面の生成を行う。サーバGPU204には、サーバVRAM205が接続される。サーバGPU204は、サーバCPU201より描画命令及びゲーム画面の描画に用いるカメラの位置及び方向の情報(視点情報)を受信すると、該描画命令に係る描画オブジェクトを例えば後述するサーバ記録媒体207から読み出し、GPUメモリに格納する。サーバGPU204は、接続されたサーバVRAM205に対して描画を行う場合、描画オブジェクトのキャッシュメモリへの展開を行なった後、該展開後の描画オブジェクトをサーバVRAM205に書き込む。
サーバ符号化部206は、サーバGPU204によりサーバVRAM205に生成されたゲーム画面に対する符号化処理を行う。サーバ符号化部206は、符号化対象のゲーム画面をブロックに分割し、各ブロックをイントラ符号化(フレーム内符号化)あるいはインター符号化(フレーム間符号化)する。符号化処理の詳細は後述するが、本実施形態ではサーバ符号化部206は、各ブロックをYCbCrの色チャネルごとに離散コサイン変換(DCT)した後、ランレングス符号化により圧縮する。
サーバ記録媒体207は、例えばHDD等の、動画配信サーバ200に着脱可能に接続される記録装置である。本実施形態ではサーバ記録媒体207には、描画処理において画面の生成に用いる描画オブジェクトのモデルデータや光源情報等が記録されているものとする。
サーバ通信部208は、動画配信サーバ200が有する通信インタフェースである。本実施形態ではサーバ通信部208は、ネットワーク300を介して接続したPC100等の、他の機器との間におけるデータ送受信を行う。なお、サーバ通信部208は通信部105と同様に、通信仕様に従ったデータ形式の変換を行う。
《動画配信処理》
このような構成をもつ本実施形態の動画配信システムの動画配信サーバ200において実行される動画配信処理について、図4のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、サーバCPU201が、例えばサーバROM202に記憶された対応する処理プログラムを読み出し、サーバRAM203に展開して実行することにより実現することができる。なお、本動画配信処理は、例えば動画配信サーバ200の提供するゲームコンテンツの提供要求をPC100から受信したことを、サーバCPU201が検出した際に開始され、ゲームの1フレームごとに繰り返し実行されるものとして説明する。
なお、本実施形態では動画配信サーバ200は、3次元シーンを描画したゲーム画面を符号化動画データの形態でPC100に提供するものとして説明する。しかしながら、上述したように動画配信サーバ200が配信するコンテンツはこれに限られず、3次元シーンを描画した画面を提供する任意のコンテンツであってよい。また以下の説明では簡単のため、描画したゲーム画面に含まれる描画オブジェクトは全て移動しない静的オブジェクトであるものとして説明する。
S401で、サーバCPU201は、次に描画するゲーム画面の視点情報を更新する。具体的にはサーバCPU201は、例えばサーバ通信部208が受信した、PC100においてユーザによりなされた、ゲームに係る操作入力の情報を参照し、次に描画するゲーム画面の視点情報を更新する。視点情報の更新が生じうるユーザによる操作は、例えば視点位置及び方向の変更操作、あるいはユーザの操作対象のキャラクタの移動等が相当する。なお、ゲーム画面の描画に用いられる視点情報の更新は、PC100においてなされたユーザ操作にのみ更新されるものではなく、例えばゲームの進行状況に応じて変更されるものであってもよい。
S402で、サーバCPU201は、S401において更新した視点情報に対応するゲーム画面をサーバGPU204に描画させる。具体的にはサーバCPU201は、描画されるゲーム画面に含まれる描画オブジェクトを特定し、該描画オブジェクトの描画順を決定する。そしてサーバCPU201は、決定した描画順に従って描画オブジェクトについての描画命令をサーバGPU204に伝送する。またサーバCPU201は、サーバGPU204に描画させる描画オブジェクトのモデルデータ(あるいは頂点データ及び結線データ)、テクスチャデータ、及び描画オブジェクトについての位置・回転情報のパラメータをサーバ記録媒体207から読み出してサーバGPU204に転送する。サーバGPU204は、転送された描画オブジェクトについての情報を、GPUメモリに格納する。
サーバGPU204は、描画命令を受けた描画オブジェクトについての位置・回転情報のパラメータに従って、GPUメモリに格納されたモデルデータを移動及び回転させる。そしてサーバGPU204は、該描画オブジェクトに対してテクスチャや光源エフェクトを適用した後、サーバVRAM205のフレームバッファに描画する。
なお、画面の描画においては、ピクセル単位で描画オブジェクトの前後関係による遮蔽(オクルージョン)が考慮される。即ち、特定のピクセルについて、対象の描画オブジェクトよりも前に、該描画オブジェクトよりも視点側(手前)に位置する他の描画オブジェクトの描画が既に行われている場合、対象の描画オブジェクトの描画オブジェクトのピクセルへの描画は省略される。
描画オブジェクトの前後関係の把握は、深度バッファ(zバッファ、深度マップ等とも呼ばれる)を参照して行われる。深度バッファは、各ピクセルの画素値が、該ピクセルに描画されている描画オブジェクトと視点(カメラ)との直線距離(z値:深度値)を示す2次元画像であり、サーバVRAM205に格納される。サーバGPU204は、画面に含める各描画オブジェクトを描画順に従って描画する際に、対象の描画オブジェクトを描画するピクセルを特定してその深度値を参照し、描画しようとしている描画オブジェクトの該ピクセルにおける深度値との大小比較を行う。描画しようとしている対象の描画オブジェクトの深度値の方が小さい場合は対象の描画オブジェクトが手前に配置されることを示しているため、サーバGPU204はサーバVRAM205の該ピクセルに対象の描画オブジェクトを描画する。このとき、サーバGPU204は、深度バッファの該ピクセルの深度値を、対象の描画オブジェクトの深度値に変更することで、深度バッファを更新する。
このように、全ての描画オブジェクトについての描画が完了すると、サーバVRAM205には描画したゲーム画面に対応する深度バッファが完成している。
S403で、サーバCPU201は、描画されたゲーム画面、該ゲーム画面の描画に用いられた視点情報、及び該ゲーム画面に対応する深度バッファを、サーバRAM203に格納する。本実施形態の動画配信サーバ200は、PC100に提供する符号化動画データの各フレームについて、描画したゲーム画面、該ゲーム画面の描画に用いられた視点情報、及び該ゲーム画面に対応する深度バッファをサーバRAM203に格納し、少なくとも次のフレームの符号化処理が完了するまで保持するものとする。これらの情報は現フレームの符号化動画データの作成の他に、次のフレームにおける符号化処理や後述する符号化判断処理に用いられる。
S404で、サーバCPU201は、描画されたゲーム画面をYCbCr空間に色変換した後、ゲーム画面を所定の画素数(例えば16pixel×16pixel)のブロックに分割する。
S405で、サーバCPU201は符号化判断処理を実行し、各ブロックについてフレーム内符号化を行うか、あるいはフレーム間符号化を行うかを決定する。
〈符号化判断処理〉
ここで、本実施形態の動画配信サーバ200で実行される符号化判断処理について、図5のフローチャートを用いて詳細を説明する。
S501で、サーバCPU201は、描画されたゲーム画面(対象ゲーム画面)のブロックのうち、符号化方法の決定がなされていないブロックを選択する。
S502で、サーバCPU201は、選択ブロック内の画素のうちの1つの画素を評価画素として設定する。なお、サーバCPU201は、設定した評価画素についての対象ゲーム画面におけるスクリーン座標(Scurrent)をサーバRAM203に格納する。
S503で、サーバCPU201は、設定された評価画素に描画されている描画オブジェクト(評価画素オブジェクト)の3次元座標(Dcurrent)を特定する。具体的にはサーバCPU201はまず、対象ゲーム画面に対応する深度バッファから、評価画素のスクリーン座標Scurrentにおける深度値(zcurrent)を取得する。次にサーバCPU201は、対象ゲーム画面の描画に用いられた視点情報、評価画素のスクリーン座標Scurrentから、評価画素オブジェクトへの方向を特定する。そしてサーバCPU201は、視点情報、特定した評価画素オブジェクトへの方向、及び評価画素の深度値zcurrentから、評価画素オブジェクトの3次元座標Dcurrentを特定する。
S504で、サーバCPU201は、現フレームの1つ前のフレームで描画されたゲーム画面(前フレーム画面)における、評価画素オブジェクトのスクリーン座標(Sprevious)及び深度値(評価深度値zestimate)を算出する。具体的にはサーバCPU201は、サーバRAM203に格納されている前フレーム画面の描画に用いられた視点情報を読み出し、評価画素オブジェクトの3次元座標Dcurrentを、前フレーム画面におけるスクリーン座標Spreviousに変換する。またサーバCPU201は、前フレーム画面の描画に用いられた視点情報に含まれる視点位置と、評価画素オブジェクトの3次元座標Dcurrentとの距離である深度値zestimateを算出する。
S505で、サーバCPU201は、前フレーム画面に対応する深度バッファをサーバRAM203から読み出し、スクリーン座標Spreviousにおける深度値(前フレーム深度値zprevious)を取得する。
S506で、サーバCPU201は、前フレーム画面における評価画素オブジェクトの評価深度値zestimateと、前フレーム深度値zpreviousとが、同一とみなせるか否かを判断する。具体的にはサーバCPU201は、評価深度値zestimateと前フレーム深度値zpreviousの差分の絶対値が、同一とみなす閾値以下であるか否かを判断する。本ステップにおいてサーバCPU201は、評価画素オブジェクトが前フレームのゲーム画面において遮蔽されていたか否かを判断する。
例えば図6のように、視点Aについて描画された現フレームのゲーム画面(対象ゲーム画面)601における評価画素602及び603について考える。評価画素602に対応する評価画素オブジェクト604は、視点Bについて描画された前フレームのゲーム画面(前フレーム画面)606において対応画素607の位置に描画される。このとき、評価画素オブジェクト604は前フレーム画面606において遮蔽されていないため、評価深度値zestimateと前フレーム深度値zpreviousとは一致する。一方、評価画素603に対応する評価画素オブジェクト605は、前フレーム画面606において対応画素608の位置に描画される。しかしながらこのとき、評価画素オブジェクト605は前フレーム画面606において遮蔽されているため、評価深度値zestimateと前フレーム深度値zpreviousとは異なる。
このように、本実施形態の符号化判断処理では現フレームと前フレームの視点情報及び深度バッファを用いることで、選択ブロックに描画されている描画オブジェクトが、前フレーム画面に描画されていたか否かを判断する。
サーバCPU201は、前フレーム画面における評価画素オブジェクトの評価深度値と前フレーム深度値とが同一とみなせると判断した場合は処理をS507に移し、同一とみなせないと判断した場合は処理をS508に移す。
S507で、サーバCPU201は、サーバRAM203に格納されている、評価深度値と前フレーム深度値が一致した回数を更新する。
S508で、サーバCPU201は、選択ブロックについて設定した評価画素の数が予め定められた評価サンプル数に達したか否かを判断する。サーバCPU201は、選択ブロックについて設定した評価画素の数が評価サンプル数に達したと判断した場合は処理をS509に移し、達していないと判断した場合は処理をS502に戻す。
S509で、サーバCPU201は、サーバRAM203に格納されている評価深度値と前フレーム深度値が一致した回数が閾値を越えるか否かを判断する。サーバCPU201は、評価深度値と前フレーム深度値が一致した回数が閾値を越えると判断した場合は、選択ブロックの遮蔽状態に変化がないものとして処理をS510に移す。またサーバCPU201は、評価深度値と前フレーム深度値が一致した回数が閾値を越えないと判断した場合は、処理をS511に移す。
S510で、サーバCPU201は、選択ブロックに対してフレーム間符号化を行うことを示す符号化識別情報を関連づける。符号化識別情報は、例えば1bitの論理型情報であってよい。即ち、本実施形態では選択ブロックについて、フレーム内符号化及びフレーム間符号化のいずれを実行するかを、選択ブロックに含まれる描画オブジェクトが前フレームにおいて遮蔽状態であるか否かによって決定する。つまり、選択ブロックに含まれる描画オブジェクトが前フレームにおいて遮蔽状態ではない場合は、選択ブロックと類似度の高いパターン(テクスチャ等)を有する領域が前フレーム画面に存在することになる。このため、サーバCPU201はフレーム間予測を行った方が圧縮効率が高いと判断し、該選択ブロックにはフレーム間符号化を行って符号化動画データを生成するものとする。
S511で、サーバCPU201は、対象ゲーム画面の全てのブロックについてS502乃至S510の処理を実行したか否かを判断する。サーバCPU201は、まだ処理が実行されていないブロックが存在すると判断した場合は処理をS501に戻し、存在しないと判断した場合は本符号化判断処理を完了する。
サーバCPU201は、このように符号化判断処理によって描画されたゲーム画面の各ブロックを、フレーム内符号化とフレーム間符号化のいずれを行なうかを判断する。
S406で、サーバCPU201は符号化詳細情報として、描画されたゲーム画面の各ブロックの符号化識別情報、該ゲーム画面の描画に用いられた視点情報、及び描画されたゲーム画面に対応する深度バッファをサーバ通信部208に伝送し、PC100に対して送信させる。符号化詳細情報は、PC100において実行される、後述の復号前処理に用いられる。
S407で、サーバCPU201は、描画されたゲーム画面に対して符号化処理を実行し、符号化動画データを生成する。
〈符号化処理〉
ここで、本実施形態の動画配信サーバ200において実行される符号化処理について、図7を参照して詳細を説明する。
S701で、サーバCPU201は、描画されたゲーム画面のブロックのうち、符号化がなされていないブロックを選択する。
S702で、サーバCPU201は、選択ブロックに符号化識別情報が関連付けられているか否かを判断する。即ち、サーバCPU201は、選択ブロックについてフレーム間符号化を行うか否かを、符号化識別情報により判断する。サーバCPU201は、選択ブロックに符号化識別情報が関連付けられていると判断した場合は処理をS703に移し、関連付けられていないと判断した場合は処理をS705に移す。
S703で、サーバCPU201は、現フレームの1つ前のフレームで描画されたゲーム画面(前フレーム画面)内の選択ブロックに対応する領域の画像から、フレーム間符号化に使用する参照画像(参照データ)を生成する。具体的にはサーバCPU201はまず、上述した符号化判断処理と同様の方法で、選択ブロックの四隅の画素を前フレーム画面のスクリーン座標に変換することで対応する領域の四隅の座標を特定する。そしてサーバCPU201は、該対応する領域の画像に対して、例えば前フレーム画面と現フレームのゲーム画面の描画に用いられた視点情報とから生成された変換マトリクスを乗ずることで、選択ブロックと同じ画素数の参照画像を生成する。
S704で、サーバCPU201は、選択ブロックの画像と参照画像との差分を差分画像として生成し、符号化対象画像として設定する。具体的にはサーバCPU201は、選択ブロックの画像の各画素値から、参照画像の対応する画素の画素値を減算することにより差分画像(pblock)を生成する。
一方、S702において選択ブロックに符号化識別情報が関連付けられていないと判断した場合、サーバCPU201はS705において、選択ブロックの画像を符号化対象画像として設定する。
S706で、サーバCPU201は、符号化対象画像をサーバ符号化部206に伝送し、DCT処理を実行させて周波数領域のデータに変換させる。またサーバCPU201は、変換により得られた周波数領域のデータに対してサーバ符号化部206にランレングス符号化を行わせることで、選択ブロックの符号化データを生成させる。
S707で、サーバCPU201は、描画されたゲーム画面の全てのブロックについてS702乃至S706の処理を実行したか否かを判断する。サーバCPU201は、まだ処理が実行されていないブロックが存在すると判断した場合は処理をS701に戻し、存在しないと判断した場合は本符号化処理を完了する。
このようにしてサーバCPU201は、描画されたゲーム画面から符号化動画データを生成する。なお、本実施形態の符号化処理で生成される符号化動画データは、フレーム間符号化を行なったブロックについて動きベクトルを含む必要がない。即ち、本実施形態の動画配信サーバ200では、従来のようにブロックの画像と相関が最も高い領域の検索等を行うことなく、画面の描画に用いられた視点情報及び深度バッファを用いて該領域の特定がなされるため、符号化動画データには動きベクトルが含まれない。またS406において、符号化詳細情報として相関が最も高い領域を特定するために必要な情報がPC100にも送信されているため、PC100においては同様に復号時に必要となる参照画像の生成を行えばよく、動きベクトルを使用する必要がない。
S408で、サーバCPU201は、S407において生成した符号化動画データをサーバ通信部208に伝送し、PC100に対して送信させ、現フレームの動画配信処理を完了する。
《動画再生処理》
次に、本実施形態のPC100において実行される動画再生処理について、図8のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、CPU101が、例えばROM102に記録されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本動画再生処理は、例えばPC100において動画配信サーバ200の提供するゲームコンテンツを受信するアプリケーションが実行された際に開始され、ゲームの1フレームごとに繰り返し実行されるものとして説明する。
S801で、CPU101は、通信部105が動画配信サーバ200から符号化詳細情報を受信したか否かを判断する。CPU101は、動画配信サーバ200から符号化詳細情報を受信したと判断した場合は処理をS802に移し、受信していないと判断した場合は本ステップの処理を繰り返す。
S802で、CPU101は、符号化詳細情報を参照し、現フレームのゲーム画面の復号に必要な参照データを準備する復号前処理を実行する。
〈復号前処理〉
ここで、本実施形態のPC100で実行される復号前処理について、図9のフローチャートを用いて詳細を説明する。
S901で、CPU101は、現フレームで受信するゲーム画面のブロックのうち、使用された符号化方式の判定がなされていないブロックを選択する。
S902で、CPU101は、符号化詳細情報を参照し、選択ブロックにフレーム間符号化が行われることを示す符号化識別情報が関連付けられているか否かを判断する。CPU101は、選択ブロックに符号化識別情報が関連付けられていると判断した場合は処理をS903に移し、関連付けられていないと判断した場合は処理をS904に移す。
S903で、CPU101は、現フレームの1つ前のフレームで復号したゲーム画面(前フレーム画面)内の選択ブロックに対応する領域の画像から、選択ブロックの復号に使用する参照画像(参照データ)を生成する。本実施形態のPC100は、動画配信サーバ200と同様に1つ前のフレームで復号した前フレーム画面、前フレーム画面の描画に用いられた視点情報、及び前フレーム画面に対応する深度バッファをRAM103に保持しているものとする。CPU101は、上述した動画配信サーバ200の符号化処理と同様の方法で選択ブロックと同じ画素数の参照画像を生成する。
S904で、CPU101は、現フレームで受信するゲーム画面の全てのブロックについてS902乃至S903の処理を実行したか否かを判断する。サーバCPU201は、まだ処理が実行されていないブロックが存在すると判断した場合は処理をS901に戻し、存在しないと判断した場合は本復号前処理を完了する。
このように本実施形態のPC100では、符号化動画データの前に受信した符号化詳細情報を参照することで、符号化動画データの受信後に行われる復号処理に先立って、復号処理で用いられる参照データを準備することができる。
S803で、CPU101は、通信部105が動画配信サーバ200から符号化動画データを受信したか否かを判断する。CPU101は、動画配信サーバ200から符号化動画データを受信したと判断した場合は処理をS804に移し、受信していないと判断した場合は本ステップの処理を繰り返す。
S804で、CPU101は、受信した符号化動画データを復号部104に伝送し、復号処理を実行させてゲーム画面を生成させる。具体的には復号部104は、符号化動画データの各ブロックについてランレングス符号化データ列の復号、逆DCT処理を行うことで現フレームのゲーム画面のブロックデータを生成する。またフレーム間符号化が行われたブロックについては、上述した復号前処理で生成された参照データを加算することで、復号部104は現フレームのゲーム画面を生成する。
S805で、CPU101は、S804において生成された現フレームのゲーム画面を表示部106に伝送し、対応する表示領域に表示させ、現フレームの動画再生処理を完了する。
このように、本実施形態の動画配信システムにおける動画配信サーバ200は、符号化動画データの生成が完了して配信するよりも前に、符号化方法の情報を動画再生装置であるPC100に伝えることができる。即ち、符号化動画データの受信前に参照画像を前処理として準備することができるため、符号化動画データを受信してから行われる復号処理を短縮することができる。つまり、フレーム間符号化がなされたブロックの復号に用いる参照画像を、受信した符号化動画データに含まれる動きベクトルを参照して前のフレームの画像から生成する従来の方法に比べて、本実施形態の動画配信方法は復号した動画像の再生までに要する時間を短縮することができる。
また本実施形態の動画配信サーバ200は、フレーム間符号化を行うブロックについての、前フレームのゲーム画面から相関が最も高い領域を探索するために行われる類似度の計算を必要としない。例えば、画像間の類似度の計算としてユークリッド距離を算出する場合、基準画像として設定した画像を対象画像に対して画素単位あるいは半画素単位でずらしながら、最も距離が短くなる位置を特定する。このため、探索範囲内において基準画像を移動する回数に応じて計算量が増大する。一方、本実施形態の動画配信サーバ200では、フレームの画面とともに生成される深度バッファ及び該画面の描画に用いられた視点情報を参照することで、相関が最も高くなる領域の特定及び相関度の高さの推定を行うことができる。即ち、座標変換マトリクスを用いた単純な計算で参照画像となる領域を特定できるため、従来の方式で用いられる方式よりも計算量を低減でき、結果的に符号化処理に要する時間を短縮することができる。なお、2つのフレームについてのスクリーン座標への変換に用いられる変換マトリクスは、2つのフレームそれぞれの描画に用いられた視点情報から算出されるものであるため、フレーム内の全てのブロックについて再利用することができる。
なお、本実施形態ではフレーム間符号化あるいはその復号で参照される参照画像は、現フレームの1つ前のフレームで描画された画面から生成するものとして説明したが、本発明の実施はこれに限定されるものではない。参照画像の生成は、現フレームよりも前のフレームで描画された画面であればよい。
また、本実施形態では説明を簡単にするため、描画範囲に含まれる描画オブジェクトは動きのない静的オブジェクトであるものとして説明したが、本発明の実施はこれに限られるものではない。深度値の比較を行うため、静的オブジェクトであることが好ましいが、例えば1フレーム間であれば各描画オブジェクトの変化も小さいと考えられる。このため、評価深度値と前フレーム深度値とが同一とみなせる範囲であれば、本発明を適用することができる。この場合、評価画素に描画されている描画オブジェクトの前フレームからの移動量を考慮し、深度値の比較を行うか否かを判断してもよい。即ち、描画オブジェクトの移動量が閾値以上である場合は、深度値の比較を行わずフレーム内符号化を行うことを決定してもよい。
また、上述した動画配信処理では、現フレームの画面の全てのブロックについて符号化判断処理が行われた後に、得られた符号化詳細情報をPC100に送信するものとして説明したが、符号化詳細情報の送信タイミングはこれに限られないことは容易に想像されよう。即ち、各ブロックについてフレーム間符号化を行うか否かの判断結果が得られた場合に、全てのブロックについての判断結果が得られるのを待たずに、サーバCPU201は該ブロックの符号化詳細情報をPC100に送信してもよい。
以上説明したように、本実施形態の動画配信サーバは、描画処理により得られた画面を高速かつ効率的に動画符号化することができる。具体的には動画配信サーバは、描画された画面、該画面の描画に用いられた視点情報、及び該画面に対応する深度バッファを順次取得する。動画配信サーバは、取得された第1の画面を分割した複数のブロックの各々について評価画素を設定し、評価画素に描画されている描画オブジェクトについて、第1の画面よりも前に取得された第2の画面におけるスクリーン座標及び深度値を特定する。また第2の画面に対応する深度バッファにおける、スクリーン座標の深度値と、評価画素に描画されている描画オブジェクトの深度値とを比較し、2つの深度値を同一とみなせるブロックについては第2の画面との間でフレーム間符号化を行うことを決定する。そして第1の画面の描画に用いられた視点情報、第1の画面に対応する深度バッファ、及び第1の画面の各ブロックについてフレーム間符号化が行われるか否かを示す情報を含む符号化詳細情報を外部装置に送信する。
このようにすることで、フレーム間符号化処理に係る計算量を低減し、外部装置における復号に用いる参照データを符号化動画データの受信前に準備することができる。このため、動画再生装置におけるユーザ入力に応じて変化する動画コンテンツを動画配信サーバが配信する場合に、ユーザ入力に対する応答性を高めた動画コンテンツを、動画再生装置のユーザに提供することができる。
[変形例]
上述した実施形態では、フレームの画面の描画とともに深度バッファが得られるものとして説明したが、本発明の実施は、画面の描画手法によっては特に効率化することができる。
従来の描画手法は、ゲーム画面に含まれる描画オブジェクトの各々を順番に選択し、該描画オブジェクトについて
1.バーテックスシェーダによる移動・回転処理
2.ジオメトリシェーダによる頂点処理
3.ピクセルシェーダによるピクセル単位の陰影処理を含むエフェクト処理
を行って描画する。即ち、各描画オブジェクトについて、陰影処理→描画の流れを有する、所謂Forward Renderingであった。Forward Renderingでは、各オブジェクトが逐次処理されるために、ピクセルによっては1つのオブジェクトが描画された後、よりカメラに対して近い位置にある(該オブジェクトよりも手前にある)別のオブジェクトの描画により、描画内容が上書きされてしまうケースがある。この場合、後から描画されたオブジェクトにより遮蔽される、先に描画されたオブジェクトの一部の領域については、適用した陰影処理が無駄になってしまう。また例えば描画するシーンに存在する光源等は、シーンに存在するオブジェクトに対して共通であるが、Forward Renderingでは1つのオブジェクトを描画する際の共通の計算内容を、別のオブジェクトの描画のために再利用することが難しかった。このため、特に複雑な陰影処理を行うゲーム画面の描画においては、Forward Renderingは効率的ではなかった。
これに対しDeferred Renderingでは、Forward Renderingとは異なり、陰影処理に用いるジオメトリの計算を先に行い、全ての描画オブジェクトについての陰影処理を、後からまとめて行う。即ち、ジオメトリ描画→陰影処理→描画の流れを有する2段階の描画処理を行う。Deferred Renderingでは、前段の描画において、ライティングを行わずに陰影処理に用いるパラメータとともにジオメトリの描画処理を行い、陰影処理で使用される中間値を示す複数の中間値マップ(散乱マップ、深度マップ、法線マップ、反射マップ、拡散マップ等)を生成する。そして後段の描画処理において、生成された複数の中間値マップを利用しながら、光源を適用して陰影処理を行なった画面を描画する。
このように、動画配信サーバ200においてDeferred Renderingによりフレームのゲーム画面を描画する場合、最終的なゲーム画面が得られるよりも前に、前段の描画で深度バッファ(深度マップ)が生成される。即ち、上述した符号化判断処理が、最終的なゲーム画面の描画よりも前に実行することができるため、動画配信サーバ200は上述した実施形態よりも早い段階で、PC100に対して符号化詳細情報を伝送することができる。また、符号化判断処理によりフレーム間符号化の実行が決定されたブロックについては、2パス目の描画中に参照画像の準備に移行することも可能であるため、最終的なゲーム画面を生成してから符号化処理を完了するまでの時間を、より短縮することができる。
[実施形態2]
上述した実施形態及び変形例では、異なるフレームの描画において生成された深度バッファを用いて、ゲーム画面の符号化処理をイントラ符号化及びインター符号化のいずれの符号化方式を採用するかを決定することで、ゲーム画面を高速かつ効率的に動画符号化する方法を説明した。本実施形態では、動画配信サーバ200に対して複数の動画再生装置であるPC100が接続される場合における、ゲーム画面の高速な動画符号化、及び動画符号化データの効率的な配信方法について説明する。
《動画配信システムの構成》
図10は、本実施形態に係る動画配信システムのシステム構成を示す図である。なお、本実施形態の説明において、上述した実施形態1と同様の構成及び装置については同一の参照番号を付し、説明を省略するものとする。
図示されるように、本実施形態の動画配信サーバ200には、ネットワーク300を介して複数のPC100が接続されている。本実施形態では動画配信サーバ200は、各PC100においてなされた操作を受信し、該操作に応じたゲーム画面を1フレームごとに描画する。このとき動画配信サーバ200は、複数のPC100の各々に提供するゲーム画面の描画処理及び画面の符号化処理を同時並行して実行するものとする。そして動画配信サーバ200は、各PC100に対して符号化動画データを同時並行して配信する。
また本実施形態の動画配信システムにおいて、動画配信サーバ200はネットワーク1100を介して中央サーバ1000に接続されている。一般に、オンラインのゲームサービスでは、サービスの負荷分散のために複数の地点にサービス提供用の動画配信サーバ200が配置される。本実施形態ではこのように複数地点に分散配置された複数の動画配信サーバ200を、中央サーバ1000が統合管理する。中央サーバ1000は、各動画配信サーバ200から動画配信状況の情報を収集して判断処理を行い、効率的な動画配信を可能にする適切なパラメータを動画配信サーバ200に対して指示することで、効率的な動画配信を実現させる。
なお、本実施形態では動画配信サーバ200と中央サーバ1000とはネットワーク1100を介して接続されるものとするが、本発明の実施はこれに限られるものではなく、中央サーバ1000はPC100と同様にネットワーク300を介して動画配信サーバ200に接続するように設計されていてもよい。また、実際の実施態様を想定して本実施形態では複数地点に分散配置された動画配信サーバ200を中央サーバ1000が統合管理するものとして説明するが、本発明の実施はこれに限られない。複数の動画配信サーバ200は同一地点に各々独立して存在していてもよいし、それらを中央サーバ1000が統合管理するように設計されていてもよい。この場合、動画配信サーバ200と中央サーバ1000はネットワーク1100を介して接続されず、各機器同士が直接有線接続されるものであってもよい。
このような本実施形態の動画配信システムにおいては、接続している複数のPC100に対しての符号化動画データの配信を同時並行に処理する能力が動画配信サーバ200に対して要求される。しかしながら、オンラインゲームサービスのように、動画配信サーバ200に接続するクライアント数が時間に応じて変動するサービスの場合、動画配信サーバ200の性能設計は困難であった。例えば、接続するクライアント数がトラフィックのピーク時間帯におけるサービス提供を基準に性能設計をした場合、ピーク時間帯以外の時間帯においてはインフラ性能に余剰が生じることになる。このような性能設計は、動画配信サーバ200の導入コストを不要に増加させることになる。また例えばピーク時間帯以外の時間帯におけるサービス提供を基準に性能設計をした場合、ピーク時間帯においては許容クライアント数を超えるクライアントへのサービス提供は不可能であるため、動画配信サーバ200の導入数を増やす必要があり、結果的に導入コストを不要に増加させることになる。
本実施形態の動画配信システムでは、このように動画配信サービスにおける動画配信サーバ200の性能設計をピーク時間帯以外の時間帯を基準に行った場合における、高速な動画符号化及び動画符号化データの効率的な配信方法及び効率的な負荷分散を提案する。
〈中央サーバ1000の構成〉
図11は、本発明の実施形態に係る中央サーバ1000の機能構成を示すブロック図である。
中央CPU1001は、中央サーバ1000が有する各ブロックの動作を制御する。具体的には中央CPU1001は、例えば中央ROM1002に記憶されている各ブロックの動作プログラムを読み出し、中央RAM1003に展開して実行することにより各ブロックの動作を制御する。
中央ROM1002は、例えば書き換え可能な不揮発性メモリである。中央ROM1002は、中央サーバ1000が有する各ブロックの動作プログラムに加え、各ブロックの動作において必要となる定数等の情報を記憶する。
中央RAM1003は、揮発性メモリである。中央RAM1003は、動作プログラムの展開領域としてだけでなく、中央サーバ1000が有する各ブロックの動作において出力された中間データ等を一時的に記憶する格納領域として用いられる。本実施形態では中央RAM1003には、中央サーバ1000に接続された動画配信サーバ200における動画配信状況を示す情報が格納される。
中央通信部1004は、中央サーバ1000が有する通信インタフェースである。本実施形態では中央通信部1004は、ネットワーク1100を介して接続した動画配信サーバ200から、動画配信サーバ200において実行されている動画配信処理に係る動画配信状況を示す情報を受信する。また中央通信部1004は、中央サーバ1000における動画配信状況の判断処理の結果得られる、各動画配信サーバ200への動画配信処理において提供される符号化動画データの品質調整に係るパラメータを、各動画配信サーバ200に送信する。
《情報収集処理》
まず各動画配信サーバ200において実行される、動画配信処理に係る動画配信状況を示す情報を収集する情報収集処理について、図12のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理はサーバCPU201が、例えばサーバROM202に格納された対応する処理プログラムを読み出し、サーバRAM203に展開して実行することにより実現することができる。なお、本情報収集処理は、例えば動画配信サーバ200がPC100に対する動画配信を行っている間、所定の時間間隔で定期的に実行されるものとして説明する。
S1201で、サーバCPU201は、動画配信サーバ200に現在接続しているクライアント数を取得する。現在接続しているクライアント数は、例えばサーバ通信部208が各PC100からの接続要求を受けた際にサーバRAM203に格納されている接続数の情報が更新されることで、管理されていればよい。
S1202で、サーバCPU201は、動画配信にあたってクライアント1台あたりに対して使用している平均CPU使用率を算出する。具体的にはサーバCPU201は、現在の総CPU使用率をS1201において取得したクライアント数で除することにより、平均CPU使用率を算出する。なお、CPU使用率とは、CPUが提供可能なリソースのうち、何パーセントのリソースをクライアント1台について使用しているかを指すものとする。
S1203で、サーバCPU201は、動画配信にあたってクライアント1台あたりに対して使用している平均GPU使用率を同様に算出する。なお、GPU使用率とは、GPUが提供可能なリソースのうち、何パーセントのリソースをクライアント1台について使用しているかを指すものとする。
S1204で、サーバCPU201は、動画配信にあたってクライアント1台あたりに対して送信している符号化動画データの平均動画データサイズを算出する。本実施形態のような動画配信システムにおいて、各PC100では様々な表示解像度で符号化動画データを閲覧することが想定される。即ち、PC100においてユーザあるいはアプリケーションは、PC100の性能や好みに応じて提供を受ける符号化動画データの解像度を480p、720p、1080p等の中から選択し、対応する符号化動画データを動画配信サーバ200から受信する。また描画されるシーンによって符号化効率も変わってくるため、各PC100に対して提供する符号化動画データのデータサイズは符号化ビットレートを固定にしない限り、様々なデータサイズとなりうる。このように各PC100に対して送信する符号化動画データのデータサイズは異なることが想定されるため、サーバCPU201は本ステップにおいて平均動画データサイズを算出する。なお、本実施形態では各PC100に対して提供する符号化動画データが、表示解像度及びデータサイズが異なるものとして平均動画データサイズを算出するものとして説明したが、これらが固定であることが保証される場合は、本ステップの処理は行われなくてもよい。
S1205で、サーバCPU201は、S1202〜S1204における処理で算出した平均CPU使用率、平均GPU使用率、及び平均動画データサイズを、動画配信状況の情報としてサーバ通信部208を介して中央サーバ1000に送信し、本情報収集処理を完了する。
《判断処理》
このように動画配信サーバ200において実行された情報収集処理により得られた動画配信状況の情報を取得した中央サーバ1000において実行される判断処理について、図13のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、中央CPU1001が、例えば中央ROM1002に記憶された対応する処理プログラムを読み出し、中央RAM1003に展開して実行することにより実現することができる。なお、本判断処理は、例えば各動画配信サーバ200から動画配信状況の情報を受信した際や、所定の時間間隔で定期的に実行されるものとして説明する。
また、以下の説明において、中央サーバ1000において受信された各動画配信サーバ200の動画配信状況の情報は、中央CPU1001により中央RAM1003に格納されるものとする。
S1301で、中央CPU1001は、中央サーバ1000に接続している各動画配信サーバ200から受信した動画配信状況の情報を参照し、システム全体としての平均CPU使用率、平均GPU使用率、及び平均動画データサイズを算出する。具体的には中央CPU1001は、全動画配信サーバ200から受信したそれぞれの情報について平均値を算出することで、システム全体としての配信状況を特定する。
S1302で、中央CPU1001は、現在のシステム全体としての動画配信状況の情報に基づいて、システム全体としてサポート可能なクライアント数の予測値を算出する。本実施形態の中央サーバ1000では、サポート可能なクライアント数の予測値を次の3種類の演算式を用いて算出する。
1.サーバあたりのCPU数×動画配信サーバ200数/平均CPU使用率
2.サーバあたりのGPU数×動画配信サーバ200数/平均GPU使用率
3.ネットワーク300の最大転送可能データサイズ/平均動画データサイズ
中央CPU1001は、上述の3式から得られた予測値をそれぞれ予測値1、予測値2、予測値3して中央RAM1003に格納する。
S1303で、中央CPU1001は、S1302において算出した予測値のうちの最も小さいクライアント数の予測値が、最低限サービス提供を行うクライアント数として予め定められたクライアント数Zより小さいか否かを判断する。中央CPU1001は、予測値が最低限サービス提供を行うクライアント数Zよりも小さいと判断した場合は処理をS1304に移し、小さくないと判断した場合は本判断処理を完了する。
S1304で、中央CPU1001は、最も小さいクライアント数の予測値を算出した演算式の解が、最低限サービス提供を行うクライアント数Zよりも大きい値となる、各動画配信サーバ200からPC100に提供する符号化動画データの最大解像度を決定する。符号化動画データの最大解像度は、上述したように予め提供可能な解像度が定められているものとする。本ステップにおいて中央CPU1001は、このうちのいずれか1つの解像度を提供する符号化動画データの最大解像度として選択する。
なお、提供する符号化動画データの最大解像度を変更することで減少するCPU使用率、GPU使用率、及び平均動画データサイズの情報は、例えば予め取得され、テーブルとして中央ROM1002等に格納されていればよい。そして中央CPU1001は、該テーブルを参照することで、条件を満たす最大解像度を決定すればよい。またテーブルとして予め記憶されていなくとも、別途各動画配信サーバ200から各PC100に対して提供している符号化動画データの解像度の情報を取得し、該情報に基づいて最適な最大解像度を決定してもよい。
S1305で、中央CPU1001は、決定した符号化動画データの最大解像度の情報を、中央通信部1004を介して各動画配信サーバ200に対して送信し、本判断処理を完了する。
このように、本実施形態の動画配信システムでは、中央CPU1001が各動画配信サーバ200における動画配信状況を考慮して、動画配信における符号化動画データの最大解像度を決定して各動画配信サーバ200に対して通知する。これにより、システム全体において性能設計を超えるクライアント数が動画配信サーバ200に対して接続した場合であっても、配信する符号化動画データの解像度を低減させ、最低限のサービス品質を維持した状態でサービス提供を行うことができる。
なお、本実施形態では中央CPU1001は、システム全体として最低限のサービス品質を保証するよう、提供する符号化動画データの最大解像度を決定するものとして説明したが、このとき該最大解像度にしたとしても、リソース内で接続している各PC100にサービス提供できない動画配信サーバ200については、該サーバに接続している一部のクライアントを、接続数の少ないネットワーク1100上の他の動画配信サーバ200に接続するよう、ワークロードのバランス調整を行ってもよい。
《動画配信処理》
以下、本実施形態の動画配信システムの動画配信サーバ200において実行される動画配信システムについて、図14のフローチャートを用いて具体的な処理を説明する。なお、本動画配信処理において実施形態1の動画配信処理と同様の処理を行うステップについては、同一の参照番号を付して説明を省略し、本実施形態において特徴的な処理についてのみ以下に説明する。
S1401で、サーバCPU201は、符号化動画データの最大解像度が設定されているか否かを判断する。具体的にはサーバCPU201は、中央サーバ1000から受信した符号化動画データの最大解像度の情報がサーバRAM203に格納されているか否かにより、本ステップの判断を行う。サーバCPU201は、符号化動画データの最大解像度が設定されていると判断した場合は処理をS1402に移し、設定されていないと判断した場合は処理をS401に移す。
S1402で、サーバCPU201は、ゲーム画面の提供先のPC100から最大解像度より大きい解像度での符号化動画データの提供が要求されているか否かを判断する。サーバCPU201は、要求されている符号化動画データの解像度が最大解像度より大きいと判断した場合は処理をS1403に移し、最大解像度未満であると判断した場合は処理をS401に移す。
S1403で、サーバCPU201は、S402で描画するゲーム画面の解像度を中央サーバ1000により提供された最大解像度に設定し、処理をS401に移す。
このようにすることで、動画配信処理において描画されるゲーム画面の最大解像度を設定することができる。また、このようにゲーム画面の最大解像度が設定されることで、同時に生成される深度バッファの解像度も最大解像度も規定されるため、上述した符号化判断処理における処理量も低減することができる。
以上説明したように、本実施形態の動画配信システムでは、システムに接続しているクライアント数及び動画配信状況に応じて、ゲーム画面の高速に動画符号化し、動画符号化データを効率的に配信することができる。なお、本実施形態では中央サーバ1000がシステム全体の動画配信状況を考慮して、配信する符号化動画データの最大解像度を設定するものとして説明したが、本発明の実施はこれに限られるものではなく、上述した判断処理は例えば動画配信サーバ200の各々で実行されてもよい。即ち、システム全体を考慮するのではなく、接続されているクライアントについての動画配信状況を考慮して、動画配信サーバ200の各々が判断処理を行って、動画配信における最大解像度を動的に変更しながら動画配信を行ってもよい。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
本願は、2012年2月23日提出の日本国特許出願特願2012−037769、及び2012年4月25日提出の日本国特許出願特願2012−100328を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。

Claims (13)

  1. 描画された画面、該画面の描画に用いられた視点情報、及び該画面に対応する深度バッファを順次取得する取得手段と、
    前記取得手段により取得された第1の画面を複数のブロックに分割する分割手段と、
    前記分割手段により分割された各ブロックについて評価画素を設定する設定手段と、
    前記設定手段により設定された前記評価画素に描画されている描画オブジェクトについて、前記第1の画面よりも前に取得された第2の画面におけるスクリーン座標及び深度値を特定する特定手段と、
    前記第2の画面に対応する深度バッファにおける、前記スクリーン座標の深度値と、前記特定手段により特定された前記評価画素に描画されている描画オブジェクトの深度値とを比較し、2つの深度値を同一とみなすか否かを判断する判断手段と、
    前記判断手段により前記2つの深度値が同一とみなされたブロックについては前記第2の画面との間でフレーム間符号化を行い、前記判断手段により前記2つの深度値が同一とみなされなかったブロックについてはフレーム内符号化を行う符号化手段と、
    前記第1の画面の描画に用いられた視点情報、前記第1の画面に対応する深度バッファ、及び前記第1の画面の各ブロックについて前記符号化手段によりフレーム間符号化が行われるか否かを示す情報を含む符号化詳細情報を外部装置に送信する送信手段と、を有し、
    前記送信手段は、前記符号化手段により符号化された前記第1の画面の各ブロックの符号化データの生成が完了する前に、前記符号化詳細情報を前記外部装置に送信する
    ことを特徴とする動画配信サーバ。
  2. 前記各ブロックの符号化データには動きベクトルが含まれないことを特徴とする請求項1に記載の動画配信サーバ。
  3. 前記符号化手段は、フレーム間符号化を行うブロックについては、前記第1の画面の描画に用いられた視点情報及び前記第1の画面に対応する深度バッファと、前記第2の画面の描画に用いられた視点情報とを用いて、該ブロックに対応する前記第2の画面の領域を特定して抽出し、該ブロックの画像と該対応する領域の画像との差分を符号化することを特徴とする請求項1または2に記載の動画配信サーバ。
  4. 前記特定手段は、
    前記第1の画面の描画に用いられた視点情報と前記第1の画面に対応する深度バッファとに基づいて、前記評価画素に描画されている描画オブジェクトの3次元座標を算出する第1の算出手段と、
    前記第2の画面の描画に用いられた視点情報を用いて、前記第1の算出手段により算出された3次元座標を前記第2の画面におけるスクリーン座標及び深度値に変換する変換手段と、
    を含むことを特徴とする請求項1乃至3のいずれか1項に記載の動画配信サーバ。
  5. 前記動画配信サーバは、接続している複数の動画受信装置に対して同時並行して符号化動画データを生成して送信し、
    前記動画配信サーバは、
    画面の描画及び該画面に対応する深度バッファの生成を行う描画手段と、
    深度バッファ及び符号化詳細情報の生成、前記描画手段による描画処理、前記符号化手段による符号化処理について、前記動画受信装置1台あたりの前記動画配信サーバにおける平均CPU使用率、平均GPU使用率、及び符号化動画データの平均データサイズを収集する収集手段と、
    前記収集手段により収集された前記平均CPU使用率、前記平均GPU使用率、及び前記平均データサイズに基づいて算出された動画配信可能な動画受信装置の予測数が、予め定められた動画配信可能な動画受信装置の最低数よりも小さい場合に、前記予測数が該最低数を満たす、各動画受信装置に送信する符号化動画データの最大解像度を設定する解像度設定手段をさらに有し、
    前記描画手段は、前記解像度設定手段により設定された最大解像度に従って画面の描画及び深度バッファの生成を行う
    ことを特徴とする請求項1乃至3のいずれか1項に記載の動画配信サーバ。
  6. 1フレームの画面が符号化された符号化動画データを動画配信サーバから順次取得し、復号して再生する動画再生装置であって、
    第1の符号化動画データに符号化された第1の画面の描画に用いられた視点情報、前記第1の画面に対応する深度バッファ、及び前記第1の画面の各ブロックについてフレーム間符号化が行われたか否かを示す情報を含む符号化詳細情報を前記動画配信サーバから受信する第1の受信手段と、
    前記第1の受信手段により受信された前記符号化詳細情報に基づいて、前記第1の符号化動画データの復号に用いられる参照データを、前記第1の符号化動画データよりも前に取得された第2の符号化動画データを復号して得られた第2の画面から生成する復号前処理手段と、
    前記第1の符号化動画データを前記動画配信サーバから受信する第2の受信手段と、
    前記第2の受信手段により受信された前記第1の符号化動画データを、前記復号前処理手段により生成された前記参照データを用いて復号して再生する復号手段と、
    を有することを特徴とする動画再生装置。
  7. 前記復号前処理手段は、フレーム間符号化が行われたブロックについては、前記第1の画面の描画に用いられた視点情報及び前記第1の画面に対応する深度バッファと、前記第2の画面の描画に用いられた視点情報とを用いて、該ブロックに対応する第2の画面の領域を特定し、前記参照データとして抽出することを特徴とする請求項6に記載の動画再生装置。
  8. 前記第1の受信手段による前記符号化詳細情報の受信は、前記第2の受信手段による前記第1の符号化動画データの受信よりも前に行われることを特徴とする請求項6または7に記載の動画再生装置。
  9. 動画配信サーバの取得手段が、描画された画面、該画面の描画に用いられた視点情報、及び該画面に対応する深度バッファを順次取得する取得工程と、
    前記動画配信サーバの分割手段が、前記取得工程において取得された第1の画面を複数のブロックに分割する分割工程と、
    前記動画配信サーバの設定手段が、前記分割工程において分割された各ブロックについて評価画素を設定する設定工程と、
    前記動画配信サーバの特定手段が、前記設定工程において設定された前記評価画素に描画されている描画オブジェクトについて、前記第1の画面よりも前に取得された第2の画面におけるスクリーン座標及び深度値を特定する特定工程と、
    前記動画配信サーバの判断手段が、前記第2の画面に対応する深度バッファにおける、前記スクリーン座標の深度値と、前記特定工程において特定された前記評価画素に描画されている描画オブジェクトの深度値とを比較し、2つの深度値を同一とみなすか否かを判断する判断工程と、
    前記動画配信サーバの符号化手段が、前記判断工程において前記2つの深度値が同一とみなされたブロックについては前記第2の画面との間でフレーム間符号化を行い、前記判断工程において前記2つの深度値が同一とみなされなかったブロックについてはフレーム内符号化を行う符号化工程と、
    前記動画配信サーバの送信手段が、前記第1の画面の描画に用いられた視点情報、前記第1の画面に対応する深度バッファ、及び前記第1の画面の各ブロックについて前記符号化工程においてフレーム間符号化が行われるか否かを示す情報を含む符号化詳細情報を外部装置に送信する送信工程と、を有し、
    前記送信手段は前記送信工程において、前記符号化工程において符号化された前記第1の画面の各ブロックの符号化データの生成が完了する前に、前記符号化詳細情報を前記外部装置に送信する
    ことを特徴とする動画配信サーバの制御方法。
  10. 1フレームの画面が符号化された符号化動画データを動画配信サーバから順次取得し、復号して再生する動画再生装置の制御方法であって、
    前記動画再生装置の第1の受信手段が、第1の符号化動画データに符号化された第1の画面の描画に用いられた視点情報、前記第1の画面に対応する深度バッファ、及び前記第1の画面の各ブロックについてフレーム間符号化が行われたか否かを示す情報を含む符号化詳細情報を前記動画配信サーバから受信する第1の受信工程と、
    前記動画再生装置の復号前処理手段が、前記第1の受信工程において受信された前記符号化詳細情報に基づいて、前記第1の符号化動画データの復号に用いられる参照データを、前記第1の符号化動画データよりも前に取得された第2の符号化動画データを復号して得られた第2の画面から生成する復号前処理工程と、
    前記動画再生装置の第2の受信手段が、前記第1の符号化動画データを前記動画配信サーバから受信する第2の受信工程と、
    前記動画再生装置の復号手段が、前記第2の受信工程において受信された前記第1の符号化動画データを、前記復号前処理工程において生成された前記参照データを用いて復号して再生する復号工程と、
    を有することを特徴とする動画再生装置の制御方法。
  11. コンピュータを、請求項1乃至5のいずれか1項に記載の動画配信サーバの各手段として機能させるためのプログラム。
  12. コンピュータを、請求項6乃至8のいずれか1項に記載の動画再生装置の各手段として機能させるためのプログラム。
  13. 請求項11または12に記載のプログラムが記録されたコンピュータが読み取り可能な記録媒体。
JP2013519908A 2012-02-23 2013-02-20 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 Active JP5307958B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013519908A JP5307958B1 (ja) 2012-02-23 2013-02-20 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012037769 2012-02-23
JP2012037769 2012-02-23
JP2012100328 2012-04-25
JP2012100328 2012-04-25
JP2013519908A JP5307958B1 (ja) 2012-02-23 2013-02-20 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
PCT/JP2013/000957 WO2013125220A1 (ja) 2012-02-23 2013-02-20 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013134169A Division JP5833599B2 (ja) 2012-02-23 2013-06-26 プログラム、記録媒体及び符号化方式決定方法

Publications (2)

Publication Number Publication Date
JP5307958B1 true JP5307958B1 (ja) 2013-10-02
JPWO2013125220A1 JPWO2013125220A1 (ja) 2015-07-30

Family

ID=49005415

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013519908A Active JP5307958B1 (ja) 2012-02-23 2013-02-20 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
JP2013134169A Active JP5833599B2 (ja) 2012-02-23 2013-06-26 プログラム、記録媒体及び符号化方式決定方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013134169A Active JP5833599B2 (ja) 2012-02-23 2013-06-26 プログラム、記録媒体及び符号化方式決定方法

Country Status (7)

Country Link
US (2) US8988501B2 (ja)
EP (1) EP2672452B1 (ja)
JP (2) JP5307958B1 (ja)
KR (1) KR20140133770A (ja)
CN (1) CN103392189B (ja)
CA (1) CA2821830A1 (ja)
WO (1) WO2013125220A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508980B2 (en) 1996-08-08 2016-11-29 Hitachi Chemical Company, Ltd. Graphite particles and lithium secondary battery using the same as negative
JP7410413B2 (ja) 2021-04-02 2024-01-10 株式会社カプコン 情報処理システム、情報処理端末およびプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872888B2 (en) * 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
EP2674916B1 (en) 2012-04-12 2018-06-27 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image playback device, control method, program, and recording medium
US20150188977A1 (en) * 2013-11-04 2015-07-02 Google Inc. Verifying Content Rendering on a Client Device
US10298668B2 (en) 2014-03-24 2019-05-21 Square Enix Co., Ltd. Interactive system, terminal apparatus, server apparatus, control method, program, and recording medium
US10225546B2 (en) * 2016-02-26 2019-03-05 Qualcomm Incorporated Independent multi-resolution coding
CN107527375A (zh) * 2016-06-20 2017-12-29 北京八亿时空信息工程有限公司 在无线智能终端设备上加载三维模型的方法及系统
US10560678B2 (en) * 2016-11-09 2020-02-11 Mediatek Inc. Method and apparatus having video encoding function with syntax element signaling of rotation information of content-oriented rotation applied to 360-degree image content or 360-degree video content represented in projection format and associated method and apparatus having video decoding function
WO2019098092A1 (ja) * 2017-11-15 2019-05-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10572748B2 (en) * 2017-12-06 2020-02-25 GM Global Technology Operations LLC Autonomous vehicle adaptive parallel image processing system
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
US10972738B2 (en) * 2018-03-29 2021-04-06 Mediatek Inc. Video encoding apparatus having reconstruction buffer with fixed size and/or bandwidth limitation and associated video encoding method
CN110365980A (zh) * 2019-09-02 2019-10-22 移康智能科技(上海)股份有限公司 动态调整图像编码区域的方法
CN111651131B (zh) * 2020-05-18 2024-02-27 武汉联影医疗科技有限公司 图像的显示方法、装置和计算机设备
CN114466174B (zh) * 2022-01-21 2023-04-28 南方科技大学 一种多视点3d图像编码方法、设备、系统和存储介质
CN117596394A (zh) * 2024-01-18 2024-02-23 之江实验室 一种自适应精度的深度图帧间压缩方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07327231A (ja) * 1994-04-01 1995-12-12 At & T Corp 圧縮ビデオ・ビットストリーム合成のシステムおよび方法
JP2002369205A (ja) * 2001-06-06 2002-12-20 Matsushita Electric Ind Co Ltd 動画像生成装置
JP2007251543A (ja) * 2006-03-15 2007-09-27 Seiko Epson Corp 表示制御装置、その制御方法、情報再生装置及び電子機器
JP2013041568A (ja) * 2011-08-17 2013-02-28 Square Enix Holdings Co Ltd 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2821792B2 (ja) 1990-04-04 1998-11-05 鹿島建設株式会社 型枠装置
JP3287977B2 (ja) * 1995-04-28 2002-06-04 松下電器産業株式会社 動きベクトル検出方法および装置と動画像符号化方法および装置
US6167088A (en) * 1998-04-03 2000-12-26 Sarnoff Corporation Method and apparatus for performing adaptive encoding rate control of a video information stream including 3:2 pull-down video information
US20020032905A1 (en) 2000-04-07 2002-03-14 Sherr Scott Jeffrey Online digital video signal transfer apparatus and method
US7155415B2 (en) 2000-04-07 2006-12-26 Movielink Llc Secure digital content licensing system and method
WO2001078304A1 (en) 2000-04-07 2001-10-18 Movielink, Llc Website system and process for selection and delivery of electronic information on a network
US20020073033A1 (en) 2000-04-07 2002-06-13 Sherr Scott Jeffrey Online digital video signal transfer apparatus and method
US7024466B2 (en) 2000-04-07 2006-04-04 Movielink, Llc Network configured for delivery of content for download to a recipient
US20020154157A1 (en) 2000-04-07 2002-10-24 Sherr Scott Jeffrey Website system and process for selection and delivery of electronic information on a network
US6868191B2 (en) 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
US6741259B2 (en) 2001-03-30 2004-05-25 Webtv Networks, Inc. Applying multiple texture maps to objects in three-dimensional imaging processes
EP1495412B1 (en) 2002-03-22 2012-11-28 Alandro Consulting NY LLC Scalable high performance 3d graphics
US6975329B2 (en) 2002-12-09 2005-12-13 Nvidia Corporation Depth-of-field effects using texture lookup
JP2006513502A (ja) 2003-01-17 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 完全な奥行きマップを得る方法
GB2406184B (en) 2003-09-17 2006-03-15 Advanced Risc Mach Ltd Data processing system
US20090027383A1 (en) 2003-11-19 2009-01-29 Lucid Information Technology, Ltd. Computing system parallelizing the operation of multiple graphics processing pipelines (GPPLs) and supporting depth-less based image recomposition
JP4242318B2 (ja) * 2004-04-26 2009-03-25 任天堂株式会社 3次元画像生成装置および3次元画像生成プログラム
US7558428B2 (en) 2004-09-13 2009-07-07 Microsoft Corporation Accelerated video encoding using a graphics processing unit
JP4735471B2 (ja) 2006-08-16 2011-07-27 ソニー株式会社 復号処理装置及び復号処理方法並びに復号処理プログラム
EP2512139B1 (en) * 2006-10-30 2013-09-11 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
JP4357537B2 (ja) 2007-02-26 2009-11-04 富士通株式会社 配信経路制御装置
JP4931223B2 (ja) * 2007-03-30 2012-05-16 株式会社バンダイナムコゲームス 動きベクトル探索プログラム、情報記憶媒体、動きベクトル探索装置、及び、ネットワークシステム
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
WO2009058600A1 (en) 2007-11-02 2009-05-07 Symbol Technologies, Inc. Efficient encoding and decoding of mixed data strings in rfid tags and other media
US8264493B2 (en) 2008-05-12 2012-09-11 Playcast Media Systems, Ltd. Method and system for optimized streaming game server
US8154553B2 (en) 2008-05-22 2012-04-10 Playcast Media System, Ltd. Centralized streaming game server
EP2364190B1 (en) 2008-05-12 2018-11-21 GameFly Israel Ltd. Centralized streaming game server
CN101291415B (zh) * 2008-05-30 2010-07-21 华为终端有限公司 一种三维视频通信的方法、装置及系统
WO2010043773A1 (en) 2008-10-17 2010-04-22 Nokia Corporation Sharing of motion vector in 3d video coding
EP2184713A1 (en) 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
US8429269B2 (en) 2009-12-09 2013-04-23 Sony Computer Entertainment Inc. Server-side rendering
JP4815004B2 (ja) * 2010-04-16 2011-11-16 シャープ株式会社 多視点画像符号化装置
EP2384001A1 (en) 2010-04-29 2011-11-02 Alcatel Lucent Providing of encoded video applications in a network environment
JP5841540B2 (ja) 2010-11-26 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、プログラム、及び集積回路
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
JP5076132B1 (ja) 2011-05-25 2012-11-21 株式会社スクウェア・エニックス・ホールディングス 描画制御装置、その制御方法、プログラム、記録媒体、描画サーバ、及び描画システム
PL3849186T3 (pl) 2011-06-24 2024-01-03 Mitsubishi Electric Corporation Urządzenie do kodowania obrazu ruchomego, urządzenie do dekodowania obrazu ruchomego, sposób kodowania obrazu ruchomego i sposób dekodowania obrazu ruchomego
US9044677B2 (en) * 2011-07-11 2015-06-02 Roblox Corporation System for optimizing processing capacity for a group of gaming appliances engaged in play of an online game
TW201320716A (zh) 2011-11-01 2013-05-16 Acer Inc 動態景深調整裝置及其方法
EP3739886A1 (en) 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
WO2013107931A1 (en) 2012-01-19 2013-07-25 Nokia Corporation An apparatus, a method and a computer program for video coding and decoding
EP2674916B1 (en) 2012-04-12 2018-06-27 Square Enix Holdings Co., Ltd. Moving image distribution server, moving image playback device, control method, program, and recording medium
JP6787667B2 (ja) 2012-09-21 2020-11-18 ノキア テクノロジーズ オサケユイチア ビデオコーディングのための方法と装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07327231A (ja) * 1994-04-01 1995-12-12 At & T Corp 圧縮ビデオ・ビットストリーム合成のシステムおよび方法
JP2002369205A (ja) * 2001-06-06 2002-12-20 Matsushita Electric Ind Co Ltd 動画像生成装置
JP2007251543A (ja) * 2006-03-15 2007-09-27 Seiko Epson Corp 表示制御装置、その制御方法、情報再生装置及び電子機器
JP2013041568A (ja) * 2011-08-17 2013-02-28 Square Enix Holdings Co Ltd 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508980B2 (en) 1996-08-08 2016-11-29 Hitachi Chemical Company, Ltd. Graphite particles and lithium secondary battery using the same as negative
JP7410413B2 (ja) 2021-04-02 2024-01-10 株式会社カプコン 情報処理システム、情報処理端末およびプログラム

Also Published As

Publication number Publication date
EP2672452B1 (en) 2017-12-27
JPWO2013125220A1 (ja) 2015-07-30
CN103392189B (zh) 2017-10-31
EP2672452A4 (en) 2016-06-22
KR20140133770A (ko) 2014-11-20
EP2672452A1 (en) 2013-12-11
US20150156474A1 (en) 2015-06-04
CA2821830A1 (en) 2013-08-23
JP5833599B2 (ja) 2015-12-16
US20130293675A1 (en) 2013-11-07
US8988501B2 (en) 2015-03-24
WO2013125220A1 (ja) 2013-08-29
CN103392189A (zh) 2013-11-13
JP2013243702A (ja) 2013-12-05
US9491433B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
JP5307958B1 (ja) 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
JP5155462B2 (ja) 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体
JP5404971B1 (ja) 動画配信サーバ、制御方法、プログラム、及び動画配信システム
TWI523673B (zh) 動畫配信伺服器、動畫播放裝置、控制方法、程式、及記錄媒體
TWI532005B (zh) An animation distribution server, an animation reproduction apparatus, a control method, a program, and a recording medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130627

R150 Certificate of patent or registration of utility model

Ref document number: 5307958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250