JP6157758B2 - 情報処理装置及び動画再生方法及び動画再生プログラム - Google Patents

情報処理装置及び動画再生方法及び動画再生プログラム Download PDF

Info

Publication number
JP6157758B2
JP6157758B2 JP2016563382A JP2016563382A JP6157758B2 JP 6157758 B2 JP6157758 B2 JP 6157758B2 JP 2016563382 A JP2016563382 A JP 2016563382A JP 2016563382 A JP2016563382 A JP 2016563382A JP 6157758 B2 JP6157758 B2 JP 6157758B2
Authority
JP
Japan
Prior art keywords
frame
information
difference information
display object
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016563382A
Other languages
English (en)
Other versions
JPWO2016092704A1 (ja
Inventor
森 健太郎
健太郎 森
堀 淳志
淳志 堀
博康 根岸
博康 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016092704A1 publication Critical patent/JPWO2016092704A1/ja
Application granted granted Critical
Publication of JP6157758B2 publication Critical patent/JP6157758B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、各フレームの表示内容がオブジェクトの組合せで構成される動画データの再生に関する。
オブジェクトとは、動画データにおける描画単位であり、画面を構成する1つ1つの画像又は図形である。
以下では、オブジェクトの組合せで構成される動画データの例として、アニメーションデータを説明する。
従来のアニメーション表示装置は、アニメーションデータをオブジェクトごとの前フレームからの差分情報で構成することによりデータサイズを削減していた(例えば、特許文献1)。
このようなアニメーションデータでは、基本フレームデータと差分フレームデータで構成されるのが一般的である。
基本フレームデータは、表示オブジェクト情報を構築するのに必要な全ての情報が含まれているデータである。
表示オブジェクト情報は、あるフレームで表示すべきオブジェクトの情報であり、表示するオブジェクトの種類、個数、位置、大きさ、色等のオブジェクトの描画属性が定義されているフレームごとの情報である。
差分フレームデータは、前のフレームからのオブジェクト単位の差分情報である。
この基本フレームデータをアニメーションデータ内に複数配列することで、任意のフレームにおける表示オブジェクト情報の構築を高速にする方法が開示されている(例えば、特許文献2)。
また、アニメーション再生時に前後フレームの差分フレームデータを作成することにより、フレームの表示順序が一定でない場合においても、データ量削減および描画高速化を実現する方法が開示されている(例えば、特許文献3)。
特許第5323251号 特許第4362480号 特開2000−148131
従来のアニメーション表示装置は、基本フレームデータと差分フレームデータによりアニメーションデータのデータサイズを削減している。
しかしながら、任意フレームの表示オブジェクト情報の構築を高速にするためには基本フレームデータをアニメーションデータ内に複数持つ必要があり、その分データサイズが大きくなるという課題があった。
また、アニメーション再生時に差分フレームデータを作成することでデータ量を削減しつつ任意フレームの描画の高速化を行う方法も提案されている。
しかし、この方法でも、差分フレームデータ作成のCPU(Central Processing Unit)負荷が大きく、また差分フレームデータを作るために必要な元データサイズが大きいという課題がある。
この発明は上記のような課題を解決することを主な目的としており、オブジェクトの組合せで構成される動画データのデータ量削減と、動画データの再生を開始する再生開始フレームの表示オブジェクト情報の構築の高速化を主な目的とする。
本発明に係る情報処理装置は、
複数のフレームの各々に対応付けられているオブジェクト単位の差分情報を用いてフレームごとにオブジェクト表示情報を生成して動画を再生する動画再生部と、
フレームごとに差分情報を解析してフレームの属性であるフレーム属性を判定する解析部とを有し、
前記動画再生部は、
前記複数のフレームの先頭フレーム以外のフレームが、動画の再生を開始する再生開始フレームに指定された場合に、前記解析部により判定されたフレーム属性に基づいて、前記複数のフレームの中からいずれかのフレームを抽出し、抽出したフレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成して前記再生開始フレームから動画の再生を開始する。
本発明では、抽出したフレームの差分情報と再生開始フレームの差分情報とにより再生開始フレームの表示オブジェクト情報を生成する。
このため、再生開始フレームの表示オブジェクト情報を少ないデータ量で生成することができ、動画データのデータ量削減と再生開始フレームの表示オブジェクト情報の構築の高速化を実現することができる。
実施の形態1に係る情報処理装置のハードウェア構成例を示す図。 実施の形態1に係る情報処理装置の機能構成例を示す図。 実施の形態1に係る情報処理装置の動作例を示すフローチャート図。 実施の形態2に係るアニメーション表示装置の機能構成例を示す図。 実施の形態2に係る差分情報を構成するコマンドの例を示す図。 実施の形態2に係るアニメーションデータの例を示す図。 実施の形態2に係るキーフレームの例を示す図。 実施の形態2に係るアニメーション表示装置の動作例を示すフローチャート図。 実施の形態3に係るアニメーション表示装置の機能構成例を示す図。 実施の形態3に係るアニメーション表示装置の動作例を示すフローチャート図。 実施の形態3に係るアニメーション表示装置の動作例を示すフローチャート図。 実施の形態3に係るオブジェクトの階層構造の例を示す図。 実施の形態3に係るオブジェクトの階層構造の例を示す図。
実施の形態1.
***構成の説明***
図1は、本実施の形態に係る情報処理装置100のハードウェア構成例を示す。
なお、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
情報処理装置100は、CPU11、メモリ12、描画専用プロセッサ13、入力装置14、出力装置15がシステムバス16を介して接続されて構成される。
情報処理装置100はコンピュータである。
CPU11及び描画専用プロセッサ13は、プログラムを実行するプロセッサである。
メモリ12は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
入力装置14は、例えば、マウス、キーボード又はタッチパネルである。
出力装置15は、例えば、LCD(Liquid Crystal Display)等のディスプレイである。
メモリ12には、後述する解析部102及び動画再生部104の機能を実現するプログラムが記憶されている。
また、メモリ12には、OS(Operating System)も記憶されている。
CPU11は、OSを実行しながら、解析部102の機能を実現するプログラムを実行する。
また、描画専用プロセッサ13は、OSを実行しながら動画再生部104の機能を実現するプログラムを実行する。
図2は、本実施の形態に係る情報処理装置100の機能構成の一例を示す機能ブロック図である。
動画データ101はメモリ12で記憶されており、動画データ101がメモリ12からCPU11に読み込まれる。
そして、CPU11が解析部102の処理手順が記述されたプログラムを実行することで解析結果情報103が生成される。
生成された解析結果情報103はメモリ12で記憶される。
また、動画データ101及び解析結果情報103がメモリ12から描画専用プロセッサ13に読み込まれる。
そして、描画専用プロセッサ13が動画再生部104の処理手順が記述されたプログラムを実行することにより、解析結果情報103を用いた動画データ101の再生が行われる。
以下では、CPU11による解析部102の処理手順が記述されたプログラムの実行を解析部102の動作として説明する。
また、描画専用プロセッサ13による動画再生部104の処理手順が記述されたプログラムの実行を動画再生部104の動作として説明する。
なお、解析部102及び動画再生部104を「サーキットリー」で提供してもよい。
また、解析部102及び動画再生部104を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ又はロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった複数種類の処理回路をも包含する概念である。
動画データ101は、各フレームの表示内容がオブジェクトの組合せで構成されている。
動画再生部104は、複数のフレームの各々に対応付けられているオブジェクト単位の差分情報を用いてフレームごとにオブジェクト表示情報を生成して動画データ101を再生する。
より具体的には、動画再生部104は、先頭フレームでは初期状態からのオブジェクト単位の差分を示す差分情報に基づいて表示オブジェクト情報を生成する。
一方、先頭フレーム以外の各フレームでは、動画再生部104は、直前のフレームからのオブジェクト単位の差分を示す差分情報に基づいて表示オブジェクト情報を生成して動画データ101を再生する。
表示オブジェクト情報は、前述したように、あるフレームで表示すべきオブジェクトの情報であり、表示するオブジェクトの種類、個数、位置、大きさ、色等のオブジェクトの描画属性が定義されているフレームごとの情報である。
動画再生部104は、生成した表示オブジェクト情報に基づいて、各フレームのオブジェクトを描画する。
先頭フレームから動画データ101の再生が開始する場合は、動画再生部104は、先頭フレームからフレームの順に差分情報に基づいて各フレームの表示オブジェクト情報を生成する。
しかし、先頭フレーム以外のフレームから動画データ101の再生が開始する場合に、動画の再生を開始する再生開始フレームが先頭フレームから離れていれば、先頭フレームから順に差分情報に基づいて表示オブジェクト情報を生成していく方式だと、再生開始フレームの表示オブジェクト情報に達するまでに時間を要する。
解析部102は、フレームごとに差分情報を解析してフレームの属性であるフレーム属性を判定する。
そして、解析部102は、フレーム属性の判定結果を解析結果情報103として動画再生部104に出力する。
動画再生部104は、複数のフレームの先頭フレーム以外のフレームが再生開始フレームに指定された場合に、解析結果情報103を参照する。
そして、動画再生部104は、解析部102により判定されたフレーム属性に基づいて、複数のフレームの中からいずれかのフレームを抽出する。
また、抽出したフレームの差分情報と再生開始フレームの差分情報とを用いて再生開始フレームの表示オブジェクト情報を生成して再生開始フレームから動画の再生を開始する。
***動作の説明***
図3は、本実施の形態に係る情報処理装置100の動作例を示す。
以下で示す手順は、本願に係る動画再生方法及び動画再生プログラムの例に対応する。
まずS0−1で、解析部102が動画データ101の各フレームの差分情報を解析して各フレームのフレーム属性を判定する(解析処理)
判定結果は、解析結果情報103として、動画再生部104に出力される。
次に、先頭フレーム以外のフレームから再生を開始する場合(S0−2でYES)は、動画再生部104は、S0−3で、解析結果情報103を参照して、再生開始フレームに先行する先行フレームからいずれかのフレームを抽出する。
そして、動画再生部104は、抽出したフレームの差分情報と再生開始フレームの差分情報とを用いて再生開始フレームの表示オブジェクト情報を生成して、動画データ101の再生を開始する(動画再生処理)。
このため、動画再生部104は、先頭フレームから順に各フレームの表示オブジェクト情報を生成して再生開始フレームに到達するよりも高速かつ効率的に再生開始フレームの表示オブジェクト情報を生成することができる。
一方、先頭フレームから再生を開始する場合(S0−2でNO)は、動画再生部104は、S0−4で、先頭フレームの表示オブジェクト情報を生成して、動画データ101の再生を開始する。
***効果の説明***
このように、本実施の形態では、先頭フレーム以外のフレームから再生を開始する場合に、先頭フレームからフレームの順に差分情報に基づいて再生開始フレームの表示オブジェクト情報を生成するよりも高速かつ効率的に再生開始フレームの表示オブジェクト情報を生成することができる。
実施の形態2.
本実施の形態では、実施の形態1で示した情報処理装置100の具体例を説明する。
本実施の形態では、解析部102は、フレームごとにフレーム属性を判定する。
そして、解析部102は、全てのオブジェクトの削除が差分情報で指示されているフレーム属性をもつキーフレームを、複数のフレームの中から識別する。
更に、解析部102は、解析結果情報103として、識別したキーフレームが記述されるキーフレーム情報を生成する。
また、動画再生部104は、キーフレーム情報を参照して、再生開始フレームに先行する先行フレームの中からキーフレームを抽出する。
そして、動画再生部104は、抽出したキーフレームの差分情報と再生開始フレームの差分情報とを用いて再生開始フレームの表示オブジェクト情報を生成する。
先行フレームに複数のキーフレームが存在する場合は、動画再生部104は、再生開始フレームに最も近いキーフレームを抽出する。
また、キーフレームから再生開始フレームまでの間に中間フレームが存在する場合は、動画再生部104は、中間フレームを抽出する。
動画再生部104は、キーフレームの差分情報と中間フレームの差分情報と再生開始フレームの差分情報とをフレームの順に用いて再生開始フレームの表示オブジェクト情報を生成する。
なお、以下では、実施の形態1で示した情報処理装置100の例として、動画データの例であるアニメーションデータを表示するアニメーション表示装置1を説明する。
***構成の説明***
本実施の形態に係るアニメーション表示装置1のハードウェア構成例は図1に示した通りである。
つまり、本実施の形態に係るアニメーション表示装置1は、CPU11、メモリ12、描画専用プロセッサ13、入力装置14、出力装置15がシステムバス16を介して接続されて構成される。
図4はアニメーション表示装置の機能構成の一例を示す機能ブロック図である。
アニメーション制御情報更新部21、アニメーションデータ解析部22はCPU11で実行される。
つまり、アニメーション制御情報更新部21の処理手順が記述されたプログラム、アニメーションデータ解析部22の処理手順が記述されたプログラムがCPU11により実行されて、アニメーション制御情報更新部21、アニメーションデータ解析部22の機能が実現される。
アニメーションデータ解析部22は、実施の形態1で示した解析部102の一例である。
描画部23は描画専用プロセッサ13で実行される。
つまり、描画部23の処理手順が記述されたプログラムが描画専用プロセッサ13により実行されて、描画部23の機能が実現される。
描画部23は、実施の形態1で示した動画再生部104の一例である。
以下では、CPU11によるアニメーション制御情報更新部21の処理手順が記述されたプログラムの実行をアニメーション制御情報更新部21の動作として説明する。
また、CPU11によるアニメーションデータ解析部22の処理手順が記述されたプログラムの実行をアニメーションデータ解析部22の動作として説明する。
また、描画専用プロセッサ13による描画部23の処理手順が記述されたプログラムの実行を描画部23の動作として説明する。
記憶部24はメモリ12に相当し、アニメーションデータ241、アニメーション制御情報242、キーフレーム情報243、フレームバッファ244を備えている。
本実施の形態では、アニメーションデータ解析部22が、先頭フレームから最終フレームまでのフレームのフレーム属性を判定する。
そして、アニメーションデータ解析部22は、直前のフレームの表示オブジェクト情報に含まれる全てのオブジェクトの削除が行われるキーフレームを識別する。
また、アニメーションデータ解析部22は、キーフレームが記述されるキーフレーム情報243を生成する。
先頭フレーム以外のフレームからアニメーションデータ241の再生が開始される際に、描画部23は、キーフレーム情報243を参照して、再生開始フレームに先行するキーフレームであって再生開始フレームに最も近いキーフレームを抽出する。
また、描画部23は、中間フレームがある場合は中間フレームも抽出する。
そして、描画部23のキーフレームの差分情報と中間フレームの差分情報と再生開始フレームの差分情報を順に用いて再生開始フレームの表示オブジェクト情報を生成する。
描画部23は、キーフレームの差分情報をオブジェクトの削除を除いて適用してキーフレームの表示オブジェクト情報を生成し、生成したキーフレームの表示オブジェクト情報に差分情報を適用して後続するフレームの表示オブジェクト情報を生成する。
アニメーション制御情報更新部21は、ユーザによる操作または通信入力によりアニメーション制御情報242を書き換える。
アニメーション制御情報242は、アニメーションの再生範囲(再生開始フレーム、再生終了フレーム)や再生終了フレームに到達したときの動作(繰り返しor再生終了フレームを表示し続ける)等が記述されている情報である。
アニメーションデータ241は、先頭フレームを除く各フレームが全て前フレームからの差分情報で構成されている。
すなわち、1フレーム目のみ基本フレームデータで、2フレーム目以降は全て差分フレームデータである。
基本フレームデータには、初期状態(オブジェクトが存在しない状態)からのオブジェクト単位の差分を示す差分情報が含まれる。
差分フレームデータには、直前のフレームからのオブジェクト単位の差分を示す差分情報が含まれる。
差分情報を構成するコマンドの一例を図5に示す。
差分情報において図5に示すコマンドをオブジェクト単位で指定することでアニメーションが表現される。
1フレーム内に複数のコマンドを指定することも可能である。
MODコマンドで変更できるオブジェクトのパラメータには、オブジェクトの位置、大きさ等がある。
図6はアニメーションデータ241を説明する。
図6では、フレーム1でADDコマンドにより円形オブジェクトが追加されている。
フレーム2でMODコマンドにより円形オブジェクトが移動されている。
フレーム3でDELコマンドにより円形オブジェクトが削除され、ADDコマンドにより新たに三角形オブジェクトが追加されている。
これらのようなコマンド列によって各フレームの差分情報が定義される。
また、差分情報はオブジェクトの追加、削除が表現できるものであればその形式は問わない。
アニメーションデータ解析部22は、アニメーションデータ241の差分情報を解析し、前フレームで表示していたオブジェクトが全て削除されるフレームを抽出する。
アニメーションデータ解析部22が抽出したフレームがキーフレームである。
アニメーションデータ解析部22は、キーフレームのフレーム番号をキーフレーム情報243に格納する。
図6のアニメーションデータ241におけるキーフレームを図7に示す。
図7では、フレーム3とフレーム6がキーフレームである。
キーフレームは何もオブジェクトが存在しないフレームである必要はない。
前フレームで表示オブジェクト情報に含まれているオブジェクトが全て削除され、更に新しいオブジェクトが表示オブジェクト情報に追加されるフレームもキーフレームとなる。
アニメーションデータ解析部22の処理は、各アニメーションデータ241に対し1回ずつ行われる。
描画部23は、アニメーションデータ241とアニメーション制御情報242から表示オブジェクト情報を構築し、表示オブジェクト情報を基にフレームバッファ244にオブジェクトを描画する。
通常、表示オブジェクト情報の構築は前フレームからの差分情報のみを反映することで行う。
しかし、アニメーション制御情報更新部21によってアニメーション再生範囲が変更された場合、またはアニメーションが繰り返し再生の場合で再生開始フレームが先頭フレームではない場合は、その再生開始フレームの表示オブジェクト情報を構築しなければならない。
この場合、描画部23は、キーフレーム情報243から再生開始フレーム以前で最も近いキーフレーム番号を参照する。
そして、描画部23は、該当するキーフレーム番号のキーフレームの差分情報からDELを除くコマンドを適用してキーフレームの表示オブジェクト情報を生成する。
更に、描画部23は、生成したキーフレームの表示オブジェクト情報に次のフレームの差分情報を適用して次のフレームの表示オブジェクト情報を生成し、以降、同様の手順を繰り返して再生開始フレームの表示オブジェクト情報を生成する。
再生開始フレーム以前にキーフレームが存在しない場合は、先頭フレームから順に差分情報を反映させることで再生開始フレームの表示オブジェクト情報を生成する。
図7において、フレーム5が再生開始フレームに指定された場合に、描画部23は、フレーム5に先行するキーフレームでフレーム5に最も近いキーフレームであるフレーム3を用いる。
描画部23は、フレーム3の差分情報に基づき、初期状態(オブジェクトが存在しない状態)に三角形オブジェクトのADD(追加)を行って、フレーム3の表示オブジェクト情報を生成する。
次に、描画部23は、フレーム4の差分情報に基づき、フレーム3の表示オブジェクト情報に三角形オブジェクトのMOD(位置の変更)と四角形オブジェクトのADD(追加)とを行って、フレーム4の表示オブジェクト情報を生成する。
次に、描画部23は、フレーム5の差分情報に基づき、フレーム4の表示オブジェクト情報に三角形オブジェクトのMOD(位置の変更)と四角形オブジェクトのMOD(位置の変更)とを行って、フレーム5の表示オブジェクト情報を生成する。
このように、キーフレームを起点にして表示オブジェクト情報を生成していくため、フレーム1から表示オブジェクト情報を生成していく方式に比べて、少ない表示オブジェクト情報数で再生開始フレームの表示オブジェクト情報に到達することができる。
***動作の説明***
図8は、本実施の形態に係るアニメーション表示装置1の動作の一例を示すフローチャートである。
まずS1−1において、アニメーションデータ解析部22が、アニメーションデータ241を解析し、キーフレームを見つける。
次にS1−2において、アニメーションデータ解析部22がS1−1で見つけたキーフレームのフレーム番号をキーフレーム情報243に保存する。
次にS1−3において、システムが終了するまで描画部23が処理(S1−4〜S1−11)を繰り返し実行する。
次にS1−4において、描画部23は、アニメーション制御情報更新部21によりアニメーション制御情報242のアニメーションの再生範囲が書き換えられているか否かを確認する。
再生範囲が書き換えられている場合はS1−8の処理に移動する。
一方、再生範囲が書き換えられていない場合はS1−5の処理が実施される。
S1−5では、描画部23は、現在のフレームが再生終了フレームか否かを確認する。
現在のフレームが再生終了フレームの場合は、S1−6の処理が実施される。
一方、現在のフレームが再生終了フレームではない場合は、S1−71の処理が実施される。
S1−6では、描画部23は、アニメーション制御情報242の再生終了フレームに到達したときの動作が繰り返しかどうかを確認する。
再生終了フレームに到達したときの動作が繰り返しの場合は、S1−8の処理が実施される。
一方、再生終了フレームに到達したときの動作が繰り返しでない場合は、S1−11の処理が実施される。
S1−71及びS1−72では、描画部23は、次のフレームの差分情報を反映し、表示オブジェクト情報を更新する。
S1−8では、描画部23は、再生開始フレーム以前の最も近いキーフレームのフレーム番号をキーフレーム情報243から取得する。
S1−9では、描画部23は、S1−8で取得したフレームのDELコマンドを除いた差分情報を反映し、表示オブジェクト情報を更新する。
S1−10では、描画部23は、S1−72の処理を再生開始フレームに到達するまで実施する。
S1−11では、描画部23は、表示オブジェクト情報を基にフレームバッファ244に描画する。
そして、システムの終了までS1−4以降の処理が繰り返し実施される。
***効果の説明***
以上のように、本実施の形態では、アニメーションデータ解析部22でアニメーションデータ241の差分情報からキーフレームを見つけ出すことで、ある特定フレームの表示オブジェクト情報が必要な状況において、描画部23は、当該特定フレーム以前で最も近いキーフレームから表示オブジェクト情報の生成を開始することができる。
このため、描画部23が先頭フレームから表示オブジェクト情報の生成を開始するよりも少ないCPU負荷で再生開始フレームの表示オブジェクト情報を生成することができる。
また、本実施の形態ではアニメーションデータは差分情報のみで構成されているため、アニメーションデータに基本フレームデータを複数組み込む方式よりも、データサイズを削減することができる。
本実施の形態ではアニメーションデータが全て差分情報で構成されているため、先頭フレームから再生が開始する通常のアニメーション再生においても、アニメーションデータに基本フレームデータを複数組み込む方式よりも、表示オブジェクト情報の構築にかかるCPU負荷が軽減される。
実施の形態3.
本実施の形態では、実施の形態1で示した情報処理装置100の別の具体例を説明する。
本実施の形態では、解析部102は、フレームごとに、フレーム属性として、フレームの階層構造を判定し、解析結果情報103として、フレームごとの階層構造が記述される階層構造情報を生成する。
また、動画再生部104は、階層構造情報を参照して、再生開始フレームに先行する先行フレームの中から、再生開始フレームの階層構造と同じ階層構造のフレームである同構造フレームを抽出する。
そして、動画再生部104は、抽出した同構造フレームの差分情報と再生開始フレームの差分情報とを用いて再生開始フレームの表示オブジェクト情報を生成する。
また、動画再生部104は、再生開始フレームの階層構造から最上位階層を除いた階層構造と同じ階層構造のフレームである下位共通フレームを抽出する場合がある。
下位共通フレームを抽出した場合は、動画再生部104は、同構造フレームの差分情報と下位共通フレームの差分情報と再生開始フレームの差分情報とをフレームの順に用いて再生開始フレームの表示オブジェクト情報を生成する。
また、動画再生部104は、再生開始フレームの階層構造と異なる階層構造のフレームのうちの最先のフレームであって、再生開始フレームの表示オブジェクト情報に含まれる表示対象オブジェクトの追加又はパラメータ変更が行われるフレーム(表示対象オブジェクト定義フレーム)を抽出する場合もある。
そして、表示対象オブジェクト定義フレームを抽出した場合は、動画再生部104は、同構造フレームの差分情報と下位共通フレームの差分情報と表示対象オブジェクト定義フレームの差分情報と再生開始フレームの差分情報とをフレームの順に用いて再生開始フレームの表示オブジェクト情報を生成する。
以下では、実施の形態1で示した情報処理装置100の例として、動画データの例であるアニメーションデータを表示するアニメーション表示装置1を説明する。
***構成の説明***
図9は、実施の形態3に係るアニメーション表示装置1の機能構成の一例を示す機能ブロック図である。
図9では、アニメーションデータ解析部32がキーフレーム情報243ではなく階層構造情報343を生成する点が実施の形態2と異なる。
また、描画部33が、キーフレーム情報243ではなく階層構造情報343を参照する点が実施の形態2と異なる。
本実施の形態においても、アニメーションデータ解析部32が実施の形態1で示した解析部102の一例であり、描画部33が実施の形態1で示した動画再生部104の一例である。
アニメーションデータ解析部32は、階層指定ルールに従い、フレームごとに階層構造を定義し、フレームごとの階層構造が記述される階層構造情報343を生成する。
階層指定ルールには、例えば、以下のルールが規定されている。
ルール1:
オブジェクトの追加が行われてから当該オブジェクトに先行する先行オブジェクトの削除又はパラメータ変更が行われずに当該オブジェクトが最終フレームまで維持される場合に当該オブジェクトの追加が行われるフレームから最終フレームまでのフレーム群に共通の階層が指定される。
ルール2:
オブジェクトの追加が行われてから当該オブジェクトに先行する先行オブジェクトの削除又はパラメータ変更が行われずに当該オブジェクトの削除が行われる場合に当該オブジェクトの追加が行われるフレームから当該オブジェクトの削除が行われるフレームの直前のフレームまでのフレーム群に共通の階層が指定される。
ルール3:
追加が先に行われるオブジェクトほど下位の階層に指定される。
ルール4:
同時に複数のオブジェクトが追加される場合には削除が先に行われるオブジェクトほど上位の階層に指定される。
ルール5:
複数のオブジェクトが同時に追加され同時に削除される場合には、当該複数のオブジェクトの追加が行われるフレームから当該複数のオブジェクトの削除が行われるフレームの直前のフレームまでのフレーム群に共通の階層が指定される。
なお、ルール1〜ルール5の具体例は、図面を参照して後述する。
描画部33は、先頭フレーム以外のフレームから再生を開始する際に、階層構造情報343を参照して、再生開始フレームの表示オブジェクト情報を生成する。
図9において、アニメーション制御情報更新部31、アニメーション制御情報342、アニメーションデータ341、フレームバッファ344は、実施の形態2で示したものと同様である。
以下では、主に、実施の形態2との差異を説明する。
以下で説明していない事項は、実施の形態2と同様である。
***動作の説明***
図10及び図11は、実施の形態3に係るアニメーション表示装置1の動作の一例を示すフローチャートである。
実施の形態2と異なる実施の形態3の処理を以下に示す。
S2−1において、アニメーションデータ解析部32が、アニメーションデータ341の各フレームでのオブジェクトの状況を解析して、オブジェクトの階層構造を抽出する。
図12および図13はアニメーションデータの一例におけるオブジェクトの階層構造を表している。
図12及び図13を参照して、オブジェクトの階層構造を説明する。
新規にオブジェクトが追加されてから、当該オブジェクトに先行して追加されたオブジェクト(先行オブジェクト)に変化(削除またはパラメータ変更)が無く、当該オブジェクトが最終フレームまで維持されている場合に、当該オブジェクトは階層を構成する(前出のルール1に対応)。
例えば図12において、円形オブジェクトはフレーム1で追加されており、先行オブジェクトが存在しないので、先行オブジェクトに変化が発生しておらず、また、円形オブジェクトは最終フレームであるフレーム7まで維持されているので、この円形オブジェクトが階層を構成する。
円形オブジェクトの追加が行われるフレーム1から最終フレームであるフレーム7までのフレーム群に共通の階層が指定される(図12では階層1)。
また、新規にオブジェクトが追加されてから削除されるまで、当該オブジェクトに先行して追加されたオブジェクト(先行オブジェクト)に変化(削除またはパラメータ変更)が無い場合のみ当該オブジェクトは階層を構成する(前出のルール2に対応)。
例えば図12において、フレーム3で追加された四角形オブジェクトがフレーム5で削除されるまで、先行オブジェクトである円形オブジェクトと三角形オブジェクトに変化が無いため、この四角形オブジェクトが階層を構成する。
四角形オブジェクトの追加が行われるフレーム3から四角形オブジェクトの削除が行われるフレーム5の直前のフレームであるフレーム4までのフレーム群に共通の階層が指定される(図12では階層3)。
先に追加されたオブジェクトを下位階層、後に追加されたオブジェクトを上位階層とする(前出のルール3に対応)。
図12では、円形オブジェクトが三角形オブジェクトよりも先に追加されているので、円形オブジェクトが三角形オブジェクトの下位階層になっている。
複数のオブジェクトが同時に追加された場合、削除が早く行われるオブジェクトが上位階層になる(前出のルール4に対応)。
例えば図13のフレーム2で三角形オブジェクトと四角形オブジェクトが同時に追加されるが、フレーム4で四角形オブジェクトが先に削除されるため、三角形オブジェクトが下位階層(階層2−1)、四角形オブジェクトが上位階層(階層3)となる。
複数のオブジェクトの追加および削除が同時の場合は複数のオブジェクトが1つの階層を構成する(前出のルール5に対応)。
例えば、図13のフレーム5で矢印オブジェクトと星オブジェクトが同時に追加され、フレーム7で矢印オブジェクトと星オブジェクトが同時に削除されるため、矢印オブジェクトと星オブジェクトは1つの階層を構成する。
そして、矢印オブジェクトと星オブジェクトの追加が行われるフレーム5から矢印オブジェクトと星オブジェクトの削除が行われるフレーム7の直前のフレームであるフレーム6までのフレーム群に共通の階層が指定される(図13では階層2−2)。
図10に戻り、S2−2において、アニメーションデータ解析部32は、S2−1で求めた階層構造を階層構造情報343に保存する。
S2−8〜S2−12では、描画部33が、階層構造情報343を基に、再生開始フレームの表示オブジェクト情報を構築する。
S2−8において、S2−9〜S2−12の処理が先頭フレームから再生開始フレームに達するまで繰り返し実施される。
S2−9において、描画部33は、現在のフレームが再生開始フレームの対象の階層に属するフレームかを判断する。
現在のフレームが再生開始フレームの対象の階層に属する場合は、S2−10の処理が実施される。
一方、現在のフレームが再生開始フレームの対象の階層に属さない場合は、S2−11の処理が行われる。
例えば、図12のフレーム7が再生開始フレームに指定され、フレーム7の表示オブジェクト情報を構築する場合を考える。
この場合では、フレーム7は階層1と階層2−2に属しており、階層1の円形オブジェクトと、階層2−2の星オブジェクトが表示対象オブジェクトとなる。
描画部33は、フレーム1、フレーム6がフレーム7(再生開始フレーム)の対象の階層に属するフレームと判断する。
なお、フレーム1は、フレーム7の最上位階層である階層2−2を除いた階層階層(つまり、階層1)と同じ階層構造のフレームであり、フレーム7の下位共通フレームに相当する。
また、フレーム6は、フレーム7と同じ階層構造のフレームであり、フレーム7の同構造フレームに相当する。
なお、フレーム2、フレーム5は階層1と階層2−1に属するためフレーム7の階層とは異なる。
同様に、フレーム3とフレーム4は階層1と階層2−1と階層3に属するためフレーム7の階層とは異なる。
S2−10において、描画部33は、S2−9で再生開始フレームの階層に属すると判断されたフレームのDELを除いた差分情報に基づき、表示オブジェクト情報を生成する。
階層の異なるオブジェクトは追加されることがないため、DELは無意味であり実行する必要はない。
S2−11において、描画部33は、現在のフレームが、再生開始フレームの階層に属さないフレームのうちの最初のフレームであるかを判断する。
また、現在のフレームが再生開始フレームの階層に属さないフレームのうちの最初のフレームである場合に、描画部33は、そのフレームの差分情報内に再生開始フレームの表示オブジェクト情報に含まれるオブジェクト(表示対象オブジェクト)のADD又はMODが存在するかどうかを確認する。
差分情報内に表示対象オブジェクトのADD又はMODが存在する場合は、S2−12の処理が実施される。
例えば、図13におけるフレーム4の表示オブジェクト情報を構築する場合のフレーム2の三角形オブジェクトのADDが表示対象オブジェクトのADDに該当する。
フレーム4は階層1と階層2−1に属しており、フレーム2は階層1と階層2−1と階層3に属しているため、フレーム4とフレーム2は異なる階層構造である。
そして、フレーム2は、フレーム4と異なる階層構造のフレームのうちの最初のフレームである。
フレーム2の差分情報にはフレーム4に含まれる三角形オブジェクトのADDが存在する。
また、フレーム7の表示オブジェクト情報を構築する場合のフレーム5の円形オブジェクトのMODが表示対象オブジェクトのMODに該当する。
フレーム7は階層1に属しており、フレーム5は階層1と階層2−2に属しているため、フレーム7とフレーム5は異なる階層構造である。
そして、フレーム5は、フレーム7と異なる階層構造のフレームのうち最初のフレームである。
フレーム7の差分情報にはフレーム5に含まれる円形オブジェクトのMODが存在する。
フレーム2はフレーム4の表示対象オブジェクト定義フレームに相当し、フレーム7はフレーム5の表示対象オブジェクト定義フレームに相当する。
なお、上位階層のオブジェクトと下位階層のオブジェクトが同時に追加された場合に、表示対象オブジェクトのADDが発生する。
また、上位階層のオブジェクトの追加と同時に下位階層のパラメータが変更された場合に、表示対象オブジェクトのMODが発生する。
S2−11の判断は、描画部33で全て行ってもよいし、アニメーションデータ解析部32であらかじめ対象となるフレームを抽出し、階層構造情報343に対象となるフレームの情報を含ませていてもよい。
S2−12において、描画部33は、S2−11で抽出したオブジェクトのADDまたはMODのみを該当するフレームに反映させる。
図13の例では、描画部33は、フレーム4の表示オブジェクト情報を生成するために、フレーム1の表示オブジェクト情報に、フレーム2の差分情報の三角形オブジェクトのADDのみを反映させた表示オブジェクト情報を生成する。
また、描画部33は、フレーム7の表示オブジェクト情報を生成するために、フレーム1の表示オブジェクト情報に、フレーム5の差分情報の円形オブジェクトのMODのみを反映させた表示オブジェクト情報を生成する。
***効果の説明***
以上のように、本実施の形態では、アニメーションデータ解析部32でアニメーションデータ341の差分情報からオブジェクト単位の階層構造を見つけ出すことで、ある特定フレームの表示オブジェクト情報が必要な状況において、描画部23は、当該表示対象オブジェクトのみの差分情報を反映することができ、先頭フレームから差分情報を全て反映するよりも少ないCPU負荷で表示オブジェクト情報を構築することができる。
本実施の形態ではアニメーションデータは差分情報のみで構成されているため、アニメーションデータに基本フレームデータを複数組み込む方式よりも、データサイズを削減することができる。
本実施の形態ではアニメーションデータが全て差分情報で構成されているため、先頭フレームから再生が開始する通常のアニメーション再生においても、アニメーションデータに基本フレームデータを複数組み込む方式よりも、表示オブジェクト情報の構築にかかるCPU負荷が軽減される。
以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
1 アニメーション表示装置、11 CPU、12 メモリ、13 描画専用プロセッサ、14 入力装置、15 出力装置、16 システムバス、21 アニメーション制御情報更新部、22 アニメーションデータ解析部、23 描画部、24 記憶部、31 アニメーション制御情報更新部、32 アニメーションデータ解析部、33 描画部、34 記憶部、100 情報処理装置、101 動画データ、102 解析部、103 解析結果情報、104 動画再生部、241 アニメーションデータ、242 アニメーション制御情報、243 キーフレーム情報、244 フレームバッファ、341 アニメーションデータ、342 アニメーション制御情報、343 階層構造情報、344 フレームバッファ。

Claims (15)

  1. 複数のフレームの各々に対応付けられているオブジェクト単位の差分情報を用いてフレームごとにオブジェクト表示情報を生成して動画を再生する動画再生部と、
    フレームごとに差分情報を解析してフレームの属性であるフレーム属性を判定する解析部とを有し、
    前記動画再生部は、
    前記複数のフレームの先頭フレーム以外のフレームが、動画の再生を開始する再生開始フレームに指定された場合に、前記解析部により判定されたフレーム属性に基づいて、前記複数のフレームの中からいずれかのフレームを抽出し、抽出したフレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成して前記再生開始フレームから動画の再生を開始する情報処理装置。
  2. 前記解析部は、
    フレームごとに前記フレーム属性を判定し、全てのオブジェクトの削除が差分情報で指示されているフレーム属性をもつキーフレームを、前記複数のフレームの中から識別し、識別したキーフレームが記述されるキーフレーム情報を生成し、
    前記動画再生部は、
    前記キーフレーム情報を参照して、前記再生開始フレームに先行する先行フレームの中からキーフレームを抽出し、抽出したキーフレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項1に記載の情報処理装置。
  3. 前記動画再生部は、
    前記再生開始フレームに先行する先行フレームの中からキーフレームを抽出するとともに、抽出したキーフレームから前記再生開始フレームまでの間に存在する中間フレームを抽出し、抽出したキーフレームの差分情報と抽出した中間フレームの差分情報と前記再生開始フレームの差分情報とをフレームの順に用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項2に記載の情報処理装置。
  4. 前記動画再生部は、
    先行フレームに複数のキーフレームが存在する場合は、前記再生開始フレームに最も近いキーフレームを抽出する請求項2に記載の情報処理装置。
  5. 前記動画再生部は、
    抽出したキーフレームの差分情報をオブジェクトの削除を除いて適用して前記キーフレームの表示オブジェクト情報を生成し、前記キーフレームの表示オブジェクト情報に前記再生開始フレームの差分情報を用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項2に記載の情報処理装置。
  6. 前記動画再生部は、
    抽出したキーフレームの差分情報をオブジェクトの削除を除いて適用して前記キーフレームの表示オブジェクト情報を生成し、前記キーフレームの表示オブジェクト情報に前記キーフレームに後続するフレームの差分情報をフレームの順に用いて前記キーフレームに後続するフレームの表示オブジェクト情報を生成する請求項3に記載の情報処理装置。
  7. 前記解析部は、
    フレームごとに、前記フレーム属性として、フレームの階層構造を判定し、フレームごとの階層構造が記述される階層構造情報を生成し、
    前記動画再生部は、
    前記階層構造情報を参照して、前記再生開始フレームに先行する先行フレームの中から、前記再生開始フレームの階層構造と同じ階層構造のフレームである同構造フレームを抽出し、抽出した前記同構造フレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項1に記載の情報処理装置。
  8. 前記動画再生部は、
    前記階層構造情報を参照して、前記再生開始フレームに先行する先行フレームの中から、前記同構造フレームを抽出するとともに、前記再生開始フレームの階層構造から最上位階層を除いた階層構造と同じ階層構造のフレームである下位共通フレームを抽出し、抽出した前記同構造フレームの差分情報と抽出した前記下位共通フレームの差分情報と前記再生開始フレームの差分情報とをフレームの順に用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項7に記載の情報処理装置。
  9. 前記解析部は、
    オブジェクトの追加が行われてから当該オブジェクトに先行する先行オブジェクトの削除又はパラメータ変更が行われずに当該オブジェクトが前記複数のフレームの最終フレームまで維持される場合に当該オブジェクトの追加が行われるフレームから前記最終フレームまでのフレーム群に共通の階層が指定され、
    オブジェクトの追加が行われてから当該オブジェクトに先行する先行オブジェクトの削除又はパラメータ変更が行われずに当該オブジェクトの削除が行われる場合に当該オブジェクトの追加が行われるフレームから当該オブジェクトの削除が行われるフレームの直前のフレームまでのフレーム群に共通の階層が指定され、
    追加が先に行われるオブジェクトほど下位の階層に指定され、
    同時に複数のオブジェクトが追加される場合には削除が先に行われるオブジェクトほど上位の階層に指定され、
    複数のオブジェクトが同時に追加され同時に削除される場合には、当該複数のオブジェクトの追加が行われるフレームから当該複数のオブジェクトの削除が行われるフレームの直前のフレームまでのフレーム群に共通の階層が指定されることが規定されている階層指定ルールに従い、
    フレームごとに、フレームの階層構造を判定する請求項7に記載の情報処理装置。
  10. 前記動画再生部は、
    前記同構造フレームの差分情報をオブジェクトの削除を除いて適用して前記同構造フレームの表示オブジェクト情報を生成し、
    前記同構造フレームの表示オブジェクト情報に前記再生開始フレームの差分情報を適用して前記再生開始フレームの表示オブジェクト情報を生成する請求項7に記載の情報処理装置。
  11. 前記動画再生部は、
    前記同構造フレームの差分情報をオブジェクトの削除を除いて適用して前記同構造フレームの表示オブジェクト情報を生成し、
    前記下位共通フレームの差分情報をオブジェクトの削除を除いて適用して前記下位共通フレームの表示オブジェクト情報を生成し、
    前記同構造フレームの表示オブジェクト情報及び前記下位共通フレームの表示オブジェクト情報のいずれかに前記再生開始フレームの差分情報を適用して前記再生開始フレームの表示オブジェクト情報を生成する請求項8に記載の情報処理装置。
  12. 前記動画再生部は、
    前記階層構造情報を参照して、前記同構造フレームと前記下位共通フレームとを抽出するとともに、前記再生開始フレームの階層構造と異なる階層構造のフレームのうちの最先のフレームであって、前記再生開始フレームの表示オブジェクト情報に含まれる表示対象オブジェクトの追加又はパラメータ変更が行われるフレームである表示対象オブジェクト定義フレームを抽出し、
    抽出した前記同構造フレームの差分情報と前記下位共通フレームの差分情報と前記表示対象オブジェクト定義フレームの差分情報と前記再生開始フレームの差分情報とをフレームの順に用いて前記再生開始フレームの表示オブジェクト情報を生成する請求項8に記載の情報処理装置。
  13. 前記動画再生部は、
    前記同構造フレームの差分情報をオブジェクトの削除を除いて適用して前記同構造フレームの表示オブジェクト情報を生成し、
    前記下位共通フレームの差分情報をオブジェクトの削除を除いて適用して前記下位共通フレームの表示オブジェクト情報を生成し、
    前記表示対象オブジェクト定義フレームの差分情報のうち前記表示対象オブジェクトの追加又はパラメータ変更のみを適用して前記表示対象オブジェクト定義フレームの表示オブジェクト情報を生成し、
    前記同構造フレームの表示オブジェクト情報及び前記下位共通フレームの表示オブジェクト情報及び前記表示対象オブジェクト定義フレームの表示オブジェクト情報のいずれかに前記再生開始フレームの差分情報を適用して前記再生開始フレームの表示オブジェクト情報を生成する請求項12に記載の情報処理装置。
  14. 複数のフレームの各々に対応付けられているオブジェクト単位の差分情報を用いてフレームごとにオブジェクト表示情報を生成して動画を再生するコンピュータが、
    フレームごとに差分情報を解析してフレームの属性であるフレーム属性を判定し、
    前記複数のフレームの先頭フレーム以外のフレームが、動画の再生を開始する再生開始フレームに指定された場合に、フレーム属性に基づいて、前記複数のフレームの中からいずれかのフレームを抽出し、抽出したフレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成して前記再生開始フレームから動画の再生を開始する動画再生方法。
  15. 複数のフレームの各々に対応付けられているオブジェクト単位の差分情報を用いてフレームごとにオブジェクト表示情報を生成して動画を再生するコンピュータに、
    フレームごとに差分情報を解析してフレームの属性であるフレーム属性を判定する解析処理と、
    前記複数のフレームの先頭フレーム以外のフレームが、動画の再生を開始する再生開始フレームに指定された場合に、前記解析処理により判定されたフレーム属性に基づいて、前記複数のフレームの中からいずれかのフレームを抽出し、抽出したフレームの差分情報と前記再生開始フレームの差分情報とを用いて前記再生開始フレームの表示オブジェクト情報を生成して前記再生開始フレームから動画の再生を開始する動画再生処理とを実行させる動画再生プログラム。
JP2016563382A 2014-12-12 2014-12-12 情報処理装置及び動画再生方法及び動画再生プログラム Active JP6157758B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/083008 WO2016092704A1 (ja) 2014-12-12 2014-12-12 情報処理装置及び動画再生方法及び動画再生プログラム

Publications (2)

Publication Number Publication Date
JPWO2016092704A1 JPWO2016092704A1 (ja) 2017-04-27
JP6157758B2 true JP6157758B2 (ja) 2017-07-05

Family

ID=56106948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016563382A Active JP6157758B2 (ja) 2014-12-12 2014-12-12 情報処理装置及び動画再生方法及び動画再生プログラム

Country Status (5)

Country Link
US (1) US10282887B2 (ja)
JP (1) JP6157758B2 (ja)
CN (1) CN107004289B (ja)
DE (1) DE112014007242T5 (ja)
WO (1) WO2016092704A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10182248B2 (en) * 2016-11-21 2019-01-15 Cisco Technology, Inc. Keyframe mitigation for video streams with multiple receivers
US10311630B2 (en) 2017-05-31 2019-06-04 Verizon Patent And Licensing Inc. Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
US10586377B2 (en) 2017-05-31 2020-03-10 Verizon Patent And Licensing Inc. Methods and systems for generating virtual reality data that accounts for level of detail
JP6993869B2 (ja) * 2017-12-25 2022-01-14 古野電気株式会社 再生装置、遠隔再生システム、再生方法、及びコンピュータプログラム
CN109272972B (zh) * 2018-11-30 2021-04-09 北京集创北方科技股份有限公司 显示装置及其控制方法
WO2021172506A1 (ja) * 2020-02-29 2021-09-02 株式会社近江デジタルファブリケーションズ 動画配信方法、動画再生方法、動画配信装置、及び配信データ構造
CN111966844B (zh) * 2020-08-17 2023-09-26 北京像素软件科技股份有限公司 一种对象的加载方法、装置及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778061A (ja) * 1993-09-08 1995-03-20 Toshiba Corp 動画表示装置
JP2000148131A (ja) * 1998-11-13 2000-05-26 Seiko Epson Corp 画像表示方法および画像処理装置
JP3351757B2 (ja) 1999-01-27 2002-12-03 松下電器産業株式会社 ディジタル記録再生装置
JP2001101440A (ja) * 1999-09-29 2001-04-13 Sega Corp アニメーションデータを記録した記録媒体、それを利用した画像処理方法及び画像処理プログラムを記録した記録媒体
AU5679501A (en) * 2000-05-31 2001-12-11 Sharp Kabushiki Kaisha Device for editing animation, method for editing animation, program for editing animation, recorded medium where computer program for editing animation is recorded
JP3512711B2 (ja) * 2000-05-31 2004-03-31 シャープ株式会社 画像情報処理装置、画像情報処理方法およびその処理を記録した記録媒体
JP4362480B2 (ja) 2003-11-04 2009-11-11 シャープ株式会社 レジューム再生システム
US7539393B2 (en) * 2003-12-05 2009-05-26 Microsoft Corporation Method and system for reverse playback of compressed data
US7598956B2 (en) * 2004-04-15 2009-10-06 Microsoft Corporation Blended object attribute keyframing model
JP4166207B2 (ja) * 2004-10-05 2008-10-15 三菱電機インフォメーションシステムズ株式会社 アニメーション再生装置及びアニメーション再生プログラム
US7403202B1 (en) * 2005-07-12 2008-07-22 Electronic Arts, Inc. Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models
US20110157196A1 (en) * 2005-08-16 2011-06-30 Exent Technologies, Ltd. Remote gaming features
US20080183844A1 (en) * 2007-01-26 2008-07-31 Andrew Gavin Real time online video editing system and method
US9672646B2 (en) * 2009-08-28 2017-06-06 Adobe Systems Incorporated System and method for image editing using visual rewind operation
US20130009965A1 (en) * 2010-03-30 2013-01-10 Mitsubishi Electric Corporation Animation display device
KR101658239B1 (ko) * 2010-04-15 2016-09-30 삼성전자주식회사 애니메이션 메시지 생성 방법 및 장치
CN102364459B (zh) * 2011-06-28 2015-10-07 广州市动景计算机科技有限公司 基于移动终端的网页Flash动画显示方法和装置
US20130076756A1 (en) * 2011-09-27 2013-03-28 Microsoft Corporation Data frame animation
WO2013146508A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
WO2014036652A1 (en) * 2012-09-05 2014-03-13 Ati Technologies Ulc Method and device for selective display refresh
US9076258B2 (en) * 2013-03-14 2015-07-07 Pixar Stylizing animation by example
US20150242988A1 (en) * 2014-02-22 2015-08-27 Nvidia Corporation Methods of eliminating redundant rendering of frames

Also Published As

Publication number Publication date
DE112014007242T5 (de) 2017-09-28
JPWO2016092704A1 (ja) 2017-04-27
US10282887B2 (en) 2019-05-07
CN107004289B (zh) 2021-01-01
WO2016092704A1 (ja) 2016-06-16
CN107004289A (zh) 2017-08-01
US20170249770A1 (en) 2017-08-31

Similar Documents

Publication Publication Date Title
JP6157758B2 (ja) 情報処理装置及び動画再生方法及び動画再生プログラム
TWI776066B (zh) 圖片生成方法、裝置、終端、伺服器及儲存媒體
US10157593B2 (en) Cross-platform rendering engine
WO2018103218A1 (zh) 一种ui界面的显示处理方法及装置
US20130097552A1 (en) Constructing an animation timeline via direct manipulation
US10650610B2 (en) Seamless switching between an authoring view and a consumption view of a three-dimensional scene
US20150143272A1 (en) Method for performing batch management on desktop icon and digital mobile device
WO2020220773A1 (zh) 图片预览信息的显示方法、装置、电子设备及计算机可读存储介质
US11941728B2 (en) Previewing method and apparatus for effect application, and device, and storage medium
KR102040359B1 (ko) 상태 정보를 위한 동기화 지점
JP6265659B2 (ja) 情報処理装置およびその制御方法およびプログラム
CN107077347B (zh) 视图管理架构
US20150286376A1 (en) Asset-based animation timelines
KR20190138798A (ko) 실시간 협업을 위한 라이브 잉크 프레즌스
US8913076B1 (en) Method and apparatus to improve the usability of thumbnails
CN107621951B (zh) 一种视图层级优化的方法及装置
US11586803B2 (en) Pre-children in a user interface tree
WO2018049682A1 (zh) 一种虚拟3d场景制作方法及相关设备
US20150339841A1 (en) Layout animation panel
KR102092156B1 (ko) 표시 장치의 영상 인코딩 방법
US9972109B2 (en) Implementing out of order access to reversal operations in images
US11592963B2 (en) Terminal, control method therefor, and recording medium in which program for implementing method is recorded
US9530233B2 (en) Action records associated with editable content objects
WO2023134537A1 (zh) 分屏特效道具生成方法、装置、设备和介质
KR20200039169A (ko) 멀티 뎁스 이미지 표시 장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R150 Certificate of patent or registration of utility model

Ref document number: 6157758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250