JP5598540B2 - 動画出力装置、動画出力方法、および動画出力プログラム - Google Patents

動画出力装置、動画出力方法、および動画出力プログラム Download PDF

Info

Publication number
JP5598540B2
JP5598540B2 JP2012512597A JP2012512597A JP5598540B2 JP 5598540 B2 JP5598540 B2 JP 5598540B2 JP 2012512597 A JP2012512597 A JP 2012512597A JP 2012512597 A JP2012512597 A JP 2012512597A JP 5598540 B2 JP5598540 B2 JP 5598540B2
Authority
JP
Japan
Prior art keywords
output
image
time
moving image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012512597A
Other languages
English (en)
Other versions
JPWO2011135704A1 (ja
Inventor
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011135704A1 publication Critical patent/JPWO2011135704A1/ja
Application granted granted Critical
Publication of JP5598540B2 publication Critical patent/JP5598540B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Description

本件開示は、動画データに基づいて動画を出力する動画出力装置、動画出力方法、および動画出力プログラムに関する。
近年、パーソナルコンピュータ(以下、「PC」と略記する)の低価格指向が強まり、PCの価格を抑えるためにそのPCに使用される部品も価格が抑えられ、それに応じてPCの性能も抑えられている。低価格帯のノート型パーソナルコンピュータ(以下、「ノートPC」と略記する)にあっては、プログラムの実行を担うCPU(Central Processing Unit)は、例えば1.6GHzのものが採用される。この1.6GHzというCPUの速度は、近年では高速とは言い難い速度である。なぜならば、インターネット上にある配信用の高画質の動画コンテンツを再生しようとすると再生処理が動画表示に追いつかない恐れがあるからである。そのように再生処理が動画表示に追いつかないと、コマ落ちで表示されたり、映像が出力されずにフリーズするという不具合が生じる。このような配信用の高画質の動画コンテンツとしては、例えば所謂MPEG4と称されるタイプのコンテンツに属するH.264/AVCという方式のコンテンツなどが存在する。
なお、MPEGストリームに対する、スロー、スチル、コマ送りなどといった特殊再生に関する技術が提案されている(例えば特許文献1参照)。また、フレーム周期仕様の異なるワークステーション間におけるビデオ画像の相互通信に関する技術も提案されている(例えば特許文献2参照)。
更に、再生処理の負荷を減らして上記のような低価格帯のノートPCでの動画再生に対処する技術も提案されている(特許文献3〜15参照)。
特開2007−195064号公報 特開平05−216800号公報 特開2006-101321号公報 特開2006-101322号公報 特開2006-101323号公報 特開2006-101402号公報 特開2006-101403号公報 特開2006-101404号公報 特開2006-101405号公報 特開2006-101406号公報 特開2006-254231号公報 特開2007-174196号公報 特開2007-208476号公報 特開2007-235447号公報 特開2009-182891号公報
しかし、上述した特許文献1,2に開示の技術は、フレーム周期仕様などを変更することを目的とした技術であって、上述したように再生処理が動画表示に追いつかないという恐れを解決するものではない。
また、上述した特許文献3〜15に開示の技術は、いずれも、本来の復号処理の一部を省略・簡略・低減することで高負荷に対応しているため、これらの技術では本来のフォーマットの機能が十分に活かされず、結果としては画質劣化となる。
なお、ここでの説明は、動画の再生処理をCPUが担う場合を例としたが、GPU(Graphics Processing Unit)を併用する場合であっても同様の事情が生じる。
上記事情に鑑み、本件は、処理装置の処理速度を上回る表示速度の動画データであっても本来の画質での動画出力を図ることを目的とする。
上記目的を達成する動画出力装置は、動画取得部と、画像出力部と、制御部とを備えている。
上記動画取得部は、時間的に連続した画像ごとの処理についての画面内予測処理における各種予測モードを有するモード情報を含む動画データを取得するものである。
上記画像出力部は、動画データから、表示速度に応じて指定される時間で順次に画像を出力するものである。
上記制御部は、出力される画像についてのモード情報と記憶部に記憶されたCPUの処理可能な規定値とに基づいて、各種予測モードにおける画素値の予測に要する処理時間がCPUの処理可能な規定値を超えている場合、指定された時間での出力が間に合わない画
像に対して、該指定された時間よりも長い時間で出力させるものである。
また、上記制御部は、上記出力が間に合わない画像の次に出力される画像に対して、上記指定された時間よりも短い時間で出力させるものである。
上記目的を達成する動画出力方法は、動画データを取得するステップと、画像を出力するステップとを有する。
上記の動画データを取得するステップは、時間的に連続した画像ごとの処理についての画面内予測処理における各種予測モードを有するモード情報を含む動画データを取得するステップである。
上記の画像を出力するステップは、動画データから、表示速度に応じて指定される時間で順次に画像を出力するステップである。
上記の動画出力方法は、出力される画像についてのモード情報と記憶部に記憶されたCPUの処理可能な規定値とに基づいて、各種予測モードにおける画素値の予測に要する処理時間がCPUの処理可能な規定値を超えている場合、前記指定された時間での出力が間に合わない画像に対して、該指定された時間よりも長い時間で出力させるものである。
また、上記の動画出力方法は、上記の出力が間に合わない画像の次に出力される画像に対して、上記の指定された時間よりも短い時間で出力させるものである。
上記目的を達成する動画出力プログラムは、コンピュータに、上記の動画出力方法を実行させるプログラムである。
本件開示によれば、処理装置の処理速度を上回る表示速度の動画データであっても本来の画質での動画出力が実行できる。
本件の第1実施形態の動画出力装置の構成図である。 本件の第2実施形態が構築されるノートPCの一例を示す外観斜視図である。 図2に外観を示すノートPCのハードウェア構成の概要を示すブロック図である。 図2,図3に示すノートPC内での動画再生処理の流れを示した図である。 再生アプリケーションのフローチャートの第1部分を示す図である。 再生アプリケーションのフローチャートの第2部分を示す図である。 図5,図6に示す再生アプリケーション起動時に表示画面上に表示されるメニュー画面の一例を示した図である。 図7に示すメニュー画面上で「映像A」が選択されたときの表示画面例を示す図である。 予測モードのモード0を説明する図である。 予測モードのモード1を説明する図である。 予測モードのモード2を説明する図である。 予測モードのモード3を説明する図である。 予測モードのモード4を説明する図である。 予測モードのモード5を説明する図である。 予測モードのモード6を説明する図である。 予測モードのモード7を説明する図である。 予測モードのモード8を説明する図である。 規定値での画像データの出力に画像データの生成が間に合う場合の動画表示を示す図である。 比較例を示す図である。 本実施形態で処理負荷の高い予測モードでの画像データ生成が行われた場合の動画表示を示す図である。
動画出力装置、動画出力方法、および動画出力プログラムに対する具体的な実施形態を、以下図面を参照して説明する。
図1は、本件の第1実施形態の動画出力装置の構成図である。
この動画出力装置1は、プログラムを実行する演算処理装置と、その演算処理装置内で実行される動画出力プログラムとを有する。この図1は、動画出力プログラムが演算処理装置内で実行されることにより演算処理装置内に実現する機能を表わしている。この動画出力装置1は、動画取得部2と、画像生成部3と、画像出力部4と、画像表示部5と、間隔指定部6とを有する。
動画取得部2は、時間的に連続した複数の画像の集合である動画を表した動画データを取得する。この動画データの取得は、例えばインターネット等の通信回線を経由して、あるいは、DVD(Digital Video Disk)等の可搬型記憶媒体からのインストールにより行なわれる。
画像生成部3は、動画取得部2で取得された動画データに処理を施すことで、動画中の各画像を表した各画像データを生成する。
画像出力部4は、画像生成部3で生成された各画像データを、指定された時間間隔で順次に出力する。
画像表示部5は、画像出力部4で順次に出力された各画像データに基づいて、各画像データが表す各画像を順次に表示することで動画を表示する。
間隔指定部6は、画像出力部4に対して動画の表示速度に応じた第1の時間間隔を指定する。また、この間隔指定部6は、画像出力部4における第1の時間間隔での順次出力には画像生成部での生成が間に合わない画像データについては画像出力部4に対して一時的に、第1の時間間隔よりも長い第2の時間間隔を指定する。
上記の第1実施形態は、図1に示す動画出力装置1の各部2〜6で順次実行される機能を、順次実行する動画出力方法として捉えることもできる。ここでは、重複説明となるため、この第1実施形態に対応する動画出力方法の図示および説明は省略する。
次に、より具体的な第2実施形態について説明する。
図2は、本件の第2実施形態が構築されるノートPCの一例を示す外観斜視図である。
この図2に示すノートPC10は、本体ユニット20と表示ユニット30とを有する。本体ユニット20は、内部にCPUやハードディスクドライブ(以下、「HDD」と略記する)等を備えるとともに、上面にキーボード21や、ポインティングデバイスの一種であるタッチパッド22等を備えている。また、表示ユニット30は、蝶番40を介して本体ユニット10に連結されていることで本体ユニット20に対し開閉自在となっている。また、この表示ユニット30は、開状態にあるときの前面に表示画面31を備えている。
図3は、図2に外観を示すノートPCのハードウェア構成の概要を示すブロック図であ
る。
ここには、CPU51、メモリ52、不揮発メモリ53、図2にも示すキーボード21、並びに、GPU541および図2にも示す表示画面31を含んだ表示部54が示されている。またここには、通信インタフェース55、HDD56、図2にも示すタッチパッド22、並びに、オーディオインタフェース571およびスピーカ572を含んだ音声出力部57も示されている。これらの各要素21,22,51〜57は、バス50を介して互いに接続されている。
通信インタフェース55は、インターネットに接続されインターネットを介する通信を行なう。ここでは特にMPEG4に準拠した動画コンテンツを受信する。この動画コンテンツには、時間的に連続した複数の画像の集合である動画を表した動画データ、および音声データが含まれている。つまり、通信インタフェース55は、動画データを取得する動画取得部の一例に相当する。HDD56は、大容量記憶装置であって、ここには本件の一実施形態としての動画出力プログラムを含む各種プログラムや、インターネットを経由して入力されてきた動画コンテンツなどが記憶されている。タッチパッド22は、表示部54に含まれた表示画面31(図2参照)上のカーソルを移動させて表示画面31上の任意のアイコン等をクリックするポインティングデバイスの一種である。音声出力部57は、音声データを受け取りオーディオインタフェース571でアナログの音声信号に変換してスピーカ572で音声を出力する。
また、CPU51は、プログラムを実行する中央演算処理装置である。本実施形態で用いられるノートPC10では、比較的動作速度の遅い、動作速度1.6GHzのCPUが採用されている。メモリ52は、HDD56から読み出されたプログラムがCPU51での実行のために展開されるメモリである。またこのメモリ52は、プログラムがCPU51で実行されたときのデータの一時的な格納場所としても利用される。不揮発メモリ53には、このノートPC10に電力が投入された初期に実行されるプログラムであるBIOS(Basic Input Output System)が記憶されている。また、キーボード21は、オペレータによる各種情報や指示の入力用のツールである。
表示部54は、表示用データを受け取って表示画面31(図2参照)上にそのデータに応じた画像を表示するものである。ここでは特に、動画コンテンツ中の動画データがCPU51にて一部処理された中間的な動画データを表示用データとして受け取る。そしてGPU541でその表示用データから、動画に含まれる一連の画像それぞれを表した一連の画像データが生成される。GPU541が、その生成した一連の画像データを表示画面31に向けて順次に出力することによって表示画面31は動画を表示することとなる。つまり、この第2実施形態では、動画データに処理を施すことで画像データを生成する画像生成部の一例としての役割が、CPU51とGPU541とで分担して実行されることになる。また、GPU541は、画像データを順次に出力する画像出力部の一例としての役割も担っている。また、表示画面31は、画像出力部で順次に出力された各画像データに基づいて、各画像データが表す各画像を順次に表示することで動画を表示する画像表示部の一例に相当する。このような画像表示部を備えた動画出力装置は、動画表示装置として機能することとなる。
以下説明する例では、インターネットを経由してきたMPEG4フォーマットの動画コンテンツが通信インタフェース55で受信される。通信インタフェース55で動画コンテンツが受信されるとその動画コンテンツはHDD56に一時保管される。その後、その動画コンテンツ中の動画データから一連の画像データが生成されてその一連の画像データに基づく動画が表示画面31(図2参照)上に表示される。
また、その動画コンテンツ中の音声データは音声出力部57に送信され、表示画面31上への動画の表示と同期した音声がスピーカ572から出力される。
図4は、図2,図3に示すノートPC内での動画再生処理の流れを示した図である。
CPU51は、入力動画データを受け取ると復号化処理51aを行なう。この入力動画データは、符号化された形式のデータである。そして、この復号化処理51aではエントルピー復号化処理と呼ばれる復号化処理によりYCbCrフォーマットの動画データが生成される。この復号化処理51aにより生成された動画データのうちのYデータは動画の輝度を表わしている。またYCbCrフォーマットの動画データのうちのCbCrデータは、色差データと呼ばれ、動画の色を表わすデータである。復号化処理51aにより生成された動画データは図3に示すメモリ52に書き込まれる。すると次に、CPU51では逆量子化・逆DCT処理51bが実行されて表示用の動画データが生成される。逆量子化処理および逆DCT処理自体は,MPEG形式のデータ再生処理として一般的な処理であり、ここでの詳細説明は省略する。
CPU51での逆量子化・逆DCT処理51bにより生成された動画データは、GPU541に送られ、GPU541にて、動き補償・予測処理541aおよびデブロッキング処理541bが行なわれる。これら動き補償・予測処理541aおよびデブロッキング処理541bは、MPEGでの一般的なデータ処理である。そして、これら動き補償・予測処理541aおよびデブロッキング処理541bの結果、動画に含まれる一連の画像それぞれを表した各画像データが生成される。そのように生成された各画像データは出力バッファ541cに順次に書き出される。この出力バッファ541cに順次に書き出された画像データが表した画像は、順次に映像出力となって表示画面31上に表示される。その結果、表示画面31上には動画が表示されることとなる。つまりGPU541の出力バッファ541cが、画像データを順次に出力する画像出力部の一例に相当する。
この動画表示における表示速度は、1秒間当たりに表示されるフレーム(画像)数で定義されている。この表示速度は、CPU51への入力動画データ中に元々指定されているので、CPU51は、間隔指定処理51cを実行することでGPU541の出力バッファ541cに、画像データの出力間隔を指定する。例えば、入力動画データ中では1秒間当たりに30フレームの表示が指定されている場合には、出力バッファ541cには、33ms間隔での画像出力が指定される。つまりCPU51は、画像出力部に対して動画の表示速度に応じた時間間隔を指定する間隔指定部の一例としての機能を、この間隔指定処理51cによって担っている。
ところで、上述した動き補償・予測処理541a中には、画面内予測処理とフレーム間予測処理が含まれていて、この画面内予測処理はモード0からモード8までの9タイプの予測モードのうちのいずれかの予測モードによって実行される。実行されるべき予測モードは、復号化処理51aで復号化された動画データ中のメタ情報に記載されている。また、この予測モードは、生成される画像データ毎に指定されるものであるので、1つの動画を再生している最中にもたびたび予測モードが変更されることとなる。そして、予測モードが異なると、後で詳述するように、画面内予測処理におけるGPU541の負荷が異なるので処理時間も異なる。結局、画像データが出力バッファ541cに書き出されるタイミングは、その画像データの生成のために実行される予測モードのタイプに依存して決まることになる。そこで、CPU51は間隔指定処理51cで、後述するように、各画像データの生成処理速度が上述した表示速度に間に合うか否かを確認している。そして、生成処理速度が表示速度に間に合わない画像データについては、間隔指定処理51cで一時的に、表示速度に相当する出力間隔よりも長い出力間隔を出力バッファ541cに指定する。これにより、生成処理の負荷が大きい画像データであっても、出力バッファ541cか
らのデータ出力に間に合うように生成されることになる。
図2,図3に示すノートPC10のユーザが動画コンテンツの再生を希望する場合には、ユーザは、HDD56に記憶されている再生アプリケーションを起動する。この再生アプリケーションについて以下説明する。
図5は、再生アプリケーションのフローチャートの第1部分を示す図である。また、図6は、再生アプリケーションのフローチャートの第2部分を示す図である。図5のステップS109から図6の「1A」へと処理が繋がっている。また、図6のステップS203から図5の「2A」へも処理が繋がっている。これら図5,6に示すフローチャートに従う方法が、動画出力方法の具体的な一実施形態に相当する。
また、図7は、図5,図6に示す再生アプリケーション起動時に表示画面31(図2参照)上に表示されるメニュー画面の一例を示した図である。さらに、図8は、図7に示すメニュー画面上で「映像A」が選択されたときの表示画面例を示す図である。
再生アプリケーションが起動されると、先ず、この動画再生を担うPC(ここでは、図2,図3に示すノートPC10)の不揮発メモリ53(図3参照)に記憶されているBIOS情報等の機器情報が読み出される。そして、予め再生アプリケーションに設定されている基準にその機器情報が照らし合わされて、そのノートPC10について、動画処理の能力が低いいわゆる低価格PCであるか否かが判定される(ステップS101)。
このステップS101における判定で、低価格PCではないと判定された場合には、動画再生を担うPCの動画処理の能力が十分に高いので、ステップS119で通常の復号化処理が実行される。この通常の復号化処理とは、単に復号化処理を行うのではなくて、動画を表示するための画像データの生成までを担った処理である。つまりこの通常の復号化処理は、上述した予測モードに基づいた生成処理速度の確認などが行われない通常の動画再生の処理である。
上記ステップS101における判定で、低価格PCであると判定された場合には、動画再生を担うPCの動画処理の能力が低いので、動画再生時のコマ落ちやフリーズを防止する処置が必要となる。なお、本来は、低価格PCの中にも処理能力の異なる複数バージョンが存在することも多いが、以下では説明の便宜上、低価格PCと判定されるのは1バージョンのみであるものとする。
ステップS101における判定で、低価格PCであると判定された場合には、インターネット上からダウンロードされてHDD56に格納されている動画コンテンツ一覧を表わす、例えば図7に示すようなメニュー画面が表示される(ステップS102)。このメニュー画面上で例えば「映像A」が選択されると図8に示す画面が表示される(ステップS103)。この図8に示す画面上で[メインメニューへ」が選択されると処理が中断され(ステップS104;Yes)、その後図7に示すメニュー画面に戻る。一方、この図8に示す画面上で「再生する」が選択されると、動画コンテンツがHDD56からメモリ52に入力されることで(ステップS105;Yes)映像Aの再生が開始される。なお、以上説明したステップS102〜S105の処理については、上述した通常の復号化処理にも全く同様の処理が含まれているものとする。
動画コンテンツがメモリ52に入力されると、タイミングエンジンと称されるプログラムがHDD56から読み出されてメモリ52に展開される(ステップS106)。このタイミングエンジンは、図4で説明した動画再生処理のうちCPU51で実行される処理部分(特に間隔指定処理51c)を担うプログラムである。タイミングエンジンがメモリ5
2に展開されて実行されると、エントロピー復号化(即ち図4に示す復号化処理51a)が動画データに施される(ステップS107)。そして、復号化された動画データから上述したメタ情報が読み出され、そのメタ情報に記載されている予測モードが確認される(ステップS108)。また、この復号化された動画データからは、上述した表示速度も読み出され、その表示速度に相当する画像データの出力間隔が規定値として算出されてメモリ52に記憶される。
エントロピー復号化の対象となる動画データはいわゆるGOP(Group of Picture)となっている。エントロピー復号化によってこのGOPのレイヤから順に、ピクチャレイ、スライスレイヤ、マクロブロックレイヤ、ブロックレイヤが導出される。ピクチャレイは、GOPに含まれている一連の画像が1枚1枚に分けられたレイヤである。スライスレイヤは、1枚の画像が数段に分割されたレイヤである。そしてマクロブロックレイヤは、スライスレイヤが数個に分割されたレイヤである。このマクロブロックレイヤに含まれている各マクロブロックが面内予測処理の処理対象である。また、ブロックレイヤは、逆量子化・逆DCT処理の処理単位である。面内予測処理の予測モードは1枚の画像について共通であるが、マクロブロックレイヤに対応付けられたメタ情報に記載されている。ステップS108では、このようにマクロブロックレイヤに対応付けられたメタ情報から予測モードが取得されることとなる。
ここで再生アプリケーションの説明を一旦中断して予測モードと、その予測モードによる画面内予測について説明を行う。そして、予測モード等の説明後に再生アプリケーションの説明に戻ることとする。
図9〜図17は、それぞれ、予測モードのモード0〜モード8を説明する図である。
図9〜図17の各図において、太枠で囲まれた画素はエントロピー復号化や実行済みの画面内予測で値が得られている既知画素を表し、細枠で囲まれた画素は、その太枠で囲まれた画素の値が用いられた画面内予測処理で値が算出される予測画素を表している。以下の説明では、画面内予測で予測対象となるマクロブロックは、どの予測モードにおいても4×4の16画素を有するものとする。
図9に示すモード0は既知画素の値をコピーすることで予測画素の値を予測する予測モードである。具体的には、画素Aの値が画像の縦方向に画素b,c,dへとコピーされることになる。
図10に示すモード1の場合もモード0と同様に既知画素の値をコピーすることで予測画素の値を予測するモードであるが、コピーの方向は、図9に示すように画像の横方向となっている。
図11に示すモード2は、全ての予測画素が同一値となる予測モードである。即ち、j=k=m=n=o=p=q=r=s=t=u=v=w=x=y=zである。そして、その予測画素の値は、(A+B+C+D+E+F+G+H+4)/8、(A+B+C+D+2)/4、(E+F+G+H+2)/4、あるいは128となる。これらの予測値のいずれが画素値として用いられるかは、ここでは説明を省略する処理によって決まることになる。
図12に示すモード3は、左下方向の対角に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
j=(A+2*B+C+2)/4
k=o=(B+2*C+D+2)/4
m=p=s=(C+2*D+E+2)/4
n=q=t=w=(D+2*E+F+2)/4
r=u=x=(E+2*F+G+2)/4
v=y=(F+2*G+H+2)/4
z=(G+2*H+2)/4
図13に示すモード4は、右下方向の対角に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
n=(H+2*G+F+2)/4
m=r=(G+2*F+E+2)/4
k=q=v=(F+2*E+X+2)/4
j=p=w=z=(E+2*X+A+2)/4
o=t=y=(X+2*A+B+2)/4
s=x=(A+2*B+C+2)/4
w=(B+2*C+D+2)/4
図14に示すモード5は、下に2画素進むにつれて右に1画素ずれる右下方向に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
j=q=(A+B+1)/2
o=u=(B+C+1)/2
s=y=(C+D+1)/2
w=(D+E+1)/2
k=r=(F+2*A+B+2)/4
p=v=(A+2*B+C+2)/4
t=z=(B+2*C+D+2)/4
x=(C+2*D+E+2)/4
m=(A+2*F+G+2)/4
n=(F+2*G+H+2)/4
図15に示すモード6は、右に2画素進むにつれて下に1画素ずれる下横方向に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
j=t=(A+E+1)/2
o=x=(E+2*A+B+2)/4
s=(A+2*B+C+2)/4
w=(B+2*C+D+2)/4
k=u=(E+F+1)/2
p=y=(A+2*E+F+2)/4
m=v=(F+G+1)/2
q=z=(E+2*F+G+2)/4
n=(G+H+1)/2,r=(H+2*G+F+2)/4
図16に示すモード7は、下に2画素進むにつれて右に1画素ずれる左下方向に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
j=(B+C+1)/2
m=o=(C+D+1)/2
q=s=(D+E+1)/2
u=w=(E+F+1)/2
y=(F+G+1)/2
k=(B+2*C+D+2)/4
n=p=(C+2*D+E+2)/4
r=t=(D+2*E+F+2)/4
v=x=(E+2*F+G+2)/4
z=(F+2*G+H+2)/4
図17に示すモード8は、右に2画素進むにつれて上に1画素ずれる上横方向に並んだ予測画素が同一の値となる予測モードである。具体的には、以下に示す各式によって予測画素の値が算出される。
j=(A+E+1)/2
o=(A+2*E+F+2)/4
k=s=(E+F+1)/2
p=w=(E+2*F+G+2)/4
m=t=(F+G+1)/2
q=x=(F+3*G+2)/4
n=r=v=y=z=G
各予測モードでは、以上説明したように予測画素の値が算出されるので、算出に要する処理負荷としてはモード2が最も高いことになる。次に、モード5およびモード7で処理負荷が高く、モード6、モード8と順に処理負荷が下がる。モード3およびモード4は更に処理負荷が低く、モード0およびモード1では処理負荷が最も低い。以下の説明では、このような処理負荷に対応した処理時間が予め求められていて、その処理時間は再生アプリケーションに付属して記憶されているものとする。そして、予測モードが確認されることで処理時間も確認されるものとする。
図5に示すステップS108では、このような予測モードがメタ情報から確認される。そして、ステップS109では、その確認された予測モードが、画像データの出力間隔の上述した規定値より上の処理時間を要する予測モードであるか否かが判定される。
規定値より上の処理時間を要する予測モードであると判定された場合には、動画の再生中にコマ落ちやフリーズが生じないように、出力バッファ541c(図4参照)からの画像データの出力間隔(表示間隔)が規定値から変更される(ステップS110)。この変更された新たな出力間隔は、予測モードに要する処理時間に相当する出力間隔である。そして、その変更された新たな出力間隔(表示間隔)がGPUに通知される(ステップS111)。このとき、規定値の出力間隔に対して画像データの出力が遅延する遅延時間が算出されて遅延データとしてメモリ52(図3参照)に記録される。
ステップS108、S109における判定は、動画データが画像毎に有する予測モードに基づいて行われるため、画像データの生成に先立って迅速かつ正確な判定が実現できる。その結果、ステップS110、S111では、画像データの規定値での出力間隔に至る前に、必要に応じて出力間隔を変更することができる。このことは、動画出力装置において以下のような応用形態が好適であることを意味している。この応用形態では、上記動画データが、画像データを生成する処理における、各画像に応じた処理モードを表したモード情報を含んでいる。そしてこの応用形態では、上記画像生成部が、上記動画取得部で取得された動画データに含まれているモード情報が表している処理モードで画像データを生成する。さらにこの応用形態では、上記間隔指定部が、上記動画取得部で取得された動画データに含まれているモード情報に基づいて、画像データ毎に、上記画像生成部における生成が第1の時間間隔での順次出力に間に合うか否かを判定する。
上述したステップS108〜S111の処理が、この応用形態における間隔指定部での処理の一例に相当する。また、以下説明するステップS112〜S114の処理が、この応用形態における画像生成部での処理の一例に相当する。
その後、上記ステップS107でエントロピー復号化が施された動画データについて逆量子化・逆DCT処理が実行される(ステップS112)。この逆量子化・逆DCT処理実施後の動画データは、今度はGPU541(図4参照)に送られる。このGPU541では、上述した動き補償・予測処理541aに対応した、画面内予測、重み付き予測(ステップS113)、デブロッキング処理(ステップS114)が実行される。ここでの画面内予測は、上記ステップS108で確認された予測モードによって実行される。これらの処理によって、動画表示用の画像データが生成され、その生成された画像データが出力バッファに書き込まれる(ステップS115)。そして、GPU541では、通知されて
いる表示間隔に基づいて、出力バッファに対し、画像データの出力時刻(即ち画像の表示時刻)が設定される(ステップS116)。このとき設定される出力時刻(表示時刻)は、動画の再生中にコマ落ちやフリーズが生じないように必要に応じて規定値から変更された出力時刻(表示時刻)である。
ステップS116の後は、時刻がその設定された表示時刻に達するまで待機状態となり(ステップS117)、表示時刻に達すると出力バッファから当該フレームの画像データが出力される(ステップS118)。上述したステップS110における出力間隔(表示間隔)の変更によって、ステップS115での画像データの書き込みは、出力間隔に対して余裕を持ったタイミングでの書き込みとなっている。このため、ステップS117ではその余裕分の待機となる。画像データの出力後は処理が上述したステップS107に戻って、次のフレームの画像データ生成のために動画データの処理が進む。
上述したステップS109で規定値より上の処理時間を要する予測モードであると判定された場合には、以上説明した処理によって、動画の再生中のコマ落ちやフリーズが回避されることとなる。但し、本来の画像データの出力タイミングよりもやや遅れた出力タイミングになっている。そこで、本実施形態では、出力タイミングの遅れを取り戻す工夫が施されている。以下、その工夫を含んだ処理の流れについて説明する。
ステップS109で、予測モードが、規定値以下の処理時間を要する(即ち規定値での出力に画像データの生成が間に合う)予測モードであると判定された場合には、処理が図6のステップS201へと進む。ステップS201では、メモリ52が参照されて、上述した遅延データが記録されているか否かが確認される。遅延データが記録されている場合には、画像データの出力タイミングが本来よりも遅延していることを意味するので、ステップS202で、画像データの出力間隔(表示間隔)が規定値から減らされる。このとき、現在の予測モードで画像データの生成に要する処理時間が規定値よりも十分に短い場合には、遅延データが示す遅れの分だけ出力間隔が規定値から減らされる。しかし、遅延データが示す遅れを一度に取り戻せるほどは処理時間に余裕がない場合には、新たな出力間隔は、その処理時間に相当する出力間隔となる。そして、このような出力間隔の変更で遅れが取り戻された分だけ遅延データも書き換えられる。
その後、ステップS203で、変更された新たな出力間隔(表示間隔)がGPUに通知される。但し、上記ステップS201で遅延データ無しと判定された場合には、出力間隔は変更されていないので、このステップS203では規定値の出力間隔がGPUに通知されることとなる。その後、ステップS203から図5のステップS112に処理が進むことによって、ステップS112〜S114では画像データが生成され、ステップS115ではその画像データが出力バッファに書き込まれる。そして、ステップS116では、規定値の出力間隔あるいは規定値よりも短い出力間隔で画像データが出力されることとなる
。この結果、画像データの出力タイミングの遅れが取り戻されるので、ある程度の時間幅で見れば、動画は本来の表示速度で表示されることとなる。
このことは、動画出力装置の応用形態として、以下のような応用形態が好適であることを意味する。この応用形態では、上記間隔指定部が、上記第2の時間間隔を一時的に指定した後に出力される画像データについては、上記画像出力部に対して、上記第1の時間間隔よりも短い第3の時間間隔を指定するものとなっている。そして、この第3の時間間隔の指定は、その第2の時間間隔の指定により画像データの出力が遅延した分を回復するまで続けられる。
以上説明した再生アプリケーションによる処理の結果として実現される動画表示について以下説明する。なお、動画データ中で指定されている表示速度は1秒間に30フレームであるものとする。
図18は、規定値での画像データの出力に画像データの生成が間に合う場合の動画表示を示す図である。
図18には、動画に含まれた画像(フレーム)としてF1〜F8の8つの画像が示されている。そして、各画像の画像データが、33msという出力間隔で出力バッファ541c(図4参照)から出力されていることも示されている。この結果、図3に示す表示画面31では1秒間に30フレームという表示速度での動画表示が実現されている。図18に示したこのような動画表示は、PCが十分な動画処理能力を有しているか、あるいは予測モードが処理負荷の低い予測モードである場合に実現される。
ここで比較例として、従来の低価格PCにおいて、処理負荷の高い予測モードでの画像データ生成が行われた場合に発生する現象について説明する。
図19は、比較例を示す図である。
図19にも、動画に含まれた画像(フレーム)としてF1〜F8の8つの画像が示されている。そして、この例では、F5という画像までは33msという出力間隔で画像データが正常に出力バッファ541cから出力されているが、次のF6という画像の画像データは、画像データの生成が33msの出力間隔に間に合わなかったことが示されている。このように画像データの生成が出力間隔に間に合わないと、出力バッファ541cは正常な出力動作を行うことができないため、動画表示としては、コマ落ちやフリーズといった不具合が生じることとなる。
図20は、本実施形態で処理負荷の高い予測モードでの画像データ生成が行われた場合の動画表示を示す図である。
図20にも、動画に含まれた画像(フレーム)としてF1〜F8の8つの画像が示されている。そして、この例でも、F6という画像の画像データは、画像データの生成が33msという規定値の出力間隔には間に合わないことが示されている。しかし、本実施形態では、画像データの出力間隔が一時的に、画像データの生成が間に合うような長めの出力間隔に変更される。ここに示す例では、F6という画像の画像データの生成に要する生成時間は、規定値の33msに対して20ms遅延した54msとなっている。そして、出力バッファ541cにはその生成時間に合わせた54msという出力間隔が一時的に指定されている。この結果、F6という画像の画像データも正常に出力バッファ541cから出力されるので動画表示は正常に続くこととなる。但し、20msの遅延が生じるので、本実施形態では、その遅延を生じたF6という画像の後に続くF7,F8という画像では
、画像データの生成に余裕がある範囲で、出力間隔が短縮されている。ここに示す例では、1つの画像データの生成が、33msに対して10msの余裕があるので、2つの画像データの生成で合計20msの遅延回復が図られている。このように遅延が回復された後は、33msの出力間隔に戻ることとなる。なお、このような画像の遅延および回復は、人間の目では判別できない程度のものであるため、動画表示としては正常な動画表示となる。また、ここで示したような短時間の遅延は動画表示としては余り問題にならない程度の遅延であるので放置しておいても構わない場合が多い。しかし、例えば音声との微妙なズレが生じて視聴者が気づく場合もあるし、複数回の遅延が累積してしまって視聴者が気づく場合もあるので、本実施形態のように回復を図っておくことが望ましい。
以上で実施形態の説明を終了する。
なお、上記説明では、動画データ中に指定された表示速度での動画表示が行われる例が示されているが、本件の動画出力装置や動画出力方法は、例えばスロー再生やサーチ再生のように、指定された表示速度から変更された速度による再生にも適用可能である。
また、上記説明では、画像データの生成が出力に間に合うか否かの判定が、予測モードに基づいて画像データの生成に判定される例が示されている。しかし、本件の動画出力装置や動画出力方法では、画像データの生成に並行して判定が行われてもよく、判定のための情報として、実際に生成に要している速度などを用いてもよい。
また、上記説明では、長めの出力時間間隔を指定して生じた遅延をその後に回復する処理が組み込まれている例が示されているが、本件の動画出力装置や動画出力方法では、遅延が致命的でない場合などには回復処理を省略してもよい。
また、上記説明では、再生された表示用の動画データに基づく動画を表示画面31上に表示する場合を例にして説明したが、この表示用の動画データを再生した装置自体で表示する必要はない。例えば、表示用の動画データをDVDやブルーレイディスク等の可搬型記録媒体に記録して、あるいは、そのまま外部に出力して、他の画像表示装置で表示してもよい。
1 動画出力装置
2 動画取得部
3 画像生成部
4 画像出力部
5 画像表示部
6 間隔指定部
10 ノートPC
20 本体ユニット
21 キーボード
22 タッチパッド
30 表示ユニット
31 表示画面
51 CPU
51a 復号化処理
51b 逆量子化・逆DCT処理
51c 間隔指定処理
52 メモリ
53 不揮発メモリ
54 表示部
55 通信インタフェース
56 HDD
57 音声出力部
541 GPU
541a 動き補償・予測処理
541b デブロッキング処理
541c 出力バッファ
571 オーディオインタフェース
572 スピーカ

Claims (7)

  1. 時間的に連続した画像ごとの処理についての画面内予測処理における各種予測モードを有するモード情報を含む動画データを取得する動画取得部と、
    前記動画データから、表示速度に応じて指定される時間で順次に画像を出力する画像出力部と、
    出力される画像についてのモード情報と記憶部に記憶されたCPUの処理可能な規定値とに基づいて、各種予測モードにおける画素値の予測に要する処理時間がCPUの処理可能な規定値を超えている場合、前記指定された時間での出力が間に合わない画像に対して、該指定された時間よりも長い時間で出力させるとともに、該出力が間に合わない画像の次に出力される画像に対して、該指定された時間よりも短い時間で出力させる制御部と、を備えたことを特徴とする動画出力装置。
  2. 前記動画データに処理を施すことで、動画中の各画像を表した各画像データを生成する画像生成部と、
    前記動画データに含まれているモード情報に基づいて、画像ごとに、前記画像生成部における生成が前記画像出力部に対して前記動画の表示速度に応じた第1の時間間隔での順次出力に間に合うか否かを判定し、前記画像出力部に対して、前記動画の表示速度に応じた第1の時間間隔における該第1の時間間隔での順次出力には該画像生成部における生成が間に合わない画像データについて、一時的に、該第1の時間間隔よりも長い第2の時間間隔を指定する間隔指定部と、
    を備えたことを特徴とする請求項1に記載の動画出力装置。
  3. 前記間隔指定部が、前記第2の時間間隔を一時的に指定した後に出力される画像データについては、該第2の時間間隔の指定により画像データの出力が遅延した分を回復するまで、前記画像出力部に対して、前記第1の時間間隔よりも短い第3の時間間隔を指定するものであることを特徴とする請求項1または2に記載の動画出力装置。
  4. 動画データは、符号化されたデータであり、
    前記制御部は、動画中の各画像を表した各画像データから復号化した第1の画像を生成し、前記第1の画像を出力した後で、次の順番の第2の画像を復号化させることを特徴と
    する請求項1から3のいずれか一項に記載の動画出力装置。
  5. 制御部により出力される画像のそれぞれを出力バッファーに書き込む処理部と、
    前記出力バッファーに書き込まれた画像を順次に前記表示速度に応じて指定される時間で表示装置に表示させる表示部と、
    を備えたことを特徴とする請求項1から4のいずれか一項に記載の動画出力装置。
  6. 時間的に連続した画像ごとの処理についての画面内予測処理における各種予測モードを有するモード情報を含む動画データを取得するステップと、
    前記動画データから、表示速度に応じて指定される時間で順次に画像を出力するステップと、
    出力される画像についてのモード情報と記憶部に記憶されたCPUの処理可能な規定値とに基づいて、各種予測モードにおける画素値の予測に要する処理時間がCPUの処理可能な規定値を超えている場合、前記指定された時間での出力が間に合わない画像に対して、該指定された時間よりも長い時間で出力させるとともに、該出力が間に合わない画像の次に出力される画像に対して、該指定された時間よりも短い時間で出力させるステップと、
    有することを特徴とする動画出力方法。
  7. コンピュータに、
    時間的に連続した画像ごとの処理についての画面内予測処理における各種予測モードを有するモード情報を含む動画データを取得するステップと、
    前記動画データから、表示速度に応じて指定される時間で順次に画像を出力するステップと、
    出力される画像についてのモード情報と記憶部に記憶されたCPUの処理可能な規定値とに基づいて、各種予測モードにおける画素値の予測に要する処理時間がCPUの処理可能な規定値を超えている場合、前記指定された時間での出力が間に合わない画像に対して、該指定された時間よりも長い時間で出力させるとともに、該出力が間に合わない画像の次に出力される画像に対して、該指定された時間よりも短い時間で出力させるステップと、
    を実行させることを特徴とする動画出力プログラム。
JP2012512597A 2010-04-28 2010-04-28 動画出力装置、動画出力方法、および動画出力プログラム Expired - Fee Related JP5598540B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/057616 WO2011135704A1 (ja) 2010-04-28 2010-04-28 動画出力装置、動画出力方法、および動画出力プログラム

Publications (2)

Publication Number Publication Date
JPWO2011135704A1 JPWO2011135704A1 (ja) 2013-07-18
JP5598540B2 true JP5598540B2 (ja) 2014-10-01

Family

ID=44861045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512597A Expired - Fee Related JP5598540B2 (ja) 2010-04-28 2010-04-28 動画出力装置、動画出力方法、および動画出力プログラム

Country Status (4)

Country Link
US (1) US9319695B2 (ja)
JP (1) JP5598540B2 (ja)
CN (1) CN102884788B (ja)
WO (1) WO2011135704A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6354243B2 (ja) * 2014-03-25 2018-07-11 セイコーエプソン株式会社 撮像装置、画像処理装置、表示制御装置、及び撮像表示装置
CN105278896B (zh) * 2014-06-26 2019-12-10 腾讯科技(深圳)有限公司 一种图像显示方法、装置及终端设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045491A (ja) * 1999-08-03 2001-02-16 Hitachi Ltd 符号化画像の復号・表示装置
JP2003153261A (ja) * 2001-11-16 2003-05-23 Sony Corp 動画像再生装置および方法、記録媒体、並びにプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216800A (ja) 1992-02-04 1993-08-27 Mitsubishi Electric Corp ネットワーク通信方式
JPH07327214A (ja) * 1994-06-01 1995-12-12 Canon Inc 動画像表示方法及び装置
JP3877947B2 (ja) * 2000-09-29 2007-02-07 パイオニア株式会社 符号化データの転送制御方法及び蓄積再生システム
JP3888848B2 (ja) * 2000-11-20 2007-03-07 シャープ株式会社 画像復号装置
JP2003061052A (ja) * 2001-08-09 2003-02-28 Canon Inc 画像再生装置及び画像再生方法
PL1784014T3 (pl) * 2004-08-17 2012-03-30 Panasonic Corp Urządzenie do kodowania obrazu oraz urządzenie do dekodowania obrazu
US8233781B2 (en) * 2004-09-01 2012-07-31 Panasonic Corporation Image reproduction method and image reproduction apparatus
JP2006101404A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP2006101405A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP2006101322A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP2006101323A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
DE602005015067D1 (de) 2004-09-30 2009-08-06 Toshiba Kk Informationsbearbeitungsgerät und Programm
JP2006101321A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP2006101402A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP4282582B2 (ja) 2004-09-30 2009-06-24 株式会社東芝 情報処理装置および同装置で用いられるプログラム
JP2006101406A (ja) 2004-09-30 2006-04-13 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP4466390B2 (ja) * 2005-01-31 2010-05-26 カシオ計算機株式会社 動画装置、動画再生方法、及びプログラム
JP2006254231A (ja) 2005-03-11 2006-09-21 Toshiba Corp 情報処理装置および同装置で用いられるプログラム
JP4322851B2 (ja) * 2005-08-19 2009-09-02 Necディスプレイソリューションズ株式会社 動画配信システムおよび動画配信サーバー
JP2007074037A (ja) * 2005-09-02 2007-03-22 Sony Corp 情報再生装置、および情報再生方法、並びにコンピュータ・プログラム
JP2007174196A (ja) 2005-12-21 2007-07-05 Toshiba Corp 情報処理装置、制御方法およびプログラム
JP4643454B2 (ja) * 2006-01-10 2011-03-02 株式会社東芝 動画像復号装置及び動画像復号方法
JP2007195064A (ja) 2006-01-20 2007-08-02 Canon Inc 画像情報伝送装置、画像情報伝送方法、プログラム及び記憶媒体
JP4825524B2 (ja) 2006-01-31 2011-11-30 株式会社東芝 動画像復号装置および動画像復号方法
JP4649347B2 (ja) 2006-02-28 2011-03-09 株式会社東芝 情報処理装置及び情報処理装置の動画像復号方法
JP5115150B2 (ja) * 2007-11-02 2013-01-09 ソニー株式会社 情報提示装置及び情報提示方法
JP2009182891A (ja) 2008-01-31 2009-08-13 Toshiba Corp 情報処理装置およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045491A (ja) * 1999-08-03 2001-02-16 Hitachi Ltd 符号化画像の復号・表示装置
JP2003153261A (ja) * 2001-11-16 2003-05-23 Sony Corp 動画像再生装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
JPWO2011135704A1 (ja) 2013-07-18
US9319695B2 (en) 2016-04-19
CN102884788A (zh) 2013-01-16
WO2011135704A1 (ja) 2011-11-03
US20130038802A1 (en) 2013-02-14
CN102884788B (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
US8817873B2 (en) Image coding/recording apparatus and image coding/recording method
US8411735B2 (en) Data processing apparatus, data processing method, and program
JP5921469B2 (ja) 情報処理装置、クラウドプラットフォーム、情報処理方法およびそのプログラム
US20100166081A1 (en) Video stream processing apparatus and control method, program and recording medium for the same
CN111182308B (zh) 视频解码方法、装置、计算机设备及存储介质
JP2006254230A (ja) 情報処理装置およびプログラム
US9055272B2 (en) Moving image reproduction apparatus, information processing apparatus, and moving image reproduction method
JP2006254320A (ja) 情報処理装置および同装置で用いられるプログラム
JP5598540B2 (ja) 動画出力装置、動画出力方法、および動画出力プログラム
JP2007295392A (ja) 情報処理装置、復号処理方法、およびプログラム
US8787466B2 (en) Video playback device, computer readable medium and video playback method
JP5493362B2 (ja) 動画再生装置及びプログラム
JP5617270B2 (ja) 動画再生装置、動画処理方法、および動画処理プログラム
JP2006101406A (ja) 情報処理装置および同装置で用いられるプログラム
US20090304089A1 (en) Reproduction processing apparatus, reproduction processing method, and computer program
JP2008090611A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006101404A (ja) 情報処理装置および同装置で用いられるプログラム
JP2007129489A (ja) 映像再生装置および映像再生方法
JP5355176B2 (ja) 動画保存装置及びその制御方法
JP5153192B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015037223A (ja) 画像処理装置及びその制御方法
KR100849154B1 (ko) 영상들 간의 경계선을 용이하게 추가하는 영상 재생 장치및 방법
JP2008060638A (ja) 映像情報圧縮方法および映像情報圧縮プログラム
JP2003244703A (ja) 画像処理システム,画像形成装置,画像処理プログラム
JP2008182364A (ja) 動画像記録再生装置及びその制御方法、並びに、コンピュータプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5598540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees