JP5333593B2 - 動画再生装置、動画再生プログラム、および動画再生方法 - Google Patents

動画再生装置、動画再生プログラム、および動画再生方法 Download PDF

Info

Publication number
JP5333593B2
JP5333593B2 JP2011531686A JP2011531686A JP5333593B2 JP 5333593 B2 JP5333593 B2 JP 5333593B2 JP 2011531686 A JP2011531686 A JP 2011531686A JP 2011531686 A JP2011531686 A JP 2011531686A JP 5333593 B2 JP5333593 B2 JP 5333593B2
Authority
JP
Japan
Prior art keywords
moving image
frame
moving
image
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011531686A
Other languages
English (en)
Other versions
JPWO2011033617A1 (ja
Inventor
敏郎 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011033617A1 publication Critical patent/JPWO2011033617A1/ja
Application granted granted Critical
Publication of JP5333593B2 publication Critical patent/JP5333593B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本件は、取得した動画データのフレームレートを下げて、フレームレートを下げた動画データに基づく動画を表示する動画再生装置および動画再生方法、並びに、演算装置を動画再生装置として動作させる動画再生プログラムに関する。
近年、パーソナルコンピュータ(以下、「PC」と略記する)の低価格指向が強まり、PCの価格を抑えるためそのPCに使用される部品も価格が抑えられ、それに応じてPCの性能も抑えられている。例えば、低価格帯のノート型パーソナルコンピュータ(以下、「ノートPC」と略記する)にあっては、液晶表示画面等を持つ表示機器についても高価な部品を使用することができず、その応答速度が50fps(フレーム/秒)しかない表示機器が選択されることも多い。このため、そのノートPCをインターネットに接続してインターネット上にある60fpsの動画HD(High Definition)コンテンツをそのノートPCで再生表示しようとしても、そのノートPCの表示機器が50fpsでしか表示することができず、1秒あたり10フレームについては表示速度が追いつかず、コマ落ちで表示されるという不備を生じる。
これに対処するには、その低機能の表示機器でも表示できるように動画のフレームレートを下げることが考えられる(特許文献1〜4参照)。ここで、動画コンテンツはMPEGフォーマット、特にMPEG2フォーマットが採用されることが多い。このMPEG2では15フレームで1つのグループを形成している。このグループはGOP(Group of Picture)と呼ばれる。MPEG2ではそのGOP単位で復号処理を行なっているため、フレームレートを下げるためにフレームを単純に間引くのは困難である。また、低価格であることから例えば動作速度が1.6GHz等、動作速度の遅いCPU(Central Processing Unit)が搭載されており、大きな処理パワーを必要とする演算を行なってフレームレートを下げることも困難である。
特開2002−94947号公報 特開2003−309834号公報 特開2006−319784号公報 特表2007−520741号公報
上記事情に鑑み、本件開示の動画再生装置、動画再生プログラム、および動画再生方法の課題は、取得した動画データのフレームレートを比較的小さい演算パワーで下げることにある。
本件開示の動画再生装置は、動画取得部と、動画再生部と、動画表示部とを有する。
動画取得部は、背景画像と動体の画像との双方の情報を有するフレームと背景画像を除く動体の画像の情報を有するフレームとの双方のフレームを含む複数のフレームが第1のフレームレートで循環的に繰り返す第1の動画データを取得する。動画再生部は、動画取得部で取得した第1の動画データに基づいて上記第1のフレームレートよりも低い第2のフレームレートの第2の動画データを再生する。動画表示部は、動画再生部で再生された第2の動画データに基づいて動画を表示する。
ここで、動画再生部は、補間データ算出部と、フレーム画像再生部とを有する。
補間データ算出部は、上記第1の動画データを構成する複数のフレームの、動体が描写された移動領域内の画像とその移動領域の移動量とに基づいて、上記第2の動画データを構成する補間フレームの、動体が描写された新移動領域内の画像とその新移動領域の移動量とを算出する。
フレーム画像再生部は、補間データ算出部で算出された補間フレームの新移動領域の移動量に基づいて、その新移動領域内の画像と背景画像とを合成することにより、補間フレーム全域の画像を再生する。
本件は、上記の動画再生装置の思想を動画再生プログラムや動画再生方法として捉えた場合を含む。
本件開示の動画再生装置、動画再生プログラム、および動画再生方法によれば、取得した動画データのフレームレートを比較的小さい演算パワーで下げることができる。
本件の一実施形態が構築されるノートPCの一例を示す外観斜視図である。 図1に外観を示すノートPCのハードウェア構成の概要を示すブロック図である。 動画再生用のプログラム(再生アプリ)のフローチャート(一部分)である。 動画再生用のプログラム(再生アプリ)のフローチャート(残りの部分)である。 図3,図4に示す再生アプリ起動時に表示画面上に表示されるメニュー画面の一例を示した図である。 図5に示すメニュー画面上で「映像A」が選択されたときの表示画面例を示す図である。 MPEG2における予測法の代表例である双方向予測(A)と前方予測(B)の説明図である。 MPEG2復号処理の概要を示す図である。 本件の一実施形態における復号処理の概要を示す図である。 移動領域と移動量を示す図である。 通常のMPEG復号演算処理(A)と補間演算処理後のMPEG復号演算処理(B)とを示した図である。
以下、本件の実施形態を説明する。
図1は、本件の一実施形態が構築されるノートPCの一例を示す外観斜視図である。
この図1に示すノートPC10は、本体ユニット20と表示ユニット30とを有する。本体ユニット20は、内部にCPUやハードディスクドライブ(以下、「HDD」と略記する)等を備えるとともに、上面にキーボード21やポインティングデバイスの一種であるタッチパッド22等を備えている。また、表示ユニット30は、蝶番40を介して本体ユニット10に連結されて本体ユニット20に対し開閉自在に構成され、開状態にあるときの前面に表示画面31を備えている。
図2は、図1に外観を示すノートPCのハードウェア構成の概要を示すブロック図である。
ここには、CPU51、主メモリ52、不揮発メモリ53、図1にも示すキーボード21、並びに、グラフィックモジュール541および図1の表示画面31を含んで構成された表示部54が示されている。またここには、通信インタフェース55、HDD56、図1にも示すタッチパッド22、並びに、オーディオインタフェース571およびスピーカ572を含んで構成された音声出力部57も示されている。これらの各要素21,27,51〜57は、バス50を介して互いに接続されている。
通信インタフェース55は、インターネットに接続されインターネットを介する通信を行なう。ここでは特にMPEG2に準拠した動画コンテンツを受信する。HDD56は、大容量記憶装置であって、ここには本件の一実施形態としての動画再生プログラムを含む各種プログラムや、インターネットを経由して入力されてきた動画コンテンツなどが記憶されている。タッチパッド22は、表示部54を構成する表示画面31(図1参照)上のカーソルを移動させて表示画面31上の任意のアイコン等をクリックするポインティングデバイスの一種である。音声出力部57は、音声データを受け取りオーディオインタフェース571でアナログの音声信号に変換してスピーカ572で音声を出力する。
また、CPU51は、プログラムを実行する中央演算処理装置である。本実施形態で用いるノートPCでは、比較的動作速度の遅い、動作速度1.6GHzのCPUが採用されている。主メモリ52は、HDD56から読み出されたプログラムがCPU51での実行のために展開されるメモリである。またこの主メモリ52は、プログラムがCPU51で実行されたときのデータの一時的な格納場所としても利用される。不揮発メモリ53には、このノートPC10に電力が投入された初期に実行されるプログラムであるBIOS(Basic Input Output System)が記憶されている。また、キーボード21は、オペレータによる各種情報や指示の入力用のツールである。
表示部54は、表示用データを受け取って表示画面31(図1参照)上にそのデータに応じた画像を表示するものである。ここでは特に、動画データを受け取りグラフィックモジュール541で表示用の動画データに変換して表示画面31上に動画を表示する。ここで、この表示部54は、比較的表示速度が遅い、最大50fpsの動画を表示する能力を有する。また、この表示部54を構成する表示画面31(図1参照)は、1024×574ピクセルの表示画面である。
ここでは、インターネットを経由してきた、MPEG2フォーマットの動画コンテンツが通信インタフェース55で受信される。通信インタフェース55で動画コンテンツが受信されるとその動画コンテンツはHDD56に一時保管される。その後、その動画コンテンツが60fpsのフレームレートでの表示指定のある動画コンテンツのときはCPU51で実行される動画再生プログラムでその動画コンテンツのフレームレートが下げられ、そのフレームレートを下げた動画データが表示部54に送信される。すると、グラフィックモジュール541ではその送信されてきた動画コンテンツに基づいて動画が描画され、その動画が表示画面31(図1参照)上に表示される。
また、その動画コンテンツ中の音声データは音声出力部57に送信され、音声出力部57では表示画面31上への動画の表示と同期した音声が出力される。
図3および図4は、動画再生用のプログラム(ここでは「再生アプリ」と称する)のフローチャートである。
また、図5は、図3,図4に示す再生アプリ起動時に表示画面31(図1参照)上に表示されるメニュー画面の一例を示した図、図6は、図5に示すメニュー画面上で「映像A」が選択されたときの表示画面例を示す図である。
図3,図4に示す再生アプリが起動されると、インターネット上からダウンロードされてHDD56に格納されている動画コンテンツ一覧を表わす、例えば図5に示すようなメニュー画面が表示される。このメニュー画面上で例えば「映像A」が選択されると図6に示す画面が表示される。この図6に示す画面上で「再生する」が選択されると映像Aの再生が開始される。一方、この図6に示す画面上で[メインメニューへ」が選択されると、図5に示すメニュー画面に戻る。
図3,図4に示す再生アプリのフローチャートに沿って説明する。
再生アプリが起動されると、先ず、ユーザにより、60fpsの動画再生が選択されたか否かが判定される(ステップS01)。再生される動画の選択は、図4,図5を参照して説明した通りである。60fpsの動画再生が選択されると、次に、この動画再生を担うノートPC(ここでは、図1,図2に示すノートPC10)の表示部の応答速度を、不揮発メモリ53(図2参照)に記憶されているBIOS情報等の機器情報から検知する(ステップS02)。今回再生しようとする動画が60fpsであって表示部の応答速度が60fps未満のときは、そのままではコマ落ちが避けられないため図4に示すフローチャートに進み、フレームレートが変更される(ステップS03)。ただし、ここでは先ず、今回再生しようとして選択された動画は60fpsに満たないフレームレートで表示される動画であるか、又は表示部の応答速度が60fps以上であってフレームレートの変更を必要としない場合について先に説明する。
ステップS01で、60fpsに満たないフレームレートの動画が選択されるか、あるいは、60fpsの動画が選択された場合であっても表示部の応答速度が60fps以上であると判定されると、ステップS04に進む。ステップS04では、動画再生処理が中断されたり終了したか否かが判定される。処理の中断/終了は、今回の動画が最終まで再生された場合、あるいはユーザにより中断が指示された場合等に発生する。処理の中断/終了が発生したときは、この再生アプリが終了する。処理中断/終了の発生がないときは動画コンテンツをGOPを単位としてHDD56から読み出して主メモリ52に入力し(ステップS05)、MPEG2復号処理が実行される(ステップS06〜S08)。
ここで、MPEG2のフレームフォーマットについて概要を説明する。MPEG2フォーマットに準拠した動画コンテンツは、Iフレーム(Intra−coded Frame)、Pフレーム(Predicted Frame)、Bフレーム(Bi−directional Predicted Frame)の3種類のフレームを有し、I1−B2−B3−P4−B5−B6−P7−B8−B9−P10−B11−B12−P13−B14−B15の15フレームで1つのGOP(Group of Picture)を構成している。Iフレーム、Pフレーム、およびBフレームの各1フレームあたりの平均的なデータ量は、概ねI:P:B=4:2:1程度である。Iフレームは、フレーム間予測を用いずに符号化されるフレーム、Pフレームは前方予測のみを用いて符号化されるフレーム、Bフレームは前方予測、後方予測および双方向予測のうちのいずれかを選択して符号化されるフレームである。このMPEG2では、フレーム間予測と呼ばれる技術が採用されている。フレーム間予測とは、動画では前のフレームと現在のフレームが良く似ていることを利用して前のフレームから現在のフレームを予測する技術である。フレーム間予測では、入力画像と予測画像の差分だけを符号化すれば足りるため高い圧縮率を得ることができる。MPEG2では、圧縮効率をさらに高めるために動き補償(MC;Motion Compensation)と呼ばれる技術が併用されている。動き補償とは、フレーム間予測において前のフレームと現在のフレームとの間でのフレーム内の物体の動きを補うものである。すなわち、現在のフレームを予測する場合に、フレーム内の物体の動きの分だけずらした位置の画像が用いられる。この動き補償を行なうには、画像の動き量を推定する動きベクトルと、その動きベクトルだけでは表現しきれない差分データを含むフレームデータが符号化される。
図7は、MPEG2における予測法の代表例である双方向予測(A)と前方予測(B)の説明図である。
図7(A)の双方向予測の場合、Pフレームは前方のIフレーム又はPフレームから予測され、Bフレームについては、前方のIフレーム又はPフレームと後方のPフレームとの双方から予測される。
図7(B)の前方予測の場合、Bフレームについても常に前方のフレームから予測される。
MPEG2のフレームフォーマット等については広く知られた技術であり、ここでは以上の説明にとどめる。
図8は、MPEG2復号処理の概要を示す図である。MPEG2復号処理も広く知られた技術であるため、ここでは、この図8および図3のフローチャートを参照しながら、後述するフレームレートを下げる処理を含む復号処理(図9参照)との対比に必要な点のみ説明する。ここでは双方向予測を前提にして説明する。ただし、図8では図示の煩雑さを避けるため前方予測に基づく矢印を示している。
I1フレームは、そのI1フレームのみから復号化されてF1フレームが再生される。このF1フレームは、背景とそのI1フレーム内の移動領域N1とからなるフレームである。
また、P4フレームは、そのP4フレームとI1フレームから復号化されてF4フレームが再生される。このF4フレームは背景とそのP4フレーム内の移動領域とからなるフレームである。
I1フレームに続くB1フレームと、そのB1フレームに続くB2フレームは、それぞれ移動領域N1,N2のみ符号化されたフレームであり、B1フレーム,B2フレームのデータから移動領域N2,N3内の画像データと各移動領域N2,N3の移動量が算出され(ステップS06)、さらにI1フレームとP4フレームとから再生される背景フレームと合成されて、F2フレームおよびF3フレームが再生される(ステップS07)。F4フレームに続くF5フレーム、F6フレーム、…についても同様にして再生される。
15フレームからなる1つのGOPの再生が完了すると(ステップS08)、GOP(15フレーム)単位で表示部に送信される(ステップS09)。表示部は、表示画面31(図1参照)上に送信されてきた動画データに基づく動画を表示する。
図9は、本件の一実施形態における復号処理の概要を示す図である。
図3のステップS01において60fpsで再生されるべき動画が選択され、かつステップS03で表示部の表示速度が60fps未満であると判定されると、図4のステップS11に進む。ここでは、動画コンテンツのフレームレートを下げるために、この再生アプリを構成する1つのプログラム部品である補間フレーム構築エンジンがHDD56から主メモリ52上に読み込まれる。ステップS11に続くステップS12〜S14は、図3のステップS03〜S06とそれぞれ同一の処理であり重複説明は省略する。
ステップS15では、ステップS11で読み込んだ補間フレーム構築エンジンにより、移動領域の移動量が平均化されて平均としての移動量Vが算出され、ステップS16では、移動領域Nより新移動領域Mが作成される。具体的には、I1フレーム内の移動領域N1からB2フレームの移動領域N2への移動量Vn2の1/2の移動量Vm1と、B2フレームの移動領域N2からB3フレームの移動領域N3への移動量Vn3の1/2の移動量Vm2が算出されるとともに、I1フレームの移動領域N1とB2フレームの移動領域N2の中間位置(移動量Vm1の位置)にある新移動領域M1の画像データと、B2フレームの移動領域N2とB3フレームの移動領域N3との中間の位置(移動量Vm2の位置)にある新移動領域M2の画像データが作成される。
図10は、移動領域と移動量を示す図である。
この図10は、仮想的に、背景フレームF上に、I1フレームの移動領域N1とB2フレームの移動領域N2を配置した状態が示されている。新移動領域M1は、移動領域N1から移動領域N2までの移動量Vn2の半分の移動量Vm1=Vn2/2を持つ新移動領域M1が作成される。例えば移動領域N1の座標が(00,00)であり、移動領域N2の座標が(10,10)のとき、移動領域N1から移動領域N2までの移動量Vn2はVn2=(10,10)であり、新移動領域M1の移動量Vm1は、Vm1=(05,05)となる。また、この新移動領域M1は、2つの移動領域N1,N2が互いに異なる寸法の移動領域であったときは、それら2つの移動領域N1,N2の中間的な寸法を持つ。例えば、移動領域N1の面積が10であって移動領域N2の面積が30のときは、新移動領域M1は例えば面積20となる。尚ここでは移動領域N1,N2、および新移動領域M1はいずれも長方形の枠で示されているが、長方形である必要はなく、変形した形状の領域であってもよい。
図9に戻って説明を続ける。
図9に示すように、新移動領域M1,M2が作成されると、MPEG復号演算処理により各新移動領域M1,M2がI1フレームやP4フレームから再生される背景画像と合成されて各補間フレームF1,F2全域の画像が再生される。その後に続く新移動領域M4,M5,…や補間フレームF4,F5,…についても同様にして作成、再生される。
上記のようにして15フレーム分の処理を終了して(図4のステップS18)10フレーム分の補間フレームが作成されると(図4のステップS19)、補間フレームがGOP(10フレーム)単位での表示部54(図2参照)に送信される。表示部54では、送信されてきた補間フレームの連続からなる動画データに基づいてグラフィックモジュール541にて描画されて表示画面31上に動画が表示される。
本実施形態では、上記のように、移動領域という、フレーム全域の画像からすると画像の狭い一部領域を使って新移動領域を算出して背景画像と合成しているため、フレーム全域の画像を作成してから補間フレームを作成する場合と比べ演算量を大幅に削減することができる。
次に、本実施形態の手法により、60fpsのフレームレートで動画表示が可能であることの試算を示す。
図11は、通常のMPEG復号演算処理(A)と補間演算処理後のMPEG復号演算処理(B)とを示した図である。フレーム合成については説明済みであるため、ここでは合成の記述はしないで移動領域の平均化について説明する。
ここでの前提は、前述した通り、CPUの動作速度は、1.6GHz、表示画面31の表示能力は1024×574の画面サイズ、24ビット色、最大フレームレート50fpsである。
MPEGデータは、前述の通り、I1→B2→B3→P4→B5→B6→…→B14→B15→I16→…と続いていく。補間演算により新たに作成される新移動領域M1は、I1フレーム内の移動領域N1とB2フレームにより表わされる移動領域N2とを平均化した領域である。すなわち、移動領域N1から移動領域N2へ移動したときの移動量Vn2に基づいて移動領域N1の位置と移動領域N2の位置を平均化してこれを平均化した移動量Vm1=Vn2/2としてその座標に新移動領域M1を配置する。ここで、背景となる画像データは従来通りのMPEG復号化で作成され、これをそのままコピーすればよく、この背景の画像データの作成のための新規の処理は必要としない。従来のMPEG復号化処理では、1枚のフレーム画像を復号化するために5.6mscの時間で処理可能である。これは、入力される画像データのフォーマットによって違いはあるが、実機検証からの既存処理における平均処理時間である。本実施形態では、従来のMPEG復号化処理に加え、新たに新移動領域M1,M2,…を作成するための処理が追加される。この新移動領域M1,M2,…の作成にあたっては、移動領域N1,N2,…と移動量Vn2,Vn3,…とから新移動領域M1,M2,…を作成するため、1つの新移動領域を作成するのに5.6msecは必要としない。この新移動領域を作成するのに要する時間は、概ね以下の通りである。
Bフレームの情報量はIフレームの情報量の1/4、Pフレームの情報量はIフレームの情報量の1/2であることから、
(Iフレーム数+Bフレーム数/4+Pフレーム数/2)×5.6msec
=(1+10/4+4/2)×4×5.6=123.2msec
この123.2msecは、図9の「補間演算処理」に要する時間であり、「移動領域算出処理」と「MPEG復号演算処理」に要する時間は、1フレームあたり5.6msecに含まれる。よって60フレームの画像を再生するのに必要な演算時間は、
5.6×60+123.2=459.2msec
であって十分に1秒以内であり、上記の補間演算処理が追加されても動画を正常に表示することが可能である。
尚、本実施形態の場合、40fpsの表示となるため、実際は40fps/60fpsの処理時間となり、処理時間は上記の見積もりよりもさらに短時間となる。
また、入力される動画データ自体は30fpsであって、各フレームを2回ずつ表示することにより60fpsの表示を実現する動画コンテンツも存在する。この場合も、処理時間は上記の見積りよりもさらに短時間となる。
このように、本実施形態によれば十分高速に、すなわち、少ない演算量で動画データのフレームレートを下げて動画表示することが可能である。
尚、ここでは3フレームから2フレームを作成することによりフレームレートを2/3に下げる例について説明したが、本件は、フレームレートを2/3に下げる場合のみでなく、フレームレートを下げる場合に広く適用することができる。
また、ここでは、MPEG2フォーマットの動画データを例に挙げて説明したが、MPEG2フォーマット以外のMPEGフォーマットであってもよい。さらには、MPEGフォーマット以外であっても、動き補償を伴うフレーム間予測により復号化された動画データであってもよい。さらには、背景画像と動体の画像との双方の情報を有するフレームと背景画像を除く動体の画像の情報を有するフレームとの双方のフレームを含む複数のフレームが循環的に繰り返す動画データであれば本件を適用することができる。
10 ノートPC
20 本体ユニット
21 キーボード
22 タッチパッド
30 表示ユニット
31 表示画面
40 蝶番
50 バス
51 CPU
52 主メモリ
53 不揮発メモリ
54 表示部
55 通信インタフェース
56 ハードディスクドライブ
57 音声出力部
541 グラフィックモジュール
571 オーディオインタフェース
572 スピーカ

Claims (12)

  1. 第1のフレームレートでエンコードされた第1動画データであって、背景画像についての情報と動体画像についての情報の双方を保持したフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む複数のフレームシーケンスを含む第1動画データを取得する動画取得部と、
    前記動画取得部により取得された前記第1動画データに基づいて、前記第1のフレームレートよりも低い第2のフレームレートで再生される第2動画データを生成する動画生成部と、
    前記動画生成部により生成された前記第2動画データに基づいて動画を表示する動画表示部とを有し、
    前記動画生成部が、
    前記第1動画データの,連続するフレーム毎に、前記背景画像についての情報を保持していない各フレームをデコードすることなく、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像の間に位置する仮想動体画像の位置を算出する算出部と、
    前記算出部により算出された仮想動体画像の位置毎に、前記背景画像と、算出された位置に配置された前記動体画像とを含む,前記第2動画データの構成要素であるフレーム画像を作成するフレーム画像作成部とを含む
    ことを特徴とする動画再生装置。
  2. 前記第1動画データが、動き補償を伴うフレーム間予測を利用して符号化されたデータである
    ことを特徴とする請求項1記載の動画再生装置。
  3. 前記第1動画データがMPEGデータであり、前記第1動画データの各フレームシーケンスが、背景画像についての情報と動体画像についての情報の双方を保持したIフレーム及び1つ以上のPフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む
    ことを特徴とする請求項1記載の動画再生装置。
  4. 前記算出部は、前記第1動画データの,連続するフレーム毎に、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像間の変位と当該2つの動体画像の中の一方の位置とから、前記仮想動体画像の位置を算出する
    ことを特徴とする請求項1記載の動画再生装置。
  5. コンピュータを、
    第1のフレームレートでエンコードされた第1動画データであって、背景画像についての情報と動体画像についての情報の双方を保持したフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む複数のフレームシーケンスを含む第1動画データを取得する動画取得部と、
    前記動画取得部により取得された前記第1動画データに基づいて、前記第1のフレームレートよりも低い第2のフレームレートで再生される第2動画データを生成する動画生成部と、
    前記動画生成部により生成された前記第2動画データに基づいて動画を表示する動画表示部とを、有し、
    前記動画生成部が、
    前記第1動画データの,連続するフレーム毎に、前記背景画像についての情報を保持していない各フレームをデコードすることなく、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像の間に位置する仮想動体画像の位置を算出する算出部と、
    前記算出部により算出された仮想動体画像の位置毎に、前記背景画像と、算出された位置に配置された前記動体画像とを含む,前記第2動画データの構成要素であるフレーム画像を作成するフレーム画像作成部とを含む
    装置として機能させる
    ことを特徴とする画像再生プログラム。
  6. 前記第1動画データが、動き補償を伴うフレーム間予測を利用して符号化されたデータである
    ことを特徴とする請求項5記載の画像再生プログラム。
  7. 前記第1動画データがMPEGデータであり、前記第1動画データの各フレームシーケンスが、背景画像についての情報と動体画像についての情報の双方を保持したIフレーム及び1つ以上のPフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む
    ことを特徴とする請求項5記載の画像再生プログラム。
  8. 前記算出部は、前記第1動画データの,連続するフレーム毎に、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像間の変位と当該2つの動体画像の中の一方の位置とから、前記仮想動体画像の位置を算出する
    ことを特徴とする請求項5記載の画像再生プログラム。
  9. 第1のフレームレートでエンコードされた第1動画データであって、背景画像についての情報と動体画像についての情報の双方を保持したフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む複数のフレームシーケンスを含む第1動画データを取得する動画取得過程と、
    前記動画取得過程により取得された前記第1動画データに基づいて、前記第1のフレームレートよりも低い第2のフレームレートで再生される第2動画データを生成する動画生
    成過程と、
    前記動画生成過程により生成された前記第2動画データに基づいて動画を表示する動画表示過程と
    を含み、
    前記動画生成過程が、
    前記第1動画データの,連続するフレーム毎に、前記背景画像についての情報を保持していない各フレームをデコードすることなく、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像の間に位置する仮想動体画像の位置を算出する算出過程と、
    前記算出過程により算出された仮想動体画像の位置毎に、前記背景画像と、算出された位置に配置された前記動体画像とを含む,前記第2動画データの構成要素であるフレーム画像を作成するフレーム画像作成過程と
    を含む
    ことを特徴とする動画再生方法。
  10. 前記第1動画データが、動き補償を伴うフレーム間予測を利用して符号化されたデータである
    ことを特徴とする請求項9記載の動画再生方法。
  11. 前記第1動画データがMPEGデータであり、前記第1動画データの各フレームシーケンスが、背景画像についての情報と動体画像についての情報の双方を保持したIフレーム及び1つ以上のPフレームと、前記動体画像の自フレーム内での位置についての情報を保持し、且つ、前記背景画像についての情報を保持しない複数のフレームとを含む
    ことを特徴とする請求項9記載の動画再生方法。
  12. 前記算出過程は、前記第1動画データの,連続するフレーム毎に、当該3フレーム内の連続する各2フレームについて、その2フレーム中の2つの動体画像間の変位と当該2つの動体画像の中の一方の位置とから、前記仮想動体画像の位置を算出する
    ことを特徴とする請求項9記載の動画再生方法。
JP2011531686A 2009-09-16 2009-09-16 動画再生装置、動画再生プログラム、および動画再生方法 Expired - Fee Related JP5333593B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066142 WO2011033617A1 (ja) 2009-09-16 2009-09-16 動画再生装置、動画再生プログラム、および動画再生方法

Publications (2)

Publication Number Publication Date
JPWO2011033617A1 JPWO2011033617A1 (ja) 2013-02-07
JP5333593B2 true JP5333593B2 (ja) 2013-11-06

Family

ID=43758244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011531686A Expired - Fee Related JP5333593B2 (ja) 2009-09-16 2009-09-16 動画再生装置、動画再生プログラム、および動画再生方法

Country Status (5)

Country Link
US (1) US8787466B2 (ja)
JP (1) JP5333593B2 (ja)
KR (1) KR101271692B1 (ja)
CN (1) CN102577364B (ja)
WO (1) WO2011033617A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120081514A (ko) * 2011-01-11 2012-07-19 삼성전자주식회사 동영상 촬영 방법 및 장치
WO2015088265A1 (en) * 2013-12-13 2015-06-18 Samsung Electronics Co., Ltd. Storage medium, reproducing apparatus and method for recording and playing image data
EP3808086B1 (en) * 2018-08-14 2024-10-09 Huawei Technologies Co., Ltd. Machine-learning-based adaptation of coding parameters for video encoding using motion and object detection
CN113496534B (zh) * 2020-03-20 2024-04-19 阿里巴巴集团控股有限公司 动态位图合成方法、装置、电子设备及计算机存储介质
CN115150548B (zh) * 2022-06-09 2024-04-12 山东信通电子股份有限公司 一种基于云台输出输电线路全景图像的方法、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0422073B2 (ja) * 1982-12-29 1992-04-15 Sony Corp
JP3132452B2 (ja) * 1998-01-29 2001-02-05 日本電気株式会社 動画像復号装置
JP2004172690A (ja) * 2002-11-18 2004-06-17 Matsushita Electric Ind Co Ltd 情報処理装置、及び情報処理方法
JP2007318193A (ja) * 2006-05-23 2007-12-06 Hitachi Ltd 画像処理装置
JP2009021963A (ja) * 2007-07-13 2009-01-29 Sony Corp 映像処理装置、映像処理方法、及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2560119B2 (ja) 1989-10-18 1996-12-04 株式会社レンタルのニッケン 車輛の転倒防止機構
JPH0422073A (ja) 1990-05-16 1992-01-27 Casio Comput Co Ltd 電池パック装置及び電池状態報知装置
KR100235344B1 (ko) * 1994-12-29 1999-12-15 전주범 영역 분할 부호화 방식의 전경/배경 화상 선택 장치
WO1999066449A1 (en) * 1998-06-19 1999-12-23 Equator Technologies, Inc. Decoding an encoded image having a first resolution directly into a decoded image having a second resolution
EP1083750A3 (en) * 1999-09-10 2009-09-23 NTT DoCoMo, Inc. Method and apparatus for transcoding coded video image data
EP1296525A4 (en) * 2000-06-28 2006-07-26 Mitsubishi Electric Corp IMAGE ENCODER AND IMAGE ENCODING METHOD
JP2002094947A (ja) 2000-09-12 2002-03-29 Matsushita Electric Ind Co Ltd 高速映像再生装置、高速映像再生方法および記録媒体
JP4066235B2 (ja) 2002-04-15 2008-03-26 富士フイルム株式会社 動画送信装置及び動画合成プログラム
JP2004080327A (ja) * 2002-08-16 2004-03-11 Sony Corp 画像処理装置および画像処理方法、記録媒体、並びにプログラム
US7330509B2 (en) * 2003-09-12 2008-02-12 International Business Machines Corporation Method for video transcoding with adaptive frame rate control
US7506267B2 (en) 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
JP2006319784A (ja) 2005-05-13 2006-11-24 Olympus Corp 画像処理装置および撮像装置
US7672377B2 (en) * 2006-04-21 2010-03-02 Dilithium Holdings, Inc. Method and system for video encoding and transcoding
US9247259B2 (en) * 2006-10-10 2016-01-26 Flash Networks Ltd. Control of video compression based on file size constraint
JP4181598B2 (ja) * 2006-12-22 2008-11-19 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP4615508B2 (ja) * 2006-12-27 2011-01-19 シャープ株式会社 画像表示装置及び方法、画像処理装置及び方法
JP4958758B2 (ja) * 2007-12-14 2012-06-20 三星電子株式会社 記録装置、再生装置、記録方法、再生方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0422073B2 (ja) * 1982-12-29 1992-04-15 Sony Corp
JP3132452B2 (ja) * 1998-01-29 2001-02-05 日本電気株式会社 動画像復号装置
JP2004172690A (ja) * 2002-11-18 2004-06-17 Matsushita Electric Ind Co Ltd 情報処理装置、及び情報処理方法
JP2007318193A (ja) * 2006-05-23 2007-12-06 Hitachi Ltd 画像処理装置
JP2009021963A (ja) * 2007-07-13 2009-01-29 Sony Corp 映像処理装置、映像処理方法、及びプログラム

Also Published As

Publication number Publication date
CN102577364B (zh) 2015-03-04
US8787466B2 (en) 2014-07-22
US20120170918A1 (en) 2012-07-05
WO2011033617A1 (ja) 2011-03-24
JPWO2011033617A1 (ja) 2013-02-07
CN102577364A (zh) 2012-07-11
KR20120043769A (ko) 2012-05-04
KR101271692B1 (ko) 2013-06-04

Similar Documents

Publication Publication Date Title
JP7139515B2 (ja) 動画撮像方法、動画撮像装置、電子機器、およびコンピューター読取可能な記憶媒体
JP5333593B2 (ja) 動画再生装置、動画再生プログラム、および動画再生方法
JP4802524B2 (ja) 画像処理装置、カメラシステム、ビデオシステム、ネットワークデータシステム、並びに、画像処理方法
JP2004088244A (ja) 画像処理装置、画像処理方法、および画像フレームデータ記憶媒体、並びにコンピュータ・プログラム
CN108337560A (zh) 用于在web浏览器上播放媒体的媒体重放设备和媒体服务设备
CN103098118B (zh) 描绘装置及方法
JP4633595B2 (ja) 動画生成装置、動画生成方法、及びプログラム
JP2006148615A (ja) 復号化装置および符号化方法をコンピュータに実行させるためのプログラム
JP5268991B2 (ja) 情報処理装置および映像コンテンツ再生方法
KR101648449B1 (ko) 디스플레이 장치에서 영상 처리 방법 및 디스플레이 장치
JP4484775B2 (ja) 再生装置及び再生方法
JP5598540B2 (ja) 動画出力装置、動画出力方法、および動画出力プログラム
US20180063551A1 (en) Apparatus and methods for frame interpolation
JP5238849B2 (ja) 電子機器、電子機器の制御方法及び電子機器の制御プログラム
JP5617270B2 (ja) 動画再生装置、動画処理方法、および動画処理プログラム
JP2017126856A (ja) 情報処理装置
JP2010118772A (ja) 情報処理装置および動画像データのアップコンバート制御方法
JP4668051B2 (ja) 動画生成装置、動画生成方法、及びプログラム
JP4633594B2 (ja) 動画生成装置、動画生成方法、及びプログラム
JP2007095010A (ja) 動画生成装置、動画生成方法、及びプログラム
JP4289179B2 (ja) 対話型アニメーション生成方法及び装置及び対話型アニメーション生成プログラム及び対話型アニメーションプログラムを格納した記憶媒体
JP5153192B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5325671B2 (ja) 画像処理装置、表示装置および画像処理方法
CN117834990A (zh) 一种显示设备及媒资数据倍速播放方法
JP2007124238A (ja) 動画像符号化装置及び動画像符号化方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130715

R150 Certificate of patent or registration of utility model

Ref document number: 5333593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees