JP2015154415A - 動画符号化装置、動画符号化方法及び動画符号化プログラム - Google Patents

動画符号化装置、動画符号化方法及び動画符号化プログラム Download PDF

Info

Publication number
JP2015154415A
JP2015154415A JP2014028780A JP2014028780A JP2015154415A JP 2015154415 A JP2015154415 A JP 2015154415A JP 2014028780 A JP2014028780 A JP 2014028780A JP 2014028780 A JP2014028780 A JP 2014028780A JP 2015154415 A JP2015154415 A JP 2015154415A
Authority
JP
Japan
Prior art keywords
image
region
reduced
motion vector
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014028780A
Other languages
English (en)
Inventor
森岡 清訓
Kiyonori Morioka
清訓 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014028780A priority Critical patent/JP2015154415A/ja
Publication of JP2015154415A publication Critical patent/JP2015154415A/ja
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】階層型の動きベクトル探索を採用した際の動きベクトルの検出精度を高める動画符号化装置を提供する。
【解決手段】入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化装置100であって、入力画像から入力画像を縮小することにより失われる成分を特徴的に含む領域と領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を位置と領域に対応付けて記録する代表テクスチャ情報抽出部110と、縮小画像を利用した動きベクトル探索時に、抽出した領域の探索時は記録した縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う縮小動きベクトル検出部130と、を有する。
【選択図】図1

Description

本件は、動画符号化装置、動画符号化方法及び動画符号化プログラムに関する。
動画像の圧縮符号化方式として、フレーム間予測(ピクチャ間予測)を利用して情報量圧縮を行なう技術が一般化している。例えば、MPEG−2,MPEG−4,MPEG−AVC等で使用されている。最新の動画圧縮の規格としてはH.265/High Efficiency Video Coding(H.265/HEVC)が規格化された。H.265/HEVCは、次世代のテレビとして予定されているUltra High Definition Television(UHDTV:超高精細テレビ)に利用される事が想定されている。UHDTVでは4K(4,096×2,160画素または3,840×2,160画素)や8K(7,680×4,320画素)といった超高精細画像が取り扱われる。
動画像の符号化ではフレーム間予測(ピクチャ間予測)により情報量の圧縮を行なう。このピクチャ間予測で類似領域を探索する、Motion Estimation(ME:動きベクトル検出)と呼ばれる演算で多くの電力が消費される。動きベクトル検出では、符号化対象の画像ブロックに対して、探索する参照用の画像データの量が多い。特に、4Kや8Kといった超高精細画像を扱う場合に参照用の画像データの量が大幅に増加し、参照用の画像を記録した外部メモリと動画像符号化装置間のデータ転送量が増大する。動画像符号化装置における消費電力の主な要素として外部メモリとの間のデータ転送量がある。このため、上述した超高精細画像を取り扱う際には演算量を削減すると共に消費電力を抑えて動きベクトルを検出することが望まれる。
演算量を削減可能な動きベクトル検出方法として階層型動きベクトル検出がある。階層型動きベクトル検出では、まず、入力画像及び参照用画像を縮小した縮小画像を利用して縮小画像での動きベクトルを検出する。次に、縮小画像で求めた動きベクトルの指し示す位置を含む周囲の領域に限定して等倍の入力画像及び参照用画像を用いた動きベクトルの探索が行なわれる。動きベクトルを探索する(検出する)いずれの段階においても、画像を格子状のブロックに分割し、そのブロックについて、既に動きベクトルが検出されて符号化された参照画像の中から類似部分を探索するブロックマッチングが実行される。
一方、入力画像が縮小された場合、入力画像が縮小前に有していた特定の成分(例えば高周波成分)が失われた縮小画像になる。例えば、入力画像と縮小画像を縮小前に戻した画像との差分により高周波画像を算出し、高周波画像に基づいて画素毎に非平坦度を示す特徴量を算出する技術が知られている(例えば、特許文献1参照)。このような技術以外にも、画像を格子状のセルに分割した後、各セル毎にテクスチャ特徴量を算出する技術や、特定領域を等倍出力するダウンデコード技術も知られている(例えば、特許文献2、特許文献3参照)。
特開2013−20294号公報 特開平6−60182号公報 特開2009−302774号公報
ところで、縮小画像は縮小前の画像に比べ特定の成分が失われているため縮小前の入力画像と比べて劣化している。また、特定の成分が失われた縮小画像では輪郭(エッジ)がボケたり、折り返し歪みによるアーティファクトが生じたりすることがある。このような縮小画像を利用すると、本来求めたい動きベクトルを縮小画像にする事で失われる成分があるため高精度に検出できないという問題がある。
そこで、1つの側面では、本件は、階層型の動きベクトル探索を採用した際の動きベクトルの検出精度を高める動画符号化装置、動画符号化方法及び動画符号化プログラムを提供することを目的とする。
本明細書に開示の動画符号化装置は、入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化装置であって、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出手段と、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出手段と、を有する動画符号化装置である。
本明細書に開示の動画符号化方法は、入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化方法であって、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、を有する動画符号化方法である。
本明細書に開示の動画符号化プログラムは、入力画像を縮小した縮小画像を利用して動きベクトルを階層的にコンピュータに検出させる動画符号化プログラムであって、前記コンピュータに、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、を実行させるための動画符号化プログラムである。
本明細書に開示の動画符号化装置、動画符号化方法及び動画符号化プログラムによれば、縮小画像で動きベクトルを探索する際の検出精度を高めることができる。
図1は、動きベクトルの探索を行う部分を明示的に示す動画符号化装置のブロック図の一例である。 図2は、フレームメモリの概要を説明するための図である。 図3は、代表テクスチャ情報抽出部の回路構成を示すブロック図の一例である。 図4は、画像処理部及び縮小動きベクトル検出部の回路構成を示すブロック図の一例である。 図5は、代表テクスチャ情報抽出部の動作の一例を示すフローチャートである。 図6は、特徴判定回路で実行される処理の一例を説明するための図である。 図7は、代表テクスチャ情報決定回路で実行される処理の一例を説明するための図である。 図8は、代表テクスチャ情報決定回路で実行される処理の一例を説明するための図である。 図9は、代表テクスチャ情報決定回路で実行される処理の一例を説明するための図である。 図10は、画像処理部及び縮小動きベクトル検出部の動作の一例を示すフローチャートである。 図11は、縮小回路で実行される処理の一例を説明するための図である。 図12(a)は、縮小画像ブロックマッチング回路に入力される各種画像を説明するための図である。図12(b)は、代表テクスチャ位置ブロックマッチング回路に入力される各種画像を説明するための図である。 図13は、ブロックマッチングを説明するための図である。 図14は、コスト算出回路で実行される処理の一例を説明するための図である。 図15は、代表テクスチャ情報抽出部の別の回路構成を示すブロック図の一例である。 図16は、等倍カレント画像に対するスキャンの別の例である。 図17は、代表テクスチャ情報を決定する処理の一例を説明するための別の図である。 図18は、情報処理装置のハードウェア構成の一例である。
以下、本件を実施するための形態について図面を参照して説明する。
(第1実施形態)
図1は、動きベクトルの探索を行う部分を明示的に示す動画符号化装置100のブロック図の一例である。動画符号化装置100は、図1に示すように、代表テクスチャ情報抽出部110、画像処理部120、縮小動きベクトル検出部130、等倍動きベクトル検出部140、制御部150及び符号化処理部160を含んでいる。等倍動きベクトル検出部140で検出された等倍動きベクトルは符号化処理部160に入力され、動画像の符号化処理が行なわれる。動画符号化装置100は、例えばLarge Scale Integration(LSI:大規模集積回路)によって実現される。以降は動きベクトルの探索を行なう部分について、絞って詳細に説明する。
動画符号化装置100には、等倍カレント画像と縮小に使用する低域通過フィルタ(ローパスフィルタ)に必要なタップ数分の周辺画素(等倍カレント画像の周辺)が入力される。周辺画素が画面外で存在しない場合は最近傍の有効画素値などで代用される。一例として、5タップのローパスフィルタを掛けてから横1列の8画素をサンプリングで2画素に縮小する場合を説明する。例えば横1列の8画素の1画素目と5画素目の位置でサンプリングする場合には、周辺画素の代用として画面外に2画素分の有効画素値を加えた1〜3画素目で5タップフィルタの計算を行い、4〜7画素目で5タップフィルタの計算を行う。このため、縮小に必要な画素は2画素分の有効画素値を加えた1〜7画素目となる。一方、後述する代表テクスチャ領域を抽出する際に仮に横1列の8画素が必要であるとすると、上述したような5タップのローパスフィルタを掛けてから横1列の8画素をサンプリングで2画素に縮小するためには、2画素分の有効画素値を加えた1〜8画素目が必要とされ、これが動画符号化装置100に入力される。尚、必要なタップ数分の周辺画素は縮小率や重心(サンプリング位置)に応じて決定される。等倍カレント画像は、これから各種の処理が開始される画像である。等倍カレント画像は、4Kや8Kといった符号化対象画像を例えば64×64画素で格子状に分割した領域の1つである。このような領域は、例えばマクロブロックやLargest CU(LCU:最大符号化ユニット)とも呼ばれる。すなわち、符号化対象画像は複数の最大符号化ユニットを有している。動画符号化装置100は、次々と入力される等倍カレント画像を順に処理することで、符号化対象画像の全体を符号化する。
等倍カレント画像は、図1に示すように、代表テクスチャ情報抽出部110、画像処理部120及び等倍動きベクトル検出部140に入力される。図1において、等倍カレント画像は、等倍動きベクトル検出部140に直接的に入力されているが、フレームメモリ200を介して等倍動きベクトル検出部140に間接的に入力されていてもよい。この場合、等倍カレント画像はフレームメモリ200に記憶される。その後、等倍動きベクトル検出部140が処理を開始するときに、フレームメモリ200から等倍カレント画像が呼び出される。これにより、等倍カレント画像は等倍動きベクトル検出部140に入力される。尚、フレームメモリ200は、例えばSynchronous Dynamic Random Access Memory(SDRAM)によって実現される。
代表テクスチャ情報抽出部110は、入力された等倍カレント画像に対して種々の処理を実行することによって、代表テクスチャ情報を抽出する。代表テクスチャ情報はフレームメモリ200に記録される。尚、代表テクスチャ情報の詳細は後述する。
画像処理部120は、入力された等倍カレント画像に基づいて、等倍カレント画像を縮小した縮小カレント画像を生成する。縮小カレント画像は縮小動きベクトル検出部130に入力される。また、縮小カレント画像はフレームメモリ200に記録される。このような処理以外にも、画像処理部120は、後述するマスク画像及び部分カレント画像を生成する。マスク画像及び部分カレント画像は縮小動きベクトル検出部130に入力される。
縮小動きベクトル検出部130は、縮小カレント画像、縮小参照画像、マスク画像、代表テクスチャ情報及び部分カレント画像に基づいて、縮小画像の動きベクトルを検出する。縮小参照画像はフレームメモリ200に記録されているため、縮小動きベクトル検出部130はフレームメモリ200から縮小参照画像を取得する。ここで、縮小参照画像は、現在時刻より前の時刻における縮小カレント画像に対応する。例えば最も簡単な例として説明すると、現在時刻tに縮小カレント画像がフレームメモリ200に記録されると、現在時刻t+1には時刻tの縮小カレント画像が縮小参照画像になる。以上の例では、1時刻前の縮小カレント画像が縮小参照画像になると説明したが、1時刻以上前の縮小カレント画像が縮小参照画像となっても良い。この場合、過去に縮小された複数の縮小カレント画像の1つ以上が縮小参照画像として使われる場合もある。すなわち、現在時刻t+1,t+2,・・・,t+nのいずれにおいても、時刻tの縮小カレント画像が縮小参照画像として使われる場合もある。縮小画像の動きベクトルは等倍動きベクトル検出部140に入力される。
等倍動きベクトル検出部140は、等倍カレント画像、等倍参照画像及び縮小画像の動きベクトルに基づいて、等倍画像の動きベクトルを検出する。等倍参照画像がフレームメモリ200に記録されている場合、等倍動きベクトル検出部140はフレームメモリ200から等倍参照画像を取得する。ここで、等倍参照画像は、現在時刻より前の時刻における等倍カレント画像に対応する。例えば最も簡単な例として説明すると、時刻tに等倍カレント画像がフレームメモリ200に記録されると、時刻t+1にはその等倍カレント画像が等倍参照画像になる。この例でも、1時刻前の等倍カレント画像が等倍参照画像になると説明したが、1時刻以上前の等倍カレント画像が等倍参照画像となっても良い。この場合、過去の複数の等倍カレント画像の1つ以上が等倍参照画像として使われる場合もある。すなわち、現在時刻t+1,t+2,・・・,t+nのいずれにおいても、時刻tの等倍カレント画像が等倍参照画像として使われる場合もある。等倍画像の動きベクトルは、例えば動画符号化装置100が有する後段の不図示の動き補償部(MC部)に入力される。
制御部150は、動画符号化装置100の動作を制御する。より詳しくは、制御部150は、代表テクスチャ情報抽出部110、画像処理部120、縮小動きベクトル検出部130、等倍動きベクトル検出部140及び符号化処理部160の動作を制御する。制御部150は、例えばCentral Processing Unit(CPU:中央処理装置)によって実現される。
次に、図2を参照して、フレームメモリ200について説明する。
図2は、フレームメモリ200の概要を説明するための図である。
フレームメモリ200は、図2(a)に示すように、少なくとも1つの等倍参照画像20、縮小参照画像21及び代表テクスチャ情報22を記憶する。代表テクスチャ情報22は後述する代表テクスチャ領域と代表テクスチャ位置とを含んでいる。等倍参照画像20、縮小参照画像21及び代表テクスチャ情報22は時系列に記憶されている。例えば、図2(a)において、最も古い縮小参照画像21及び代表テクスチャ情報22は、最も古い等倍参照画像20と関連付いている。等倍参照画像20、縮小参照画像21及び代表テクスチャ情報22は時刻が経過する度にフレームメモリ200に蓄積されていく。詳細は後述するが、代表テクスチャ情報22は、その時刻における縮小参照画像21とパッキングなどによって関連付けられている。
ここで、図2(a)に示すように、現在時刻tに等倍カレント画像10がフレームメモリ200に記録された場合、その後、図2(b)に示すように、代表テクスチャ情報抽出部110によって抽出された代表テクスチャ情報12と画像処理部120によって生成された縮小カレント画像11がフレームメモリ200に記録される。そして、現在時刻t+1に時刻が経過すると、時刻tの等倍カレント画像10、縮小カレント画像11及び代表テクスチャ情報12はそれぞれ等倍参照画像20、縮小参照画像21及び代表テクスチャ情報22になる。現在時刻t+1には、等倍カレント画像10の次の等倍カレント画像がフレームメモリ200に記録される。
次に、図3を参照して、代表テクスチャ情報抽出部110の詳細について説明する。
図3は、代表テクスチャ情報抽出部110の回路構成を示すブロック図の一例である。代表テクスチャ情報抽出部110は、図3に示すように、等倍カレント画像メモリ111、特徴判定回路112、フラグメモリ113及び代表テクスチャ情報決定回路114を含んでいる。等倍カレント画像メモリ111及びフラグメモリ113は例えばStatic Random Access Memory(SRAM)によって実現される。
等倍カレント画像メモリ111は、入力された等倍カレント画像を記憶する。等倍カレント画像10は、例えば4×4画素で格子状に分割されて記憶される。このような分割により生じた各領域を以後テクスチャ領域と呼ぶ。したがって、等倍カレント画像10は複数のテクスチャ領域を有する。各テクスチャ領域には制御部150からアドレスが割り当てられる。例えば左上隅のテクスチャ領域から右下隅のテクスチャ領域にかけて水平方向に沿ってアドレス「0」,「1」,・・・,「254」,「255」が割り当てられる。
特徴判定回路112は、各テクスチャ領域の特徴を判定する。特徴判定回路112は、複数の縮小回路112A,・・・,112N及びフラグ付与回路112Wを含んでいる。
複数の縮小回路112A,・・・,112Nは、アドレス順に従って、等倍カレント画像メモリ111から同じ1つのテクスチャ領域をそれぞれ取得する。複数の縮小回路112A,・・・,112Nは、取得したテクスチャ領域を異なる位相で縮小する。テクスチャ領域が縮小された縮小テクスチャ領域はそれぞれフラグ付与回路112Wに入力される。尚、縮小のための間引き前にローパスフィルタを適用することが一般的である。
フラグ付与回路112Wは、入力された複数の縮小テクスチャ領域に基づいて、テクスチャ領域にフラグを付与する。より詳しくは、フラグ付与回路112Wは入力された複数の縮小テクスチャ領域の内、任意2位相の縮小テクスチャ領域の組み合わせのいずれか又は総当りでSum of Absolute Difference(SAD:差分絶対値和)を算出する。フラグ付与回路112Wは算出されたSADの最大値が所定の閾値以上であるか否かを判定する。フラグ付与回路112WはSADの最大値が閾値以上であると判定した場合、縮小テクスチャ領域の縮小元であるテクスチャ領域に対し特徴的なテクスチャ領域であることを示す特徴フラグ(例えば「1」)を付与する。すなわち、縮小の位相によっては特徴が大きく失われ、画像が変化すると判断される。一方、フラグ付与回路112WはSADの最大値が閾値未満であると判定した場合、縮小テクスチャ領域の縮小元であるテクスチャ領域に対し特徴的なテクスチャ領域でないことを示す非特徴フラグ(例えば「0」)を付与する。すなわち、縮小の位相に関わらず特徴がさほど失われず、画像はあまり変化しないと判断される。テクスチャ領域に付与された特徴フラグ又は非特徴フラグはフラグメモリ113に入力される。特徴フラグ又は非特徴フラグがフラグメモリ113に入力されると、特徴判定回路112は、次のアドレスのテクスチャ領域に対し同様の処理を実行する。
フラグメモリ113は、フラグ付与回路112Wから入力された特徴フラグ又は非特徴フラグを記憶する。フラグメモリ113内では、特徴フラグ又は非特徴フラグはアドレスに従って2次元に配置される。例えば、アドレス「15」の特徴フラグ(又は非特徴フラグ)が右上端に配置されると、アドレス「16」の特徴フラグ(又は非特徴フラグ)は2段目の左端に配置される。フラグメモリ113は1つのテクスチャ領域の特徴が判定されてフラグが付与される度に更新される。この結果、フラグメモリ113には2次元のフラグ列(16列のフラグ列)が記憶される。
代表テクスチャ情報決定回路114は、フラグメモリ113にフラグ列を要求し、フラグメモリ113に記憶されたフラグ列を取得する。代表テクスチャ情報決定回路114は取得したフラグ列を1次元に並び替え、1次元のフラグ列と等倍カレント画像に基づいて、代表テクスチャ情報を決定する。すなわち、代表テクスチャ領域と代表テクスチャ位置とが決定される。代表テクスチャ情報決定回路114は、決定した代表テクスチャ情報をフレームメモリ200に記録する。また、決定された代表テクスチャ位置は制御部150に入力される。
次に、図4を参照して、画像処理部120及び縮小動きベクトル検出部130の詳細について説明する。
図4は、画像処理部120及び縮小動きベクトル検出部130の回路構成を示すブロック図の一例である。まず、画像処理部120の回路構成について説明する。
画像処理部120は、等倍カレント画像メモリ121、代表テクスチャ位置メモリ122、代表テクスチャ領域メモリ123、縮小回路124、マスク生成回路125及び部分抽出回路126を含んでいる。等倍カレント画像メモリ121、代表テクスチャ位置メモリ122及び代表テクスチャ領域メモリ123は例えばSRAMによって実現される。
等倍カレント画像メモリ121は、フレームメモリ200から出力された等倍カレント画像を記憶する。等倍カレント画像には制御部150からアドレスが付与される。
代表テクスチャ位置メモリ122は、フレームメモリ200から出力された代表テクスチャ位置を記憶する。代表テクスチャ位置は制御部150に通知される。
代表テクスチャ領域メモリ123は、フレームメモリ200から出力された代表テクスチャ領域を記憶する。代表テクスチャ領域には制御部150からアドレスが付与される。
縮小回路124は、等倍カレント画像メモリ121に記憶された等倍カレント画像を取得して縮小する。等倍カレント画像が縮小された縮小カレント画像は、後述する縮小カレント画像メモリ132とフレームメモリ200に入力される。この結果、フレームメモリ200は縮小カレント画像11を記憶する。また、縮小カレント画像メモリ132に縮小カレント画像が記憶されることで、後述する縮小画像ブロックマッチング回路133がブロックマッチングの度にフレームメモリ200にアクセスして縮小カレント画像を取得することが回避される。尚、縮小カレント画像と対応する代表テクスチャ情報は、代表テクスチャ情報が抽出される際にパッキングされて連続するアドレスの固定長データとしてフレームメモリ200内に配置される(図2参照)。データ量が小さな代表テクスチャ情報が縮小カレント画像とパッキングされることによりある程度まとまった大きさのデータ量になる。この結果、フレームメモリ200にアクセスして空間的に散らばる代表テクスチャ情報に単独で取得する場合に比べて、アクセス効率が向上する。
マスク生成回路125は、代表テクスチャ位置メモリ122から制御部150を介して出力された代表テクスチャ位置に基づいて、マスク画像を生成する。尚、マスク画像の詳細については後述する。
部分抽出回路126は、等倍カレント画像メモリ121に記憶された等倍カレント画像を取得する。部分抽出回路126は、取得した等倍カレント画像と代表テクスチャ位置メモリ122から制御部150を介して出力された代表テクスチャ位置とに基づいて、等倍カレント画像から部分カレント画像を抽出する。部分カレント画像の詳細については後述する。
次に、縮小動きベクトル検出部130の回路構成について説明する。
縮小動きベクトル検出部130は、縮小参照画像メモリ131、縮小カレント画像メモリ132、縮小画像ブロックマッチング回路133、第1類似度メモリ134、代表テクスチャ位置ブロックマッチング回路135、第2類似度メモリ136及びコスト算出回路137を含んでいる。縮小参照画像メモリ131、縮小カレント画像メモリ132、第1類似度メモリ134及び第2類似度メモリ136は例えばSRAMによって実現される。
縮小参照画像メモリ131は、フレームメモリ200から出力された縮小参照画像を記憶する。縮小参照画像には制御部150からアドレスが付与される。
縮小カレント画像メモリ132は、縮小回路124から出力された縮小カレント画像を記憶する。
縮小画像ブロックマッチング回路133は、縮小参照画像メモリ131から縮小参照画像を取得する。縮小画像ブロックマッチング回路133は、縮小カレント画像メモリ132から縮小カレント画像を取得する。縮小画像ブロックマッチング回路133は、取得した縮小参照画像と縮小カレント画像とマスク生成回路125から出力されたマスク画像とに基づいて、ブロックマッチングを実行する。より詳しくは、縮小画像ブロックマッチング回路133は、マスク画像によって縮小参照画像と縮小カレント画像の双方にマスクをかけ、マスクがかけられた縮小参照画像と縮小カレント画像とをブロックマッチングする。ブロックマッチングによって得られた縮小参照画像と縮小カレント画像との第1類似度は第1類似度メモリ134に入力されて記憶される。
代表テクスチャ位置ブロックマッチング回路135は、代表テクスチャ領域メモリ123から出力された代表テクスチャ領域と部分抽出回路126から出力された部分カレント画像をブロックマッチングする。ブロックマッチングによって得られた代表テクスチャ領域と部分カレント画像との第2類似度は第2類似度メモリ136に入力されて記憶される。
コスト算出回路137は、第1類似度メモリから取得した第1類似度と第2類似度から取得した第2類似度と制御部150から取得したベクトル重みとを加算することにより、コストを算出する。コスト算出回路137は、最小のコストに対応する動きベクトルを縮小画像の動きベクトルとして出力する。
続いて、動画符号化装置100の動作について説明する。
まず、代表テクスチャ情報抽出部110の動作について説明する。
図5は、代表テクスチャ情報抽出部110の動作の一例を示すフローチャートである。図6は、特徴判定回路112で実行される処理の一例を説明するための図である。図7から図9は、代表テクスチャ情報決定回路114で実行される処理の一例を説明するための図である。
まず、図5に示すように、各縮小回路112A,・・・,112Nは等倍画像メメモリ111からテクスチャ領域を取得する(ステップS101)。例えば、図6に示すように、64×64画素の等倍カレント画像10を4×4画素で格子状に分割することにより生じた複数のテクスチャ領域15の1つ(例えばアドレス「0」のテクスチャ領域)が各縮小回路112A,・・・,112Nによって取得される。
次いで、各縮小回路112A,・・・,112Nは取得したテクスチャ領域15を複数の位相で縮小する(ステップS102)。この結果、図6に示すように、1つのテクスチャ領域15から縮小のサンプリング位相が異なる複数の縮小テクスチャ領域17が生成される。尚、図6では、一例として縦方向1/4、横方向1/4でテクスチャ領域15が縮小されている。複数の縮小テクスチャ領域17はフラグ付与回路112Wに入力される。
次いで、フラグ付与回路112Wは、SADの最大値に基づいて、テクスチャ領域15にフラグを付与する(ステップS103)。より詳しく説明すると、フラグ付与回路112Wは、図6に示すように、複数の縮小テクスチャ領域17から、任意2位相の縮小テクスチャ領域17のSADを総当りで算出する。この結果、複数のSADが算出される。フラグ付与回路112Wは、SADの最大値が所定の閾値以上であるか否かを判定し、SADの最大値が当該閾値以上であると判定した場合、テクスチャ領域15に対し特徴フラグ「1」を付与する。この結果、図7に示すように、例えばアドレス「0」のテクスチャ領域15に特徴フラグ「1」が付与される。
次いで、フラグ付与回路112Wは、フラグメモリ113のフラグ列を更新すする(ステップS104)。この結果、フラグメモリ113にはアドレス「0」のフラグとして特徴フラグ「1」が格納される。次いで、フラグ付与回路112Wは、テクスチャ領域15全てにフラグが付与されたか否かを判定する(ステップS105)。フラグ付与回路112Wは、テクスチャ領域15全てにフラグが付与されていないと判定した場合(ステップS105:NO)、ステップS101からS104の処理を繰り返す。この結果、図7に示すように、アドレス「1」からアドレス「255」までテクスチャ領域15に特徴フラグ「1」又は非特徴フラグ「0」が付与される。フラグメモリ113には、アドレス「0」からアドレス「255」のテクスチャ領域15にそれぞれ付与されたフラグ列「1」,「1」,「1」,「0」,・・・,「0」,「1」,「1」,「1」が2次元で記憶される。
代表テクスチャ情報決定回路114は、テクスチャ領域15全てにフラグが付与されたと判定された場合(ステップS105:YES)、フラグ列から孤立点を除去する(ステップS106)。より詳しくは、代表テクスチャ情報決定回路114は、フラグメモリ113に対しフラグ列を要求し、フラグメモリ113から16列のフラグ列を取得する。次いで、代表テクスチャ情報決定回路114は、すべてのテクスチャ領域15にフラグが付与された等倍カレント画像10に対し、スキャンを実行する。スキャンは、まず等倍カレント画像10の最上段左端から最上段右端に向かって実行される。右端のテクスチャ領域15のスキャンが完了すると、スキャンは次段の左端から右端に向かって実行される。このように、順に下段に向かってスキャンが実行され、等倍カレント画像10の最下段右端のスキャンが完了すると、スキャンを終了する。尚、図5に示すフローチャートでは孤立点を除去する処理が含まれているが、当該処理は必須ではなく当該処理を省略したフローチャートを採用してもよい。
スキャンが終了すると、図7に示すように、代表テクスチャ情報決定回路114はスキャン順に従って16列のフラグ列を1列のフラグ列に並び替える。これにより、1次元のフラグ列が完成される。さらに、図7に示すように、代表テクスチャ情報決定回路114はフラグ列の両端の少なくとも一方が特徴フラグ「1」である場合、特徴フラグ「1」を非特徴フラグ「0」に変更する。これは、後述する微分処理の際に例えば左端から特徴フラグ「1」が連続すると、特徴的なテクスチャ領域15であるにも関わらず、テクスチャ領域15の代表候補から外れてしまうことを防止するためである。
代表テクスチャ情報決定回路114はフラグ列の両端のフラグを非特徴フラグ「0」に変更すると、図8(a)に示すように、孤立する特徴フラグ「1」を除去する。例えば、両脇を非特徴フラグ「0」に挟まれた1つの特徴フラグ「1」が非特徴フラグ「0」に置換される。尚、除去対象が、両脇を非特徴フラグ「0」に挟まれた連続する特徴フラグ「1」として設定されてもよい。
次いで、代表テクスチャ情報決定回路114は代表テクスチャ領域を選別する(ステップS107)。具体的には、図8(a)に示すように、代表テクスチャ情報決定回路114はフラグ列に対し微分操作を実行し、特徴フラグ「1」が連続するテクスチャ領域15毎にテクスチャ領域15の位置のいずれか(例えば先頭)を抽出する。テクスチャ領域15の位置の先頭が抽出される場合、非特徴フラグ「0」が直前に配置された特徴フラグ「1」がテクスチャ領域15の代表候補として選別される。図8(a)では、3個のテクスチャ領域15が代表候補として選別されている。例えば、テクスチャ領域15の位置の先頭に代えてテクスチャ領域15の位置の中心やテクスチャ領域15の位置の最後が抽出されてもよい。
ここで、代表テクスチャ情報決定回路114は選別数が設定数を超過しているか否かを判定する(ステップS108)。例えば、第1実施形態において、設定数が2個に制限されている場合、代表候補として選別された3個のテクスチャ領域15では、選別数が設定数を超過していると判定される。尚、設定数が増加すると多くの代表テクスチャ領域が選別されることでデータ量が増加し、縮小画像を利用した動きベクトル検出の利点が薄まる。このため、設定数は適切に設定されることが望ましい。
代表テクスチャ情報決定回路114は選別数が設定数を超過していると判定した場合(ステップS108:YES)、フラグ列を拡張する(ステップS109)。例えば、特徴フラグ「1」が付与されたテクスチャ領域15を中心に少なくとも一方の方向に特徴フラグ「1」が拡張される。この結果、図8(b)に示すように、アドレス「3」、アドレス「248」、アドレス「251」及びアドレス「252」に付与された非特徴フラグ「0」が特徴フラグ「1」に変更される。そして、再び、ステップS107の処理が実行される。この結果、図8(b)では、2個のテクスチャ領域15が代表候補として選別される。しかしながら、2個目のテクスチャ領域15はフラグの拡張により特徴フラグ「1」に変更されたフラグであるため、図8(c)に示すように、拡張前の特徴フラグ「1」から変更されたフラグに最近傍のテクスチャ領域15が代表候補として選別される。これにより、選別数が設定数を超過していないと判定され(ステップS108:NO)、代表テクスチャ情報決定回路114は代表テクスチャ情報を抽出してフレームメモリ200に格納する(ステップS110)。具体的には、代表候補として選別された2個のテクスチャ領域15とそれぞれのアドレス「1」,「249」が、図9に示すように、代表テクスチャ領域15A,15Bと代表テクスチャ位置として抽出される。代表テクスチャ領域15A,15B及びこれらに対応する代表テクスチャ位置は、代表テクスチャ情報として代表テクスチャ領域15A,15Bの個数(2個)とともにフレームメモリ200に格納される。尚、上述した例では、右方向に拡張してテクスチャ領域15が0から1に変化する部分が特定されたが、左方向に拡張した場合には、テクスチャ領域15が1から0に変化する部分が特定される。また、ステップS108の1度目の処理において、例えば選別数が存在しない場合など選別数が設定数を超過していない場合には、後段のステップS110の処理で代表テクスチャ情報を抽出できないため、ステップS110の処理はスキップされる。
次に、図10から図14までを参照して、画像処理部120及び縮小動きベクトル検出部130の動作について説明する。
図10は、画像処理部120及び縮小動きベクトル検出部130の動作の一例を示すフローチャートである。図11は、縮小回路124で実行される処理の一例を説明するための図である。図12(a)は、縮小画像ブロックマッチング回路133に入力される各種画像を説明するための図である。図12(b)は、代表テクスチャ位置ブロックマッチング回路135に入力される各種画像を説明するための図である。図13は、ブロックマッチングを説明するための図である。図14は、コスト算出回路137で実行される処理の一例を説明するための図である。
まず、図10に示すように、縮小回路124は、等倍カレント画像を縮小する(ステップS201)。より詳しく説明すると、縮小回路124は等倍カレント画像メモリ121に記憶された等倍カレント画像を取得し、取得した等倍カレント画像を縮小する。例えば、図11に示すように、等倍カレント画像10は縦方向に1/4、横方向に1/4に縮小されて、16×16画素の縮小カレント画像11になる。
次いで、マスク生成回路125は、代表テクスチャ位置に基づいて、マスク画像を生成する(ステップS202)。マスク画像は代表テクスチャ位置に対応する縮小画像の領域にマスクをかける画像である。例えば、図12(a)において、縮小参照画像21に代表テクスチャ領域に対応する2個の領域21A,21Bが存在する場合、2個の領域21A,21Bは代表テクスチャ位置に基づくマスク画像31によってマスクされる。尚、代表テクスチャ位置は代表テクスチャ位置メモリ122に記憶されているため、制御部150が代表テクスチャ位置メモリ122から代表テクスチャ位置を取得して、マスク生成回路125に出力する。
次いで、部分抽出回路126は、等倍カレント画像から代表テクスチャ位置に対応する部分カレント画像を抽出する(ステップS203)。この結果、図12(b)に示すように、等倍参照画像の代表テクスチャ領域25A,25Bに対応する部分カレント画像17A,17Bが等倍カレント画像10から抽出される。代表テクスチャ領域25A,25Bと部分カレント画像17A,17Bの解像度は同じである。代表テクスチャ領域25A,25Bと部分カレント画像17A,17Bは、代表テクスチャ位置ブロックマッチング回路135に入力される。尚、ステップS202とS203の順序は逆でもよい。
次いで、縮小画像ブロックマッチング回路133は、縮小カレント画像11と縮小参照画像21とのブロックマッチングに基づいて、第1類似度を算出する(ステップS204)。ブロックマッチングの際には、縮小カレント画像11と縮小参照画像21のそれぞれの代表テクスチャ位置にはマスク生成回路125で生成されたマスク画像31によってマスクがかけられる。代表テクスチャ位置の領域については、代表テクスチャ位置ブロックマッチング回路135によって縮小カレント画像11及び縮小参照画像21の解像度より高い解像度でブロックマッチングされるためであり、マスク画31によって代表テクスチャ位置の領域が簡易に除外されている。
ブロックマッチングは、図13(a)に示すように、縮小参照画像21の大きさに対して例えば横方向に±2、縦方向に±2の大きさを有する探察範囲SRと縮小カレント画像11とを突き合わせることにより行われる。探索範囲SRは縮小参照画像21の周囲に存在する別の縮小参照画像を、縮小参照画像21を中心に互いに整合するように並べることにより形成された画像の一部である。このように形成された探察範囲SRと縮小カレント画像11とのブロックマッチングでは、まず、図13(a)に示すように、ベクトル位置(−2,−2)において、縮小カレント画像11と探索範囲SRの対応領域とのブロックマッチングが実行されて、第1類似度が算出される。ベクトル位置(−2,−2)の第1類似度は、第1類似度メモリ134に記憶される。例えば、図14に示すように、第1類似度テーブルの対応する位置に第1類似度が配置されて記憶される。
次いで、代表テクスチャ位置ブロックマッチング回路135は、代表テクスチャ領域と部分カレント画像とのブロックマッチングに基づいて、第2類似度を算出する(ステップS205)。ステップS204とS205の順序は逆でもよい。ブロックマッチングの処理は上述した処理と同様である。2つの代表テクスチャ領域25A,25Bと2つの部分カレント画像17A,17Bをブロックマッチングする場合、互いに対応する領域と画像とがブロックマッチングされる。すなわち、代表テクスチャ領域25Aと部分カレント画像17Aとがブロックマッチングされて第2類似度が算出される。代表テクスチャ領域25Bと部分カレント画像17Bとがブロックマッチングされて別の第2類似度が算出される。算出された第2類似度と別の第2類似度の大きい方又は両者の総和が最終的な第2類似度と決定される。ベクトル位置(−2,−2)の第2類似度は、第2類似度メモリ136に記憶される。例えば、図14に示すように、第2類似度テーブルの対応する位置に第2類似度が配置されて記憶される。尚、代表テクスチャ領域と部分カレント画像のそれぞれの数が2つ以上である場合、代表テクスチャ領域と部分カレント画像のそれぞれがブロックマッチングされて算出された第2類似度のうち最大の第2類似度又は算出された第2類似度の総和が最終的な第2類似度と決定される。一方、代表テクスチャ領域と部分カレント画像のそれぞれの数が1つである場合、代表テクスチャ領域と部分カレント画像がブロックマッチングされて算出された第2類似度が最終的な第2類似度と決定される。
次いで、コスト算出回路137は、第1類似度と第2類似度とベクトル重みとに基づいてコストを算出する(ステップS206)。コストは第1類似度と第2類似度とベクトル重みとの和である。ベクトル重みは、図14に示すように、探索範囲SRの原点(0,0)の重みが「0」とし、そこから遠ざかるにつれて同心円状に値が大きくなる重みである。このため、ベクトル位置(−2,−2)で算出された第1類似度と第2類似度の和に対し対応するベクトル位置のベクトル重みが加算されてコストが算出される。尚、第1類似度と第2類似度は互いに異なる解像度の画像から類似度が算出されているため、例えば第2類似度の値を1/16にするなど面積換算をしてから両者が足し合わされてもよい。また、第1類似度より第2類似度の比重を重くしてから両者が足し合わされてもよい。コスト算出回路137は、算出したベクトル位置(−2,−2)のコストを保持する(ステップS207)。
ここで、制御部150は全探索範囲でブロックマッチングが完了したか否かを判定する(ステップS208)。上述したように、ベクトル位置(−2,−2)に対するコストが算出され、残りのベクトル位置に対するコストが算出されていない場合(ステップS208:NO)、ステップS202からステップS207の処理を繰り返す。
具体的には、図13(b)に示すように、縮小カレント画像11が1画素分横方向にずれ、再度、縮小カレント画像11と探索範囲SRの対応領域とのブロックマッチングが実行される。この結果、ベクトル位置(−1,−2)の第1類似度が算出される。同様の処理により、ベクトル位置(−1,−2)の第2類似度が算出される。算出された第1類似度と第2類似度とベクトル位置(−1,−2)のベクトル重みを足し合わせることによって、ベクトル位置(−1,−2)のコストが算出される。コスト算出回路137は、ベクトル位置(−1,−2)のコストと保持しているベクトル位置(−2,−2)のコストとを比べ、低い方のコストを保持する。
このように、コストが算出される度に、縮小カレント画像11が1画素分横方向にずれてそのベクトル位置のコストが算出される。ベクトル位置(+2,−2)のコストが算出されると、ベクトル位置(−2,−1)のコストが算出される。このような処理を繰り返すことで、最終的に、図13(c)に示すように、ベクトル位置(+2,+2)までのコストが算出される。コスト算出回路137は自身が保持するコストと直前に算出したコストを比べて、低い方のコストを新たに保持する。このため、最終的に最小のコストが保持される。そして、制御部150が全探索範囲でブロックマッチングが完了したと判断した場合(ステップS208:YES)、コスト算出回路137は、最小のコストに対応する縮小画像の動きベクトルを出力する(ステップS209)。例えば、図14に示すように、最小のコストに対応する縮小画像の動きベクトル(−1,0)が出力される。尚、探索範囲SRを水平にずらした複数のベクトル位置については並列演算によってコストが算出されてもよい。
このように、第1実施形態によれば、縮小画像を利用して階層的に動きベクトルを検出する動画符号化装置100において、等倍カレント画像から等倍カレント画像を縮小することにより失われる成分を特徴的に含む代表テクスチャ領域とその位置である代表テクスチャ位置を抽出している。そして、代表テクスチャ領域と次の等倍カレント画像の代表テクスチャ位置に応じた部分カレント画像との類似度によって縮小画像の動きベクトルを重み付けして検出することで、縮小画像の動きベクトルの検出精度が高められている。
(第2実施形態)
続いて、図15を参照して、第2実施形態について説明する。
図15は、代表テクスチャ情報抽出部110の別の回路構成を示すブロック図の一例である。尚、図3に示される代表テクスチャ情報抽出部110の各ブロックと同様の構成には同一符号を付し、その説明を省略する。
図15に示すように、第2実施形態の代表テクスチャ情報抽出部110では、第1実施形態で説明した特徴判定回路112に代えて、特徴判定回路116が含まれている。特徴判定回路116は、アダマール変換回路116A、重み付け判定回路116B及び重みテーブル116Cを含んでいる。
アダマール変換回路116Aは、入力されたテクスチャ領域をアダマール変換する。この結果、空間領域としてのテクスチャ領域がアダマール変換によって周波数領域に変換されて出力される。周波数領域は4行4列のマトリクスによって構成されている。マトリクスの各構成要素には周波数成分が含まれている。尚、アダマール変換回路116Aに代えて、例えばDiscrete Cosine Transform(DCT:離散コサイン変換)回路やKarhunen-Loeve Transform(KL変換:カルーネンレーベ変換)回路といった直交変換回路が利用されてもよい。
重み付け判定回路116Bは、アダマール変換回路116Aから出力された周波数領域に対し重みテーブル116Cを利用して重み付けを実行する。具体的には、重みテーブル116Cを利用して低周波成分(例えば直流成分)には重み付けとして値「0」が設定される。この結果、高周波成分が抽出される。抽出された高周波成分には正負双方の符号が存在する場合があるため、絶対値をとって符号を正に統一する。その後、すべての高周波成分を足し合わせ、足し合わせた結果が閾値以上であると判定された場合、変換元のテクスチャ領域に対し特徴フラグ「1」が付与される。一方、足し合わせた結果が閾値未満であると判定された場合、変換元のテクスチャ領域に対し非特徴フラグ「0」が付与される。
また上述した処理に限らず、例えば低周波成分に重み付けとして値「0」が設定された時点で各周波数成分が閾値とそれぞれ対比されてもよい。この場合、当該閾値以上となった周波数成分の数が計数され、計数結果が別の閾値以上であると判定された場合、変換元のテクスチャ領域に対し特徴フラグが付与される。一方、計数結果が閾値未満であると判定された場合、変換元のテクスチャ領域に対し非特徴フラグが付与される。このような処理によってもテクスチャ領域の特徴を判定でき、縮小画像の動きベクトルの検出精度が高められる。
さらに、以上説明した直交変換回路に代えてエッジ検出回路(例えば微分フィルタやソーベルフィルタ)が利用されてもよい。エッジ検出回路が利用される場合、エッジ検出回路から出力されたエッジ強度の中で、所定の閾値を超えるエッジ強度の数が計数され、計数結果が別の閾値以上であると判定された場合、変換元のテクスチャ領域に対し特徴フラグが付与される。一方、計数結果が閾値未満であると判定された場合、変換元のテクスチャ領域に対し非特徴フラグが付与される。このような処理によってもテクスチャ領域の特徴を判定でき、縮小画像の動きベクトルの検出精度が高められる。
(第3実施形態)
続いて、図16を参照して、第3実施形態について説明する。
図16は、等倍カレント画像10に対するスキャンの別の例である。等倍カレント画像10に対するスキャンは、図7に示すようなラスタースキャンに限定されない。
例えば図16(a)に示すように、等倍カレント画像10の最上段左端から最上段右端に向かってスキャンした後、2段目については、右端から左端に向かってスキャンしてもよい。3段目以降は左端から右端へのスキャンと右端から左端へのスキャンが交互に繰り返される。このスキャン順に従ってフラグ列が1列に並び替えられてもよい。
また、上述したように等倍カレント画像10が網羅されるスキャンに限らず、例えば図16(b)に示すように、テクスチャ領域15を1個飛ばしながら左端から右端へのスキャンと右端から左端へのスキャンが交互に繰り返されてもよい。例えば図16(c)に示すように、テクスチャ領域15を3個飛ばしながら左端から右端へのスキャンが繰り返されてもよい。この場合、スキャンが飛ばされたフラグを除いたフラグ列が完成される。さらに、以上説明したスキャンに限定されず、例えば図16(d)に示すように、ヒルベルト曲線順に等倍カレント画像10がスキャンされてもよい。これらのスキャン順に従ってフラグ列が1列に並び替えられてもよい。以上説明したスキャン手法によっても、縮小画像の動きベクトルの検出精度が高められる。
(第4実施形態)
続いて、図17を参照して、第4実施形態について説明する。
図17は、代表テクスチャ情報を決定する処理の一例を説明するための別の図である。
代表テクスチャ情報を決定する処理は、図8に示すような処理に限定されない。第4実施形態では、代表テクスチャ領域を4個に制限して決定する場合について説明する。
例えば、図8を参照して説明した両端が「0」に変更されたフラグ列に対し、図17(a)に示すように、微分操作が実行されてテクスチャ領域15の代表候補が選別される。図17(a)では、5個のテクスチャ領域が代表候補として選別される。テクスチャ領域の個数は、設定された4個を超えているため、代表テクスチャ領域が決定されない。この場合、アドレスが最小の代表候補を含む少なくとも1つの特徴フラグ「1」の内、直後に非特徴フラグ「0」が配置された特徴フラグ「1」を右方向に拡張する。したがって、図17(b)に示すように、アドレス「3」の非特徴フラグ「0」が特徴フラグ「1」に変更される。変更後、微分操作が実行される。この結果、図17(b)に示すように、依然として5個のテクスチャ領域が代表候補として選別されており、設定された4個を超える。
同様に、アドレスが次に最小の代表候補を含む少なくとも1つの特徴フラグ「1」の内、直後に非特徴フラグ「0」が配置された特徴フラグ「1」を右方向に拡張する。したがって、図17(c)に示すように、アドレス「8」の非特徴フラグ「0」が特徴フラグ「1」に変更される。変更後、微分操作が実行される。この結果、図17(c)に示すように、依然として5個のテクスチャ領域が代表候補として選別されており、設定された4個を超える。
以上説明した処理を繰り返すことにより、図17(d)に示すように、アドレス「248」の非特徴フラグ「0」が特徴フラグ「1」に変更されて、微分操作が実行されると、4個のテクスチャ領域が代表候補として選別される。このため、図17(f)に示すように、代表候補として選別された4個のテクスチャ領域が代表テクスチャ領域と決定される。尚、設定数以下のテクスチャ領域が代表候補として選別された後も継続して拡張処理及び微分操作が実行されてもよい。この場合、拡張処理不能と判定されるまで代表候補が選別され、その後、代表テクスチャ領域が決定される。例えば、図17(e)に示すように、アドレス「251」の非特徴フラグ「0」は特徴フラグ「1」に変更可能であるが、アドレス「255」の非特徴フラグ「0」はフラグ列の両端を変更する処理によって付与されたフラグであるため、変更不能であると判断される。以上説明した代表テクスチャ情報の決定処理によっても、縮小画像の動きベクトルの検出精度が高められる。
(第5実施形態)
続いて、図18を参照して、第5実施形態について説明する。
図18は、情報処理装置300のハードウェア構成の一例である。上述した各種の動作は、情報処理装置300によって実現されてもよい。情報処理装置300としては、例えばPersonal Computer(PC)がある。
情報処理装置300は、少なくともCPU301、RAM302、Read Only Memory(ROM)303及び通信I/F(インタフェース)304を含んでいる。情報処理装置300は、必要に応じて、Hard Disc Drive(HDD)305、入力I/F306、出力I/F307、入出力I/F308、ドライブ装置309の少なくとも1つを含んでいてもよい。これらの各機器301〜309は、内部バス310によって互いに接続されている。少なくともCPU301とRAM302とが協働することによってコンピュータが実現される。情報処理装置300に画像処理を担当するGraphics Processing Unit(GPU)が含まれていてもよい。
入力I/F306には、入力装置410が接続される。入力装置410としては、例えばキーボードやマウスなどがある。
出力I/F307には、表示装置420が接続される。表示装置420としては、例えば液晶ディスプレイがある。
入出力I/F308には、半導体メモリ430が接続される。半導体メモリ430としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F308は、半導体メモリ430に記憶されたプログラムやデータを読み取る。
入力I/F306及び入出力I/F308は、例えばUSBポートを備えている。出力I/F307は、例えばディスプレイポートを備えている。
ドライブ装置309には、可搬型記録媒体440が挿入される。可搬型記録媒体440としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置309は、可搬型記録媒体440に記録されたプログラムやデータを読み込む。
通信I/F304は、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。情報処理装置300は、通信I/F304を介してネットワークNWと接続される。
上述したRAM302は、ROM303やHDD305に記憶されたプログラムを読み込む。RAM302は、可搬型記録媒体440に記録されたプログラムを読み込む。読み込まれたプログラムをCPU301が実行することにより、上述した各種の動作が実行される。尚、プログラムは上述したフローチャートに応じたものとすればよい。以上説明した情報処理装置300によっても、縮小画像の動きベクトルの検出精度が高められる。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、2つの回路を1つの回路で実現してもよいし、1つの回路を2つ以上の回路に分散してもよい。また、上述した各実施形態では、説明の都合上一例として横方向に±2、縦方向に±2の大きさを有する探索範囲SRを説明したが、縮小画像の所望の動きベクトルを検出するためには、横方向に±256〜±32、縦方向に±256〜±32の探索範囲SRであることが望ましい。さらに、上述した各実施形態では、類似度を算出する際にSADが利用されたがSum of Absolute Transformed Difference(SATD:変換差分絶対値和)が利用されてもよい。さらに、以上説明した技術は、H.265/HEVCより前に規格化された方式に利用されてもよい。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化装置であって、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出手段と、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出手段と、を有する動画符号化装置。
(付記2)前記抽出手段は、縮小の位相をずらすことにより前記領域が縮小された複数の縮小領域同士の差分に基づいて、前記領域を抽出することを特徴とする付記1に記載の動画符号化装置。
(付記3)前記抽出手段は、前記入力画像を直交変換し、高周波成分に相当する係数に基づいて、前記領域を抽出することを特徴とする付記1に記載の動画符号化装置。
(付記4)前記抽出手段は、前記領域が連続する場合、前記領域を少なくとも一方に拡張して微分することにより、連続する前記領域毎に前記位置の先頭を抽出することを特徴とする付記1から3のいずれか1項に記載の動画符号化装置。
(付記5)前記抽出手段は、前記領域と前記位置とを前記領域及び前記位置と対応する等倍画像と関連付けて記録することを特徴とする付記1から4のいずれか1項に記載の動画符号化装置。
(付記6)前記検出手段は、前記位置にそれぞれマスクが付された前記縮小画像と前記次の入力画像を縮小した縮小画像とを対比して、前記縮小画像を利用した動きベクトルの探索を行うことを特徴とする付記1から5のいずれか1項に記載の動画符号化装置。
(付記7)入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化方法であって、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、を有する動画符号化方法。
(付記8)前記抽出ステップは、縮小の位相をずらすことにより前記領域が縮小された複数の縮小領域同士の差分に基づいて、前記領域を抽出することを特徴とする付記7に記載の動画符号化方法。
(付記9)前記抽出ステップは、前記入力画像を直交変換し、高周波成分に相当する係数に基づいて、前記領域を抽出することを特徴とする付記7に記載の動画符号化方法。
(付記10)前記抽出ステップは、前記領域が連続する場合、前記領域を少なくとも一方に拡張して微分することにより、連続する前記領域毎に前記位置の先頭を抽出することを特徴とする付記7から9のいずれか1項に記載の動画符号化方法。
(付記11)前記抽出ステップは、前記領域と前記位置とを前記領域及び前記位置と対応する等倍画像と関連付けて記録することを特徴とする付記7から10のいずれか1項に記載の動画符号化方法。
(付記12)前記検出ステップは、前記位置にそれぞれマスクが付された前記縮小画像と前記次の入力画像を縮小した縮小画像とを対比して、前記縮小画像を利用した動きベクトルの探索を行うことを特徴とする付記7から11のいずれか1項に記載の動画符号化方法。
(付記13)入力画像を縮小した縮小画像を利用して動きベクトルを階層的にコンピュータに検出させる動画符号化プログラムであって、前記コンピュータに、前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、を実行させるための動画符号化プログラム。
(付記14)前記抽出ステップは、縮小の位相をずらすことにより前記領域が縮小された複数の縮小領域同士の差分に基づいて、前記領域を抽出することを特徴とする付記13に記載の動画符号化プログラム。
(付記15)前記抽出ステップは、前記入力画像を直交変換し、高周波成分に相当する係数に基づいて、前記領域を抽出することを特徴とする付記13に記載の動画符号化プログラム。
(付記16)前記抽出ステップは、前記領域が連続する場合、前記領域を少なくとも一方に拡張して微分することにより、連続する前記領域毎に前記位置の先頭を抽出することを特徴とする付記13から15のいずれか1項に記載の動画符号化プログラム。
(付記17)前記抽出ステップは、前記領域と前記位置とを前記領域及び前記位置と対応する等倍画像と関連付けて記録することを特徴とする付記13から16のいずれか1項に記載の動画符号化プログラム。
(付記18)前記検出ステップは、前記位置にそれぞれマスクが付された前記縮小画像と前記次の入力画像を縮小した縮小画像とを対比して、前記縮小画像を利用した動きベクトルの探索を行うことを特徴とする付記13から17のいずれか1項に記載の動画符号化プログラム。
100 動画符号化装置
110 代表テクスチャ情報抽出部(抽出手段)
120 画像処理部
130 縮小動きベクトル検出部(検出手段)
140 等倍動きベクトル検出部
150 制御部
160 符号化処理部
200 フレームメモリ
300 情報処理装置

Claims (8)

  1. 入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化装置であって、
    前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出手段と、
    前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出手段と、
    を有する動画符号化装置。
  2. 前記抽出手段は、縮小の位相をずらすことにより前記領域が縮小された複数の縮小領域同士の差分に基づいて、前記領域を抽出することを特徴とする請求項1に記載の動画符号化装置。
  3. 前記抽出手段は、前記入力画像を直交変換し、高周波成分に相当する係数に基づいて、前記領域を抽出することを特徴とする請求項1に記載の動画符号化装置。
  4. 前記抽出手段は、前記領域が連続する場合、前記領域を少なくとも一方に拡張して微分することにより、連続する前記領域毎に前記位置の先頭を抽出することを特徴とする請求項1から3のいずれか1項に記載の動画符号化装置。
  5. 前記抽出手段は、前記領域と前記位置とを前記領域及び前記位置と対応する等倍画像と関連付けて記録することを特徴とする請求項1から4のいずれか1項に記載の動画符号化装置。
  6. 前記検出手段は、前記位置にそれぞれマスクが付された前記縮小画像と前記次の入力画像を縮小した縮小画像とを対比して、前記縮小画像を利用した動きベクトルの探索を行うことを特徴とする請求項1から5のいずれか1項に記載の動画符号化装置。
  7. 入力画像を縮小した縮小画像を利用して動きベクトルを階層的に検出する動画符号化方法であって、
    前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、
    前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、
    を有する動画符号化方法。
  8. 入力画像を縮小した縮小画像を利用して動きベクトルを階層的にコンピュータに検出させる動画符号化プログラムであって、
    前記コンピュータに、
    前記入力画像から前記入力画像を縮小することにより失われる成分を特徴的に含む領域と前記領域の位置とを抽出し、抽出した領域に対応する縮小することにより失われる成分を含む情報を前記位置と前記領域に対応付けて記録する抽出ステップと、
    前記縮小画像を利用した動きベクトル探索時に、前記抽出した領域の探索時は記録した前記縮小することにより失われる成分を含む情報を利用して動きベクトルの探索を行う検出ステップと、
    を実行させるための動画符号化プログラム。
JP2014028780A 2014-02-18 2014-02-18 動画符号化装置、動画符号化方法及び動画符号化プログラム Ceased JP2015154415A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014028780A JP2015154415A (ja) 2014-02-18 2014-02-18 動画符号化装置、動画符号化方法及び動画符号化プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014028780A JP2015154415A (ja) 2014-02-18 2014-02-18 動画符号化装置、動画符号化方法及び動画符号化プログラム

Publications (1)

Publication Number Publication Date
JP2015154415A true JP2015154415A (ja) 2015-08-24

Family

ID=53896214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014028780A Ceased JP2015154415A (ja) 2014-02-18 2014-02-18 動画符号化装置、動画符号化方法及び動画符号化プログラム

Country Status (1)

Country Link
JP (1) JP2015154415A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024016B2 (en) 2019-04-05 2021-06-01 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141280A (ja) * 1992-10-23 1994-05-20 Sony Corp ディジタル画像信号のエラー修整装置
JP2000175202A (ja) * 1998-12-09 2000-06-23 Victor Co Of Japan Ltd 動きベクトル検出装置
JP2010288110A (ja) * 2009-06-12 2010-12-24 Sony Corp 画像処理装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141280A (ja) * 1992-10-23 1994-05-20 Sony Corp ディジタル画像信号のエラー修整装置
JP2000175202A (ja) * 1998-12-09 2000-06-23 Victor Co Of Japan Ltd 動きベクトル検出装置
JP2010288110A (ja) * 2009-06-12 2010-12-24 Sony Corp 画像処理装置および画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024016B2 (en) 2019-04-05 2021-06-01 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method thereof

Similar Documents

Publication Publication Date Title
JP4166781B2 (ja) 動きベクトル検出装置および動きベクトル検出方法
US8908025B2 (en) Image processing apparatus and image processing method
CN115243050B (zh) 用于运动向量修正的受限存储器访问窗口
US9167260B2 (en) Apparatus and method for video processing
JP5727873B2 (ja) 動きベクトル検出装置、符号化装置、及びこれらのプログラム
JP2009147807A (ja) 画像処理装置
JP4897323B2 (ja) 改良式ダイアモンドサーチ動き推定方法
JP2009027744A (ja) ビデオ符号化における中間画素高精度高速探索を実現する装置及び方法
US9020273B2 (en) Image processing method, image processor, integrated circuit, and program
JP2008061133A (ja) 画像符号化装置及び画像符号化方法
JP5141633B2 (ja) 画像処理方法及びそれを用いた画像情報符号化装置
WO2018230294A1 (ja) 動画像処理装置、表示装置、動画像処理方法、および制御プログラム
JP2011172101A (ja) 画像符号化方法、画像符号化装置及び撮像システム
JP2007129370A (ja) 動きベクトル検出装置及び方法
JP5938935B2 (ja) 動画像符号化装置及び動画像符号化方法
CN106954065B (zh) 基于梯度方向直方图的递归预测图像压缩方法
JP2007228093A (ja) 動き検出装置及び動き検出方法
JP2015154415A (ja) 動画符号化装置、動画符号化方法及び動画符号化プログラム
JP2007158855A (ja) 動きベクトル検出装置および動きベクトル検出方法
JP2012129791A (ja) 画像符号化装置
JP5906993B2 (ja) 符号化装置、符号化方法、及びプログラム
RU2408160C1 (ru) Способ нахождения векторов движения деталей в динамических изображениях и устройство для его реализации
JP2014140089A (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
CN107172425B (zh) 缩略图生成方法、装置及终端设备
JP2009267726A (ja) 動画像符号化装置、録画装置、動画像符号化方法、動画像符号化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20180925