JP2014200078A - 動画像符号化装置及びその制御方法 - Google Patents

動画像符号化装置及びその制御方法 Download PDF

Info

Publication number
JP2014200078A
JP2014200078A JP2014043157A JP2014043157A JP2014200078A JP 2014200078 A JP2014200078 A JP 2014200078A JP 2014043157 A JP2014043157 A JP 2014043157A JP 2014043157 A JP2014043157 A JP 2014043157A JP 2014200078 A JP2014200078 A JP 2014200078A
Authority
JP
Japan
Prior art keywords
encoding
component
image
provisional
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014043157A
Other languages
English (en)
Other versions
JP6313614B2 (ja
Inventor
大輔 坂本
Daisuke Sakamoto
大輔 坂本
小林 幸史
Yukifumi Kobayashi
幸史 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014043157A priority Critical patent/JP6313614B2/ja
Publication of JP2014200078A publication Critical patent/JP2014200078A/ja
Application granted granted Critical
Publication of JP6313614B2 publication Critical patent/JP6313614B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

【課題】4:4:4フォーマットに対応した符号化を行う場合であっても、演算負荷の増大を招かず、且つ、或る程度の画質を維持して動画像記録を行うことを可能ならしめる技術を提供する。
【解決手段】符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる複数の探索範囲に従って動きベクトルを求めて仮符号化を行う。そして、各探索範囲について最も誤差の小さいベクトルとなった探索範囲を、仮符号化処理に後続して実行される本符号化処理における各色成分の動きベクトルの探索範囲として決定する。
【選択図】図1

Description

本発明は動画像の符号化技術に関するものである。
現在、デジタルビデオカメラやハードディスクレコーダーなど、動画像を記録できるデジタル機器が普及している。これらのデジタル機器では情報量の多い動画像を容量の制限されたフラッシュメモリやハードディスクといった記録メディアに効率的に記録するため、動画像データの圧縮符号化を行っている。
動画像圧縮符号化方式にはさまざまな方式が提案され、標準化されている。代表的な動画像圧縮符号化方式として、MPEG-2符号化方式やH.264符号化方式が挙げられる。MPEG-2符号化方式はDVD(Digital Versatile Disc)などに用いられている符号化方式である。H.264符号化方式はビデオカメラのハイビジョン記録方式であるAVCHDや、地上デジタル放送のワンセグ放送に採用されている。どちらも一般に広く普及している動画像圧縮符号化方式である。
このような符号化方式では、入力信号として主にYCbCr信号が用いられている。YCbCr信号は、RGB信号から輝度信号Yと2つの色差信号Cb、Crに色空間変換して得られた信号である。
色差信号Cb、Crは輝度信号Yより視認性が低いため、解像度を落としても視覚的な影響が少ないという特徴がある。そのため色差信号をダウンサンプルさせることにより、情報量を抑えることが可能である。これらの情報量を抑えたフォーマットとしては、水平方向の色差信号の画素数を半減させたYCbCr 4:2:2フォーマットや、水平方向、垂直方向ともに画素数を半減させたYCbCr 4:2:0フォーマットなどがある。
画像符号化装置においては、これらのYCbCr 4:2:2フォーマットや、YCbCr 4:2:0フォーマットを用いることで、符号量を抑えたり、符号化時の様々な処理量を削減できるといったメリットが挙げられる。
一方、近年のディスプレイやビデオカメラの高解像度化、高諧調化に伴い、RGB信号を直接符号化し、より高品質な符号化画像を提供する符号化方式も規格化されている。RGB信号はRGBの各プレーンで全て同一の画素数を有しており、RGB 4:4:4フォーマットとも呼ばれている。RGB 4:4:4フォーマットを符号化する符号化装置として、特許文献1、特許文献2のような技術が挙げられる。
ところで、従来のMPEG方式における動画像記録において、画像の符号化に先立って入力された画像を用いて仮に符号化を行う(これ以降、この部分の符号化動作を仮符号化と呼ぶ)。そして、その仮符号化時の発生符号量等の結果を用いて、後続する記録対象のストリームの符号量制御を適切に制御するという技術が提案されている。例えば、特許文献3である。このような仮符号化の採用によって、符号化後の画像の画質向上が図られている。
特開2008-172599号公報 特開2010-110006号公報 特開2008-124937号公報
4:4:4フォーマットに対応した符号化方式の符号化処理においては、符号化シーケンスに係る各処理を各プレーンごとに処理する。そのため、処理量が膨大になってしまい、動画像の所定期間(例えば、垂直同期期間)内に、フレームの処理が終わらないような可能性が生じる。そこで、演算処理を軽減しつつ画質の維持又は向上を保つことが重要となっているが、係る要望に応える技術が未だ確率していないのが現状である。
本発明は係る問題点に鑑みなされたものである。そして、本明細書は、4:4:4フォーマットに対応した符号化を行う場合であっても、演算負荷の増大を招かず、且つ、或る程度の画質を維持して動画像記録を行うことを可能ならしめる技術を提供する。
この課題を解決するため、例えば本明細書における動画像符号化装置は以下の構成を備える。すなわち、
動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置であって、
符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる複数の探索範囲に従って動きベクトルを求めて仮符号化を行う仮符号化手段と、
該仮符号化手段による各探索範囲について最も誤差の小さいベクトルとなった探索範囲を、前記仮符号化手段に後続して実行される本符号化処理における各色成分の動きベクトルの探索範囲として決定する決定手段とを有する。
本発明によれば、RGB:4:4:4フォーマットに対応した符号化を行う場合でっても、演算負荷の増大を招かず、且つ、或る程度の画質を維持して動画像記録を行うことが可能になる。
第1の実施形態に係る動画像符号化装置の構成例を示すブロック図。 動き探索装置の構成の一例を示すブロック図。 動き探索装置の構成のもう一つの例を示すブロック図。 第1の実施形態におけるフレームメモリの領域分割の例を示す図。 実施形態に係る動画像符号化装置の動作タイミング図。 実施形態に係る動画像符号化装置の構成例を示すブロック図。 第2の実施形態におけるフレームメモリの領域分割の例を示す図。 第3の実施形態に係る動画像符号化装置の構成例を示すブロック図。 第1の実施形態に係る動画像符号化装置の動き探索方式決定方法の動作を説明するフローチャ−ト。 第4の実施形態の動画像符号化装置のブロック図。 第4の実施形態における符号化回路のブロック図。 第4の実施形態における符号化制御部のブロック図。 第4の実施形態における符号化処理タイミングを示す図。 第5の実施形態の動画像符号化装置のブロック図。 第5の実施形態における処理手順を示すフローチャート。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。以下に説明する各実施形態では、ビデオカメラに搭載された画像符号化装置について説明することとするが、搭載する対象装置はビデオデッキ等でも良く、その種類は問わない。
[第1の実施形態]
図1は、本実施形態に係る動画像符号化装置の構成例を示すブロック図である。
実施形態の装置は、フレームメモリ101、動き探索部102、イントラ予測部103、イントラ・インター判定部104、予測画像生成部105、減算器106、直交変換部107、量子化部108、エントロピー符号化部109を有する。更に、この装置は、逆量子化部110、逆直交変換部111、加算器112、ループ内フィルタ113、フレーム差分絶対値和演算部114、探索方式決定部115を備えている。
動き補償で用いられる動きベクトルを決定する動き探索では一般にブロックマッチング方式が用いられる。動き探索部102で行われる、ブロックマッチング処理について図2を用いて説明する。
図2は動き探索部102内のブロックマッチング方式を用いた動き探索処理部102aを示すブロック図である。同図において、動き探索処理部102aは、現在マクロブロック保存バッファ21、サーチウィンドウ保存バッファ22、動きベクトル探索部23から成っている。現在マクロブロック保存バッファ21はフレームメモリ101から読出した、現在の符号化しようとしているマクロブロックの画像を格納する。マクロブロックとは、複数の画素から成る符号化対象の画素ブロックを意味する。サーチウィンドウ保存バッファ22は現在のマクロブロックの中心に探索領域の中心を設定し探索領域の範囲(以下、サーチウィンドウと呼ぶ)分だけの画像をフレームメモリ101から読み出し、格納する。動きベクトル探索部23は、サーチウィンドウ内で探索を行い、現在のマクロブロックに近似するマクロブロックを探し、その近似するマクロブロックの位置を特定する情報を、最終的な動きベクトルとして決定する。なお、動きベクトルを決定するためには次のようなMSE(Mean Square Error)、MAE(Mean Absolute Error)、あるいはMAD(Mean Absolute Difference)などの評価関数が用いられる。
Figure 2014200078
ここで、Srefは参照フレーム画像内の参照ブロック、Scur,kは現在のフレーム画像内のk番目のマクロブロックを示す。また、(x,y) は16×16画素サイズのマクロブロックにおける画素の座標である。(i,j)は現在フレームのk番目のマクロブロックに対する参照フレーム/フィールドの空間的な位置をそれぞれ示している。また、X,Yをサーチウィンドウの水平および、垂直の画素数とすると、(i,j)は−X≦i≦X、−Y≦j≦Yの範囲を取る。この評価関数は画素の誤差に基づいたものであり、最も小さいMAE値やMSE値を有する(i,j)を現在マクロブロックにおける最終的な動きベクトルとして決定する(以下、この方式を原点探索方式、この方式の探索装置を原点探索装置と呼ぶ)。
また、図3は動き探索部102内のブロックマッチング方式を用いた動き探索処理部102bのブロック図である。同図において、参照符号31乃至33は、図2の参照符号21乃至22と同様である。ただし、動きベクトル探索部33で決定された動きベクトルを保存する動きベクトル保存部34を有する。そして、現在マクロブロック保存バッファ31には、動きベクトル保存部34に保存された一つ前のマクロブロックの動きベクトルで示される位置を中心とする探索範囲の画像が格納される。従って、動きベクトル探索部33は、現在符号化しようとするマクロブロックに近似するマクロブロックを、直前のマクロブロックに対するベクトルにサーチした位置を中心とする探索範囲からサーチすることになる。以下、この方式を周辺MBベクトル探索方式、装置を周辺MBベクトル探索装置と呼ぶ。
これまで説明してきた動き探索方式は現在国際標準方式H.261、H.263、MPEG1、MPEG2、MPEG4で用いられており、最も広く採用されている動き探索方式である。
更には、入力フレームの縮小画像を生成し、縮小画像を用いて、予め画面全体の動きを示すグローバルベクトルを検出しておき、グローバルベクトル分だけ現在マクロブロックからずらした位置にサーチウィンドウの中心位置を設定する方式もある。以下、この方式をグローバルベクトル探索方式、装置をグローバルベクトル探索装置と呼ぶ。このグローバルベクトル探索方式は、カメラの向きを検出する加速度センサ等を搭載したビデオカメラに搭載した場合に都合が良い。すなわち、その加速度センサからの信号に基づき、サーチウィンドウの中心位置を設定できるからである。
図4は、フレームメモリ101の領域分割の例を示す図である。フレームメモリ101は、入力画像の領域と、後述する参照画像の領域が成分ごとに複数フレーム格納できるように分割されている。
フレームメモリ101には、不図示のCCD等の撮像素子で撮像して得られた4:4:4フォーマットの動画像RGB信号が、色成分ごとに入力画像の領域に順次格納される。
探索方式決定部115は仮符号化時に決定した動き探索方式を動き探索部102に設定する。また、この仮符号化時の動き探索の決定方法の詳細については後述する。
動き探索部102はフレームメモリ101の入力画像の領域から現在マクロブロックの映像と複数の探索方式から、探索方式決定部115によって設定される探索方式を選択し、参照画像の領域から対応するサーチウィンドウの画像を読み出し、動き探索を行う。
なお、探索方式決定部115から設定される探索方式とは、例えば、先に説明した原点探索方式、周辺MB探索方式、あるいはグローバルベクトル探索方式などを指すがその方式は特に問わない。探索範囲の画像データ内で、前記符号化対象ブロックの画像データとのブロックマッチングにより、相関が高い場所を動きベクトルとして決定し、イントラ・インター判定部104へ通知する。また、同時に動きベクトルの位置での現在のマクロブロックの画素と参照画像の画素の差分絶対値和をイントラ・インター判定部104へ通知する。
イントラ予測部103はフレームメモリ101の入力画像の領域から、符号化対象ブロックの画像データを読み出す。そして、既に符号化済みの符号化対象ブロック周辺の画素データから生成される複数のイントラ予測画像データとの相関を基にイントラ予測方式を選択してイントラ・インター判定部104へ通知する。また、選択されたイントラ予測方式での予測画像の画素と現在のマクロブロックの画素の差分絶対値和をイントラ・インター判定部104へ通知する。
イントラ・インター判定部104は、動き探索部102の差分絶対値和とイントラ予測部103の差分絶対値和を入力し、小さい方の予測方法を選択して、予測画像生成部105へ通知する。予測画像生成部105は、入力された予測方法に従って予測画像を生成し、減算器106へ出力する。減算器106は、符号化対象の画像と予測画像との差分を計算し、差分画像データを生成し、直交変換部107に出力する。
直交変換部107は、入力した差分画像データに対し直交変換を施し、直交変換係数データを生成し、量子化部108に出力する。量子化部108は、直交変換部107により直交変換された直交変換係数データに対して量子化処理を行う。そして、エントロピー符号化部109は、量子化部108の量子化で得られた変換係数にCAVLC、CABACなどのエントロピー符号化を施して、符号化データとして出力する。なお、エントロピー符号化部109で生成された符号化データのストリームは、書込み可能なメモリカードやディスクに書込まれることになる。
また、量子化部108により量子化された変換係数データは、逆量子化部110にも供給される。逆量子化部110は、入力された変換係数を逆量子化する。逆直交変換部111は、逆量子化されたデータを対して逆直交変換処理を施し、差分画像データを生成する。加算器112には、逆直交変換されたデータと、予測画像生成部105により生成された予測画像データとが入力されて加算される。加算後のデータは復号された再構成画像データとなり、前述したイントラ予測部103、および、予測画像生成部105に入力されてイントラ予測画像データの生成に用いられる。
また、再構成画像データは、ループ内フィルタ113によって符号化歪の軽減処理が施され、インター符号化の際に用いる参照画像データとしてフレームメモリ101の参照画像の領域に格納される。
続いて本実施形態の特徴である動き探索方式決定が行われる仮符号化について図5を用いて説明する。実施形態は、ビデオカメラに適用した例を説明しているので、以下に説明する処理は不図示の操作部より録画開始ボタンが操作されたことをトリガーにして実行されるものとする。
図5は本発明の符号化装置の処理のタイミング図である。横軸は時間軸であり、1区間は画像フレームの1フレーム期間を示している。またT0からT11はそれぞれのフレーム期間を示している。Frame0〜Frame8はフレームメモリ101の入力画像領域に保存される入力フレームを表している。なお、Frame0は符号化開始時に最初に入力されるフレームを示している。本実施形態では1GOP(Group Of Pictures)を9フレームとし、符号化ピクチャを符号化順に並べると「IBBPBBPBB」となり、入力順に並べると「BBIBBPBBP」となるものとする。図中の矢印は画像が入力される期間と読み出される期間を対応付けており画像フレームの流れを示している。破線の矢印は仮符号化を行うデータの流れを示している。録画開始ボタンが操作された際の初期段階の予め設定された枚数分(少なくとも2枚)のフレーム画像については仮符号化を行う。この仮符号化は動き探索方式を決定するためだけに実施されるため、ここで実施した符号化はストリームとして記録されない。また、動き探索方式決定はこの仮符号化時に実施される。実線は本符号化時のデータを示しており、ここでの符号化はストリームとして記録される。なお、本実施形態は1GOPを9フレームとしたが15フレームなどその他のフレーム数であっても同様の方式をもって仮符号化は実現できる。これは単なる例であることに注意されたい。
次に、実施形態の特徴である動き探索方式決定方法について図1、図5を用いて説明する。
図5における期間T0においては符号化開始直後の1番目の画像フレームframe0がフレームメモリ101に書き込まれる。なお、この期間には符号化処理は行われない。
次に期間T1において画像フレームframe1をフレームメモリ101に書き込む。期間T1では、フレームメモリ101からframe0を読み出してIピクチャによる仮符号化を行う。ここで、期間T1では、少なくともframe0のG成分について仮イントラ符号化を行えば良いが、期間T1内にframe0のR成分やB成分まで仮イントラ符号化しても良い。なお、仮符号化時の符号化処理は前述の符号化処理とほぼ同様であるがエントロピー符号化した結果はストリームとして出力しない。あるいはエントロピー符号化は行わない。次に期間T2において、frame2をフレームメモリ101に書き込む。期間T2では、フレームメモリ101からframe1を読み出して、仮イントラ符号化された後のframe0のG成分の参照画像を用いて、Pピクチャによる仮符号化を行う。
探索方式決定部115は動き探索部102に対して、まず原点探索方式を用いて動き探索を行うよう探索方式を設定する。
動き探索部102はフレームメモリ101からframe1のG成分の入力画像領域から現在マクロブロックの映像を読み出す。更に、当該G成分の参照画像領域からT1期間に符号化した参照画像の現在マクロブロック位置を中心とするサーチウィンドウの映像を読み出し、動き探索を行う。そして、動きベクトルの位置での現在のマクロブロックの画素と参照画像の画素の差分絶対値和(先に示したMAE)をフレーム差分絶対値和演算部114へ通知する。なお、動き探索以降の符号化処理については実施しても良いし、実施しなくても良い。エントロピー符号化まで実施した場合には符号化した結果はストリームとして出力しない。
フレーム差分絶対値和演算部114は動き探索部102から通知されるマクロブロック単位の差分絶対値和を受信し、G成分1フレーム分加算していく。そして、フレーム差分絶対値和演算部114は原点探索方式におけるG成分1フレーム分の差分絶対値和を演算し、探索方式決定部115に通知する。
探索方式決定部115は、フレーム差分絶対値和演算部114から通知される差分絶対値和を保持し、続いて動き探索部102に対して、周辺MBベクトル探索方式を用いて動き探索を行うよう探索方式を設定する。
期間T2内の仮符号化では、次にframe1のR,B成分を仮符号化するのではなく、再度G成分のPピクチャによる仮符号化を行う。すなわち、R又はB成分の符号化可能時間を使って、G成分の2回目の仮符号化を行うのである(複数回の仮のインター符号化)。動き探索部102はフレームメモリ101からR,B成分ではなく再度G成分の入力画像領域から現在マクロブロックの映像を読み出す。また、同様にG成分の参照画像領域からT1期間に符号化した参照画像の一つ前のマクロブロックで求めた動きベクトル位置を中心とするサーチウィンドウの映像を読み出し、動き探索を行う。そして、動きベクトルの位置での現在のマクロブロックの画素と参照画像の画素の差分絶対値和をフレーム差分絶対値和演算部114へ通知する。なお、動き探索以降の符号化処理については実施しても良いし、実施しなくても良い。エントロピー符号化まで実施した場合には符号化した結果はストリームとして出力しない。
フレーム差分絶対値和演算部114は動き探索部102から通知されるマクロブロック単位の差分絶対値和を受信し、G成分1フレーム分加算していく。そして、フレーム差分絶対値和演算部114は、周辺MBベクトル探索方式でのG成分1フレーム分の差分絶対値和を演算し、探索方式決定部115に通知する。
探索方式決定部115はフレーム差分絶対値和演算部114から通知される差分絶対値和を保持する。そして探索方式決定部115は、続いて動き探索部102に対して、グローバルベクトル探索方式を用いて動き探索を行うよう探索方式を設定する。
期間T2内の仮符号化では、再度G成分のPピクチャによる仮符号化を行う。すなわち、R又はB成分の符号化可能時間を使って、G成分の3回目の仮符号化を行うのである。動き探索部102はフレームメモリ101から再度G成分の入力画像領域から現在マクロブロックの映像を読み出す。また、同様にG成分の参照画像領域からT1期間に符号化した参照画像のグローバルベクトル位置を中心とするサーチウィンドウの映像を読み出し、動き探索を行う。そして、動きベクトルの位置での現在のマクロブロックの画素と参照画像の画素の差分絶対値和をフレーム差分絶対値和演算部114へ通知する。なお、動き探索以降の符号化処理については実施しても良いし、実施しなくても良い。エントロピー符号化まで実施した場合には符号化した結果はストリームとして出力しない。
フレーム差分絶対値和演算部114は動き探索部102から通知されるマクロブロック単位の差分絶対値和を受信し、G成分1フレーム分加算していく。そして、フレーム差分絶対値和演算部114は、グローバルベクトル探索方式でのG成分1フレーム分の差分絶対値和を演算し、探索方式決定部115に通知する。
上記のようにして、仮符号化によって、期間T1では、frame0のG(さらにR,B)成分の仮イントラ符号化の結果が得られ、期間T2では、frame1のG成分について3種類のベクトル探索方式による差分絶対値和が算出される。ベクトル探索方式が3種類であっても、対象とする成分がG成分だけにしているので、その演算に係る負担は少なくて済む。探索方式決定部115は、この3つの原点探索方式の差分絶対値和、周辺MBベクトル探索方式での差分絶対値和、グローバルベクトル探索方式での差分絶対値和を比較する。そして、一番差分絶対値和が小さい結果を導出した探索範囲(探索方式)を、本符号化の際の探索方式として決定する。すなわち、期間T3以降では、本符号化及び記録処理を行うことになる。なお、本実施形態では探索方式の決定に差分絶対値和を用いたが差分二乗和(MSE)を用いるなどフレーム間の画素差分を用いたものであれば特に方式を問わない。なお、期間T3以降の符号化処理は前述した仮符号化期間以外での符号化方法と同様のため、説明を省く。なお、動きベクトル探索方式は期間T2で決定した方式を用いる。
以上の処理の流れを図9のフローチャートを用いて要約する。
図9においてステップST901では最初の入力フレームのG成分をIピクチャで仮符号化する。
ステップST902で複数の探索方式から一つの探索方式を設定する。そして、ステップST903ではST901で仮符号化したIピクチャを参照フレームとして動き探索を実施する。ステップST904で1フレーム分の差分絶対値和を演算し、探索方式決定部115内の不図示のメモリに保持する。以上のST902〜ST904の処理をステップST902で以前に設定した方式とは異なる探索方式を設定し、3回繰り返す。
ST902〜ST904の処理を3度繰り返したらステップST905では実施した3探索方式から1フレーム分の差分絶対値が小さくなる探索方式を選択し、本符号化の際に用いる探索方式として決定する。
以上のように仮符号化時には通常の符号化時のように1フレームの符号化期間内にR,G,Bを順に符号化するのではなく、G成分のみを用いて異なる3つの探索方式で動き探索を行うことで、入力映像に対する適切な探索方式を決定できる。本実施形態では異なる探索方式として原点探索方式、周辺MBベクトル探索方式、グローバルベクトル探索方式を例として挙げたが探索方式はこれに限定されない。
なお1成分のみを用いて探索範囲を決定しているのは同一時刻のフレームにおける各色成分の画像の性質が多くの場合、似通っているためである。また、R,B成分ではなくG成分を用いるのはR,G,Bの3成分のうちG成分が最も視覚的に目立つ色成分だからである。なお、仮符号化期間は、本来は符号化をする必要が無い期間のため、仮符号化を行うことによる処理時間の増大や必要なフレーム領域の増大は発生しない。
[第2の実施形態]
本発明の第2の実施形態について、図5、図6、図7を用いて説明する。図6は、本第2の実施形態に係る動画像符号化装置の構成例を示すブロック図である。フレームメモリ101に保存する映像が異なる点と代表成分画像生成部601が追加された点以外は、第1の実施形態と同じである。それ故、第1の実施形態と同じ構成要素については同一参照符号を付した。
図7は第2の実施形態におけるフレームメモリ101の領域分割の例を示す図である。フレームメモリ101は、入力画像の領域と、後述する参照画像の領域が成分ごとに複数フレーム格納できるように分割されている。また、本第2の実施形態では更に後述する代表成分画像の領域が2フレーム格納できるように分割されている点が第1の実施形態とは異なる。
図5における符号化開始直後の期間T0、T1において撮像して得られた4:4:4フォーマットの動画像R,G,B信号は、成分ごとにフレームメモリ101の入力画像の領域に順次格納される。また、これらR,G、B信号は、代表成分画像生成部601へも入力される。代表成分画像生成部601は、R,G,B信号から輝度成分を算出し、輝度成分Yを代表成分信号として生成する。また、代表成分画像生成部601は、代表成分信号の画像をフレームメモリ101の代表成分画像の領域に順次格納する。
R成分,G成分,B成分の画素値をそれぞれ、R,G,Bとしたとき、代表成分信号の画素値(輝度)Yは次式により得られる。
Y = 0.2126×R + 0.7152×G + 0.0722×B
なお、代表成分信号を算出する計算式は、例えば、
Y = 0.25×R + 0.6875×G + 0.0625×B
など近似化したものでもよく、特にここに示したものに限られない。
本第2の実施形態では第1の実施形態で示した仮符号化で用いる代表色成分のG成分に代わって、代表成分Yに対して行う。
すなわち期間T1におけるIピクチャによる仮符号化および期間T2における動き探索を代表成分Yで実施する。なお、仮符号化で用いる色成分が変更される点以外は第1の実施形態と同様のため以降の説明は省く。
以上のように仮符号化時に用いる色成分をG成分に代わってより視覚的に目立つ輝度成分を動き探索に用いることでより適切な探索方式を選択することができる。また、被写体が人物の場合は肌色を用いるなど主要被写体に占める色成分をG成分に代えて使用する色成分にしても良い。なお、その場合の被写体認識の手法については特に問わない。
[第3の実施形態]
第3の実施形態について、図5、図8を用いて説明する。図8は、本第3の実施形態に係る動画像符号化装置の構成例を示すブロック図である。フレームメモリ101に保存する代表成分画像が異なる点と代表成分決定部801が追加された点以外の部分は、上記の第2の実施形態と同じである。
代表成分決定部801は、撮像して得られた4:4:4フォーマットの動画像R,G,B信号から、各成分のフレームにおける分散値を算出し、最も分散値が大きい成分を代表成分として決定し、代表成分画像生成部601へ通知する。代表成分画像生成部601は、通知された代表成分に従って代表成分を生成し、フレームメモリ101の代表成分画像の領域に格納する。
なお、ここでは、代表画像として1つの成分を選択した。ただし、これに限定されない。すなわち、代表成分画像生成部601が、R成分,G成分,B成分の画素値をそれぞれ、R、G、Bとし、代表成分信号の画素値をYとして、
Y = Kr×R + Kg×G + Kb×B
の計算により算出する場合の、Kr、Kg、Kbを決定するようにしてもよい。この場合、各成分の分散値の大きさの割合に応じて、前記Kr、Kg、Kbを決定する。
本第3の実施形態では第1の実施形態で示した仮符号化で用いる色成分として、以上の演算で求めた代表成分Yで行う。
すなわち期間T1におけるIピクチャによる仮符号化および期間T2における動き探索を代表成分Yで実施する。なお、仮符号化で用いる色成分が変更される点以外は第1、第2実施形態と同様のため以降の説明は省く。
分散値が高い色成分は同一量子化値で符号化した際に発生符号量が多くなってしまうことが多い。そこで本第3の実施形態のように分散値が高い色成分を重視した動き探索をすることで全体としての発生符号量を抑制し、符号化効率を高めることが期待できる。
なお、本第3の実施形態の手法は、特にR,G,Bそれぞれの分散値がバラついた場合に有効である。多くの場合、R,G,Bの分散値が近くなるため、R,G,Bの分散値のばらつきが、予め設定した閾値の範囲に収まる通常時は第1、第2の実施形態の方式を用いる。R、G,Bのばらつきが閾値の範囲に収まらない場合のみ本第3の実施形態の方式を用いるなど、第1、第2の実施形態と組み合わせてもよい。
[第4の実施形態]
上記第1乃至第3の実施形態では、仮符号化を行ない、その過程で本符号化で採用する動きベクトルの探索方式を決定した。
一般に、符号化処理における符号量制御に着目すると、ある決められた初期値を用いる。そのため仮符号化時の符号化パラメータが、入力されてくる画像によっては適切ではなかったという問題が発生する可能性がある。適切ではない量子化パラメータを用いて符号化を行うと、発生符号量や複雑度等の符号化結果の信頼性が落ちるという問題が発生する。そこで、本第4の実施形態では、RGB 4:4:4フォーマットに対応した符号化において、仮符号化における符号化パラメータの信頼性を向上させる。その結果、本符号化開始後の画質を向上させることを可能にする。
図10は本第4の実施形態によるビデオカメラに搭載される動画像符号化装置のブロック図である。ここでは、RGB4:4:4フォーマットの画像をH.264符号化方式を用いて実現する符号化装置を例に示している。
まず、通常の本符号化動作(本符号化処理)について説明する。符号化対象の画像データはフレームバッファ1101に格納される。フレームバッファ1101に格納されたR成分、G成分、B成分それぞれの画像は、符号化回路1102、符号化回路1103、符号化回路1104に独立に出力することが可能である。例えば、符号化回路1102にR成分、符号化回路1103にG成分、符号化回路1104にB成分を出力することも可能である。また、場合によっては、符号化回路1102、符号化回路1103、符号化回路1104の全てにG成分を出力することも可能である。本符号化動作時には、符号化回路1102にR成分、符号化回路1103にG成分、符号化回路1104にB成分を供給し、それぞれが入力された色成分に対して符号化動作を行う。
符号化回路1102、符号化回路1103、符号化回路1104は、それぞれ一つの色成分の符号化を行う回路であり、同じ構成を取る。符号化した結果の符号化ストリームはストリームバッファ1105にそれぞれ出力される。また、符号化を行った際の情報を符号化制御部1106に出力する。この情報とは、発生符号量、平均量子化ステップサイズなどである。
符号化回路1102、符号化回路1103、符号化回路1104から出力された各色成分の符号化ストリームは、ストリームバッファ1105にて、まとめて1本の符号化ストリームとして格納され、出力される。
符号化制御部1106は、受け取った符号化情報から、目標符号量や、量子化ステップサイズ等の符号化パラメータを決定し、符号化回路1102、符号化回路1103、符号化回路1104へ出力する。
符号化回路1102の内部構成を図11に示し、以下、その構成と処理内容を説明する。他の符号化回路1103、1104は同じであるものとし、その説明は省略する。なお、符号化フレームバッファ1201、および参照フレームバッファ1211は、図10のフレームバッファ1101で構成されることになる。
符号化対象の画像データ(1つの色成分の画像データ)は符号化フレームバッファ1201に入力される。動き予測部1202では、符号化フレームバッファ1201に格納されている符号化対象画像と、参照フレームバッファ1211に格納されている参照画像との間で、ブロックマッチングをとり、動きベクトル検出を行う。そして、動き予測部1202は、符号化対象の画像と、検出された動きベクトル位置の予測画像との間で画素の差分をとり、その差分画像を直交変換部1203に出力する。またローカルデコード画像作成用に、動きベクトル検出位置の予測画像を動き補償部1209にも出力する。
直交変換部1203では、送られてきた差分画像に対して離散コサイン変換を行い、変換係数データを生成し、量子化部1204に出力する。量子化部1204では、直交変換部1203から送られてきた変換係数データに対して、量子化制御部1205が出力する量子化ステップサイズに従い、量子化を行う。量子化された変換係数データは符号化ストリーム作成のためエントロピー符号化部1206、ならびにローカルデコード画像作成のため逆量子化部1207に出力される。
エントロピー符号化部1206は、量子化後の変換係数に対してジグザグスキャン、オルタネートスキャン等を行い、可変長符号化を行なう。エントロピー符号化部1206は、更に動きベクトルや量子化ステップサイズ、符号化対象ブロックの分割情報などの符号化方式情報を可変長符号化されたものを付加し、符号化ストリームを生成する。また符号化の際に符号化対象ブロックごとの発生符号量を算出し、量子化制御部1205に出力する。
量子化制御部1205は、量子化ステップサイズを決定する。量子化ステップサイズの決定方法には、目標符号量による符号量制御方法と、固定量子化ステップサイズを用いる制御方法がある。目標符号量による符号量制御方法では、エントロピー符号化部1206から送られてくる発生符号量を用いて、目標とする符号量になるように量子化ステップサイズを決定し、量子化部1204に出力する。本符号化時には、この目標符号量による符号量制御方法が用いられる。
固定量子化ステップサイズを用いる制御方法では、ピクチャごとに符号化開始時に符号化制御部1106から与えられた量子化ステップサイズを常に量子化部1204に出力する。
逆量子化部1207は、量子化部1204から送られてきた量子化後の変換係数に対して逆量子化を行い、ローカルデコード用の変換係数を生成する。この変換係数は逆直交変換部1208に出力される。逆直交変換部1208は、送られてきた変換係数に対して逆離散コサイン変換を行い差分画像を生成する。生成された差分画像は動き補償部1209に出力される。動き補償部1209は、動き予測部1202から送られてきた動きベクトル位置の予測画像と、逆直交変換部1208から送られてきた差分画像を加算することにより、ローカルデコード用の画像データを生成する。生成された画像データはデブロッキングフィルタ部1210に出力される。
デブロッキングフィルタ部1210は、送られてきた画像データに対してデブロッキングフィルタをかける。デブロッキングフィルタ後の画像が、ローカルデコード画像として参照フレームバッファ1211に格納される。このような動作により、符号化ストリーム、ローカルデコード画像が作成される。
以上、符号化回路1102について説明したが、符号化回路1103、符号化回路1104も同様の構成と処理を行う。
次に符号化制御部1106の動作について説明する。実施形態における符号化制御部1106は、ユーザが不図示の操作部より録画開始指示の入力を検出すると、1つの色成分に対し仮符号化を行ない、その仮符号化の処理にて符号化パラメータを決定する。そして、それ以降は符号化パラメータに従って、本符号化を行ない、記録を行う。仮符号化に係る処理は、後述するように2つのフレーム分の期間の微少時間であるので、ユーザに違和感を与えることはない。
図12は、本第4の実施形態における符号化制御部1106の構成を示している。
複雑度演算部1301は、符号化結果の情報から符号化対象となった画像の複雑度を演算する。代表的な画面複雑度の演算方法は、発生符号量と平均量子化ステップサイズの積である。演算された画面複雑度は、符号化パラメータ制御部1303に渡される。
信頼性評価部1302は、画面複雑度の信頼性を算出する。信頼性の評価方法としては様々なものが考えられる。例えば、量子化ステップサイズを一定にして符号化を行った場合では、Iピクチャ、Pピクチャ、Bピクチャの発生符号量の比率があらかじめ決められた比率に近いものを信頼性が高いと評価することができる。また、目標符号量を定めて符号量制御を行った場合では、SN比の良いものを信頼性が高いと評価することができる。ここでは、画面複雑度の信頼性の算出方法は、どのようなものを用いても良いとする。
算出された画面複雑度の信頼性評価値は符号化パラメータ制御部1303に出力される。
符号化パラメータ制御部1303では、画面複雑度を用いて符号量制御用の目標符号量の算出を行う。
符号量制御方法の代表的な方式としてTestModel方式というものがある。これは、1GOP単位でほぼ同じ符号量になるように以下のように制御を行う。
目標ビットレートをBitRate,1秒当たりのフレーム数をPictureRate、1GOPのフレーム数をNとすると、1GOPに割り当てられる符号量Rは以下の式で与えられる。
R=(BitRate/PictureRate)×N …(1)
式(1)で求められた1GOPの符号量Rを1GOP内のピクチャ毎に配分を行う。各ピクチャへの配分は、符号化を行うフレーム毎に次のように行われる。まず、Iピクチャ、Pピクチャ、Bピクチャの画面複雑度を既に符号化された同タイプのピクチャの符号化結果より求め、それぞれXi、Xp、Xbとする。
次にGOP内の符号化していないPピクチャ、Bピクチャのフレーム数をNp、Nbとし、Iピクチャに対するPピクチャ、Bピクチャの量子化ステップサイズの設定比率をそれぞれKp、Kbとする。
各ピクチャの目標符号量をTi、Tp、Tbは次の式(2)乃至(4)で求められる。
Figure 2014200078
なお、符号量Rは1フレームの符号化が終了するごとに、そのフレームで実際に発生した発生符号量を減算する。また、GOPの先頭で符号化を開始するときに、式(1)の値を加算する。
以上のようにして、符号化パラメータ制御部1303では、ピクチャの目標符号量を算出している。
次に、仮符号化の処理について図13を用いて説明する。図13はピクチャごとの符号化処理のタイミングを示したものである。横軸は時間軸であり、1区間は画像フレームの1フレーム期間を示している。またT0からT7はそれぞれのフレーム期間を示している。
F0〜F7は符号化フレームバッファ1201に保存される入力画像を表している。なお、F0は記録開始の指示を受けた際の最初に入力されるフレームを示している。
本第4の実施形態でのGOP構造は、符号化ピクチャを符号化順に並べると「IBBPBBPBB」となり、入力順に並べると「BBIBBPBBP」となるものとする。図中の矢印は画像が入力される期間と符号化が行われる期間を対応付けており、画像の流れを示している。特に破線の矢印は仮符号化されるフレームと期間の対応関係を示している。
仮符号化処理は符号化結果の情報を得るためだけに行われるため、ここで得られた符号化ストリームは記録されない。また、仮符号化処理は、所定の値を用いた固定量子化ステップサイズによる制御方法を用いるものとする。そして、仮符号化に後続して本符号化処理が行われ、ここで得られた符号化ストリームが記録されることになる。
まず、T0期間に符号化開始直後の最初の画像であるF0が符号化フレームバッファ1201に入力される。
次に、T1期間に画像F1が符号化フレームバッファ1201に入力される。このとき、先に入力されている画像F0をIピクチャとして仮符号化を行う。仮符号化の結果である発生符号量を符号化制御部1106に出力する。
続いて、T2期間に画像F2が符号化フレームバッファ1201に入力される。このとき、先に入力されている画像F1をPピクチャとして仮符号化を行う。仮符号化の結果である発生符号量を符号化制御部1106に出力する。このT1期間とT2期間が仮符号化処理の期間となる。
符号化制御部1106では画像F0と画像F1の発生符号量、平均量子化ステップサイズを用いて、Iピクチャの画面複雑度Xi、Pピクチャの画面複雑度Xpを算出する。固定量子化ステップサイズによる制御方法なので、仮符号化時に指定した量子化ステップサイズがそのまま平均量子化ステップサイズとなる。Bピクチャの画面複雑度Xbは、Xpに所定の係数を乗じて算出する。
このようにして算出されたXi、Xp、Xbを用いて、本符号化処理用の目標符号量を算出する。T3期間以降、算出された目標符号量を用いて本符号化処理が行われる。
次に、本実施形態の仮符号化の方式について説明する。本実施形態の特徴は、R成分、G成分、B成分に対してそれぞれ別々に仮符号化処理を行わない。その変わり、3つの色成分から代表成分を1つ選択し、その代表成分に対して3つの符号化回路1102乃至1104により3種類の符号化パラメータを用いて仮符号化処理を行う。各成分は相関が強いと考えられるので、各成分でそれぞれ1種類の符号化パラメータを用いて仮符号化を行うより、1つの色成分に対して3種類の符号化パラメータを用いて仮符号化を行うことで、仮符号化の精度向上を図っている。
仮符号化処理期間である、T1期間とT2期間では、フレームメモリ101は、代表成分としてG成分を符号化回路1102、符号化回路1103、符号化回路1104の全てに出力する。
各符号化回路で同じ入力画像に対して、異なる量子化ステップサイズを用いて仮符号化を行う。例えば、符号化回路1102には、符号化パラメータ1としてIピクチャの量子化ステップサイズとしてのQi0、Pピクチャの量子化ステップサイズとしてのQp0を設定する。符号化回路1103には、符号化パラメータ2としてIピクチャの量子化ステップサイズとしてのQi1、Pピクチャの量子化ステップサイズとしてのQp1とする。符号化回路1104には、符号化パラメータ3としてIピクチャの量子化ステップサイズとしてのQi2、Pピクチャの量子化ステップサイズとしてのQp2を設定する。
Qi0、Qi1、Qi2は全て異なる値であり、Qp0、Qp1、Qp2も全て異なる値である。例えば、それらの値は次式(5)、(6)の関係とする。
Qi0 < Qi1 < Qi2 … (5)
Qp0 < Qp1 < Qp2 … (6)
このようにして期間T1、T2にて仮符号化を行い、その結果である発生符号量が符号化制御部1106に出力される。
符号化制御部1106では、各符号化回路から発生符号量を受け取り、複雑度演算部1301で発生符号量、および仮符号化時の量子化ステップサイズから画面複雑度を算出する。また、信頼性評価部1302で、各複雑度に対する信頼度を算出する。
算出された各符号化パラメータに対する画面複雑度、および信頼度は符号化パラメータ制御部1303に供給される。
符号化パラメータ制御部1303は、各画面複雑度に対する信頼度から、最も信頼度の高い画面複雑度を選択する。その画面複雑度を用いて本符号化処理用の目標符号量を算出する。
具体的には、仮符号化処理の期間T1にて符号化回路1102、1103、1104が生成したG成分のIピクチャの符号量をAi1,Ai2,Ai3と表わす。また、期間T2にて符号化回路1102、1103、1104が生成したG成分のPピクチャの符号量をAp1,Ap2,Ap3と表わす。このとき、それぞれの回路におけるIピクチャとPピクチャの符号量の比R1乃至R3を求める。
R1=Ai1/Ap1
R2=Ai2/Ap2
R3=Ai3/Ap3
そして、この3つの中から、予め設定されたIピクチャとPピクチャとの符号量の理想とする比R0に最も近い比率がいずれであるのかを判定する。例えば、R0/Ri(i=1,2,3のいずれか)の中で最も“1.00”に近い「i」を求める。
ここで、仮にi=2、すなわち、R2が理想比率R0に最も近かったとする。この場合、符号化パラメータ制御部1303は、複雑度演算部1301が算出した中で、2つ目の符号化回路1103から得られた符号化データ量に基づいて求めた複雑度Xi,Xp,Xbを先に示した式(2)乃至(4)に当てはめる。そして、I,P,Bピクチャそれぞれの目標符号量Ti、Tp,Tbを決定する。この後、本符号化処理では、この目標符号量Ti,Tp,Tbに従い、本符号化処理を実行することになる。
以上説明したように、本第4の実施形態によれば、仮符号化時に3つの色成分から1つの代表成分を選択し、その代表成分に対して3種類の異なる符号化パラメータを用いて仮符号化を行い、仮符号化結果の精度を向上することができる。精度の高い仮符号化結果を用いて本符号化処理用の目標符号量算出を行うことにより、目標符号量の精度が向上し、発生符号量と画質とのバランスが良好な符号化データを生成することができる。
なお、本第4の実施形態においては、仮符号化時に固定量子化ステップサイズによる制御方法を用いたが、目標符号量による符号量制御方法を用いてもよい。また、本第4の実施形態においては3つの符号化回路を用いて並列に動作する場合について説明したが、構成はこれに限ったものではなく、1つの符号化回路を用いて色成分ごとに3回処理をするような構成を取ってもよい。
[第5の実施形態]
本第5の実施形態における符号化装置のシステム構成を図14に示す。ここでは、第4の実施形態との差異についてのみ詳細に説明する。第4の実施形態との違いは、あらかじめ各色成分の相関を検出し、各色成分の相関が強いかどうかによって仮符号化の方式を選択することにある。そのため、本第5の実施形態では、相関検出部1501を設けた。
相関検出部1501には、符号化対象画像と同じ画像が入力される。入力された画像のうち、仮符号化を行う先頭の画像を対象にR成分、G成分、B成分の各色成分間で相関度が強いかどうかの検出を行う。
また、これに伴い、図13におけるT0期間に画像F0が相関検出部1501に入力され、R成分、G成分、B成分の各色成分間で相関が強いかどうかの検出を行い、検出結果を符号化制御部1106に出力する。相関度の検出方法には、さまざまなものが考えられる。例えば、R,G,Bの各成分の標準偏差σr,σg,σbを求め、予め設定された閾値T1と関係が、次式を満たす場合に相関度が高いと判定する。
|σr−σg|≦Th1
|σr−σb|≦Th1
|σg−σb|≦Th1
また、決められたブロック単位で、画素値の分差値を取得し、その画面全体の合計値を比較することにより相関が強いかどうか検出することができる。ここでは、相関性の検出方法はどんな方法を用いてもよいとする。
符号化制御部1106では、各色成分間の相関性の検出結果によって、仮符号化の方式を選択する。各色成分間の相関が強い場合は、第4の実施形態で説明したように3つの色成分から代表成分を選択し、3種類の異なる符号化パラメータを用いて仮符号化を行う。各色成分の相関が強いため、代表成分を用いた仮符号化の結果を各色成分の本符号化処理で用いることができる。
各色成分の相関が強くない場合は、各色成分ごとにあらかじめ決められた符号化パラメータを用いて仮符号化を行い、その結果を各色成分ごとの本符号化処理に用いる。各色成分の相関が強くないため、代表成分を用いて仮符号化を行うよりも、各色成分ごとに仮符号化を行う方が良い結果が得られる。
以上の動作を図15のフローチャートに示し、説明する。
まず、入力画像の先頭の画像を用いて、R成分、G成分、B成分の各色成分間で相関が強いかどうかの検出を行う(S601)。各色成分間の相関が強い場合(S602)、G成分を代表成分として3種類の符号化パラメータを用いて仮符号化を行う(S603)。その仮符号化のうち、最も信頼度の高い仮符号化結果を用いて複雑度を算出する。それをR成分、G成分、B成分の複雑度として適用する(S604)。
各色成分の相関が強くない場合、R成分、G成分、B成分でそれぞれ独立に仮符号化を行う(S605)。R成分、G成分、B成分のそれぞれの仮符号化の結果から、それぞれ独立に複雑度を算出する(S606)。
そして、算出された複雑度を用いて、本符号化用の目標符号量を算出し、本符号化を行う(S607)。
以上のように、画像の各色成分の相関の強さに応じて仮符号化の方式を選択することにより、入力画像に対して適した仮符号化を行うことができる。仮符号化を適切に行うことにより、本符号化の目標符号量算出の精度が高くなり、良好な画像を得ることができる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (20)

  1. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置であって、
    符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる複数の探索範囲に従って動きベクトルを求めて仮符号化を行う仮符号化手段と、
    該仮符号化手段による各探索範囲について最も誤差の小さいベクトルとなった探索範囲を、前記仮符号化手段に後続して実行される本符号化処理における各色成分の動きベクトルの探索範囲として決定する決定手段と
    を有することを特徴とする動画像符号化装置。
  2. 前記決定手段は、符号化対象の画素ブロックの画素値と、各探索範囲より得られた参照ブロックの画素値との差分二乗和又は差分絶対値和を算出し、もっとも小さい値となった参照ブロックを導出した探索範囲を、本符号化処理における各色成分の動きベクトルの探索範囲として決定することを特徴とする請求項1に記載の動画像符号化装置。
  3. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、前記3つの色成分のうちG成分の画像データに対して仮符号化を行うことを特徴とする請求項1に記載の動画像符号化装置。
  4. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、R成分、G成分、B成分のデータから輝度成分Yのデータを生成する生成手段を有し、該生成手段で生成した輝度成分Yのデータについて仮符号化を行うことを特徴とする請求項1又は2に記載の動画像符号化装置。
  5. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、R成分、G成分、B成分のデータのそれぞれについて、予め設定された評価関数に従って評価して代表成分を決定する代表成分決定手段を有し、該代表成分決定手段で決定した色成分のデータについて仮符号化を行うことを特徴とする請求項1又は2に記載の動画像符号化装置。
  6. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置であって、
    符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる量子化パラメータに従って仮符号化を行う仮符号化手段と、
    該仮符号化手段による仮符号化で得られた符号化データに基づき、各量子化パラメータにおける画像の複雑度、及び、各複雑度に対する信頼度を算出する算出手段と、
    該算出手段で算出した最も信頼度の高い複雑度に基づき、動画像の符号化する際の符号化パラメータを決定する決定手段と
    を有することを特徴とする動画像符号化装置。
  7. 前記量子化パラメータは、量子化ステップのサイズであることを特徴とする請求項6に記載の動画像符号化装置。
  8. 前記決定手段は、I,P,Bピクチャの目標符号量を決定することを特徴とする請求項6又は7に記載の動画像符号化装置。
  9. 前記仮符号化手段は、各色成分の画像データの相関度を求め、予め設定した閾値と比較することで、相関度が高いか否かを判定する判定手段を有し、該判定手段で相関度が高いと判定した場合に1つの色成分について仮符号化を実行することを特徴とする請求項6乃至8のいずれか1項に記載の動画像符号化装置。
  10. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置であって、
    前記各フレーム画像をイントラ符号化又はインター符号化によって符号化する符号化手段と、
    前記符号化手段による符号化の初期段階の少なくとも2枚のフレーム画像について、第1の期間において第1のフレーム画像を前記イントラ符号化によって仮符号化し、前記第1の期間に続く第2の期間において前記第1のフレーム画像とは異なる第2のフレーム画像を前記第1のフレーム画像に基づく参照画像を参照して前記インター符号化によって仮符号化する仮符号化手段と、
    前記仮符号化手段による前記インター符号化による仮符号化の結果に応じて、前記第2の期間に後続する第3の期間で行われる本符号化における方式を決定する決定手段と、を有し、
    前記仮符号化手段は、前記第2の期間内で、前記第2のフレーム画像の特定の成分に対して複数回のインター符号化による仮符号化を行うことを特徴とする動画像符号化装置。
  11. 前記決定手段は、前記本符号化の際の動きベクトルの探索方式を決定することを特徴とする請求項10に記載の動画像符号化装置。
  12. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、前記3つの色成分のうちG成分の画像データに対して複数回のインター符号化による仮符号化を行うことを特徴とする請求項10に記載の動画像符号化装置。
  13. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、R成分、G成分、B成分のデータから輝度成分Yのデータを生成する生成手段を有し、該生成手段で生成した輝度成分Yのデータについて複数回のインター符号化による仮符号化を行うことを特徴とする請求項10に記載の動画像符号化装置。
  14. 前記動画像を構成する各フレームはR成分、G成分、B成分の3つの色成分のデータで構成され、
    前記仮符号化手段は、R成分、G成分、B成分のデータのそれぞれについて、予め設定された評価関数に従って評価して代表成分を決定する代表成分決定手段を有し、該代表成分決定手段で決定した色成分のデータについて複数回のインター符号化による仮符号化を行うことを特徴とする請求項10に記載の動画像符号化装置。
  15. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置の制御方法であって、
    符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる複数の探索範囲に従って動きベクトルを求めて仮符号化を行う仮符号化工程と、
    該仮符号化工程による各探索範囲について最も誤差の小さいベクトルとなった探索範囲を、前記仮符号化工程に後続して実行される本符号化処理における各色成分の動きベクトルの探索範囲として決定する決定工程と
    を有することを特徴とする動画像符号化装置の制御方法。
  16. コンピュータに読み込ませ実行させることで、前記コンピュータに、請求項15に記載の動画像符号化装置の制御方法の各工程を実行させるためのプログラム。
  17. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置の制御方法であって、
    符号化の開始指示が与えられた際の初期段階の予め設定された枚数分のフレーム画像については、1つの色成分の画像データについて互いに異なる量子化パラメータに従って仮符号化を行う仮符号化工程と、
    該仮符号化工程による仮符号化で得られた符号化データに基づき、各量子化パラメータにおける画像の複雑度、及び、各複雑度に対する信頼度を算出する算出工程と、
    該算出工程で算出した最も信頼度の高い複雑度に基づき、動画像の符号化する際の符号化パラメータを決定する決定工程と
    を有することを特徴とする動画像符号化装置の制御方法。
  18. コンピュータに読み込ませ実行させることで、前記コンピュータに、請求項17に記載の動画像符号化装置の制御方法の各工程を実行させるためのプログラム。
  19. 動画像を構成する各フレーム画像を、各色成分ごとに独立して符号化する動画像符号化装置の制御方法であって、
    前記各フレーム画像をイントラ符号化又はインター符号化によって符号化する符号化工程と、
    前記符号化工程による符号化の初期段階の少なくとも2枚のフレーム画像について、第1の期間において第1のフレーム画像を前記イントラ符号化によって仮符号化し、前記第1の期間に続く第2の期間において前記第1のフレーム画像とは異なる第2のフレーム画像を前記第1のフレーム画像に基づく参照画像を参照して前記インター符号化によって仮符号化する仮符号化工程と、
    前記仮符号化工程による前記インター符号化による仮符号化の結果に応じて、前記第2の期間に後続する第3の期間で行われる本符号化における方式を決定する決定工程と、を有し、
    前記仮符号化工程は、前記第2の期間内で、前記第2のフレーム画像の特定の成分に対して複数回のインター符号化による仮符号化を行うことを特徴とする動画像符号化装置の制御方法。
  20. コンピュータに読み込ませ実行させることで、前記コンピュータに、請求項19に記載の動画像符号化装置の制御方法の各工程を実行させるためのプログラム。
JP2014043157A 2013-03-15 2014-03-05 動画像符号化装置及びその制御方法 Expired - Fee Related JP6313614B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014043157A JP6313614B2 (ja) 2013-03-15 2014-03-05 動画像符号化装置及びその制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013054133 2013-03-15
JP2013054133 2013-03-15
JP2014043157A JP6313614B2 (ja) 2013-03-15 2014-03-05 動画像符号化装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2014200078A true JP2014200078A (ja) 2014-10-23
JP6313614B2 JP6313614B2 (ja) 2018-04-18

Family

ID=51527317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014043157A Expired - Fee Related JP6313614B2 (ja) 2013-03-15 2014-03-05 動画像符号化装置及びその制御方法

Country Status (2)

Country Link
US (1) US9049442B2 (ja)
JP (1) JP6313614B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170019136A (ko) * 2015-08-11 2017-02-21 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 인코딩 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109417594A (zh) * 2017-11-29 2019-03-01 深圳市大疆创新科技有限公司 图像处理方法、拍摄设备、无人机及地面端设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955879A (ja) * 1995-06-08 1997-02-25 Matsushita Electric Ind Co Ltd テレビジョン信号変換装置、画像符号化装置及び画像復号化装置
JP2002271793A (ja) * 2001-03-12 2002-09-20 Canon Inc 画像圧縮符号化装置及び方法
JP2008124937A (ja) * 2006-11-14 2008-05-29 Canon Inc 画像符号化装置
JP2009303265A (ja) * 2007-01-12 2009-12-24 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2010021741A (ja) * 2008-07-09 2010-01-28 Panasonic Corp 画像符号化装置及び画像符号化方法
JP2012004710A (ja) * 2010-06-15 2012-01-05 Fujitsu Ltd 動きベクトル検出回路、動画像符号化装置及び動きベクトル検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3222456B2 (ja) * 1990-07-30 2001-10-29 株式会社東芝 映像監視システム、送信装置、受信装置、および映像監視方法
JP4542107B2 (ja) 2005-07-22 2010-09-08 三菱電機株式会社 画像復号装置及び画像復号方法
JP5026092B2 (ja) 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955879A (ja) * 1995-06-08 1997-02-25 Matsushita Electric Ind Co Ltd テレビジョン信号変換装置、画像符号化装置及び画像復号化装置
JP2002271793A (ja) * 2001-03-12 2002-09-20 Canon Inc 画像圧縮符号化装置及び方法
JP2008124937A (ja) * 2006-11-14 2008-05-29 Canon Inc 画像符号化装置
JP2009303265A (ja) * 2007-01-12 2009-12-24 Mitsubishi Electric Corp 画像符号化装置、画像復号装置、および画像符号化方法、画像復号方法
JP2010021741A (ja) * 2008-07-09 2010-01-28 Panasonic Corp 画像符号化装置及び画像符号化方法
JP2012004710A (ja) * 2010-06-15 2012-01-05 Fujitsu Ltd 動きベクトル検出回路、動画像符号化装置及び動きベクトル検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横山 裕, ET AL.: "事前解析を利用したMPEG−2ビデオ符号化とその簡略化に向けた一検討", FIT2002 情報科学技術フォーラム 予稿集, JPN6017048707, 13 September 2002 (2002-09-13), pages 359 - 360 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170019136A (ko) * 2015-08-11 2017-02-21 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 인코딩 방법
KR102437698B1 (ko) * 2015-08-11 2022-08-30 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 인코딩 방법

Also Published As

Publication number Publication date
US20140270513A1 (en) 2014-09-18
US9049442B2 (en) 2015-06-02
JP6313614B2 (ja) 2018-04-18

Similar Documents

Publication Publication Date Title
US8275035B2 (en) Video coding apparatus
US8630347B2 (en) Video decoding apparatus and video decoding method
US9591313B2 (en) Video encoder with transform size preprocessing and methods for use therewith
US20070047649A1 (en) Method for coding with motion compensated prediction
US9485513B2 (en) Encoding device, decoding device, and program
US9271005B2 (en) Multi-pass video encoder and methods for use therewith
RU2684193C1 (ru) Устройство и способ для компенсации движения в видеоизображении
US8514935B2 (en) Image coding apparatus, image coding method, integrated circuit, and camera
US8379985B2 (en) Dominant gradient method for finding focused objects
JPWO2010100672A1 (ja) 圧縮動画符号化装置、圧縮動画復号化装置、圧縮動画符号化方法および圧縮動画復号化方法
US20140233645A1 (en) Moving image encoding apparatus, method of controlling the same, and program
JP2012034225A (ja) 動きベクトル検出装置及び動きベクトル検出方法、コンピュータプログラム
JP7343817B2 (ja) 符号化装置、符号化方法、及び符号化プログラム
US9438925B2 (en) Video encoder with block merging and methods for use therewith
US8767830B2 (en) Neighbor management module for use in video encoding and methods for use therewith
JP5441812B2 (ja) 動画像符号化装置、及びその制御方法
US9654775B2 (en) Video encoder with weighted prediction and methods for use therewith
JP5178616B2 (ja) シーンチェンジ検出装置および映像記録装置
JP2006100871A (ja) 符号化装置、符号化方法、符号化方法のプログラム及び符号化方法のプログラムを記録した記録媒体
US10666970B2 (en) Encoding apparatus, encoding method, and storage medium
JP6313614B2 (ja) 動画像符号化装置及びその制御方法
US7983337B2 (en) Moving picture coding device, moving picture coding method, and recording medium with moving picture coding program recorded thereon
US8126277B2 (en) Image processing method, image processing apparatus and image pickup apparatus using the same
US10516896B2 (en) Encoding device, encoding method, and storage medium
JP5171675B2 (ja) 画像処理装置、およびそれを搭載した撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180323

R151 Written notification of patent or utility model registration

Ref document number: 6313614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees