JP2006041943A - 動きベクトル検出・補償装置 - Google Patents

動きベクトル検出・補償装置 Download PDF

Info

Publication number
JP2006041943A
JP2006041943A JP2004219083A JP2004219083A JP2006041943A JP 2006041943 A JP2006041943 A JP 2006041943A JP 2004219083 A JP2004219083 A JP 2004219083A JP 2004219083 A JP2004219083 A JP 2004219083A JP 2006041943 A JP2006041943 A JP 2006041943A
Authority
JP
Japan
Prior art keywords
motion vector
image
field
color difference
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004219083A
Other languages
English (en)
Other versions
JP4145275B2 (ja
Inventor
Tatsushi Ootsuka
竜志 大塚
Takahiko Tahira
孝彦 田平
Akihiro Yamori
章弘 屋森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004219083A priority Critical patent/JP4145275B2/ja
Priority to US11/000,460 priority patent/US20060023788A1/en
Priority to EP20040257850 priority patent/EP1622387B1/en
Priority to EP20080167885 priority patent/EP2026584A1/en
Priority to DE200460022280 priority patent/DE602004022280D1/de
Priority to KR20040108008A priority patent/KR100649463B1/ko
Priority to CNB2004101016874A priority patent/CN100546395C/zh
Publication of JP2006041943A publication Critical patent/JP2006041943A/ja
Application granted granted Critical
Publication of JP4145275B2 publication Critical patent/JP4145275B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 動きベクトル検出時に生じる色差成分のミスマッチングを効率よく回避して、高品質の符号化処理を行う。
【解決手段】 動きベクトル検出部11は、インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する。動き補償部12は、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める。
【選択図】 図1

Description

本発明は、動きベクトル検出・補償装置に関し、特にインタレース(飛び越し)走査で色差成分が間引かれたフォーマットを持つ画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置に関する。
近年、DVDやデジタルTV放送などの分野では、膨大な画像データを高いクオリティで記録・伝送するために、MPEG(Moving Picture Experts Group)による圧縮・符号化技術が広く用いられている。
また、MPEGの画像フォーマットにはYCbCrが用いられる。YCbCrとは、輝度信号(Y)、輝度信号と青色成分の差(Cb)、輝度信号と赤色成分の差(Cr)の3つの情報で画像を表す形式である。人間の目が色の変化よりも明るさの変化に敏感な性質を利用して、輝度信号により多くのデータ量を割り当てる。
YCbCrフォーマットは、サブサンプリング(輝度の画質劣化は明確に識別できるが、色の画質劣化は判断しづらいために、色情報に対しては削減して平均化される。この処理をサブサンプリングと呼ぶ)を行う際の色差成分の間引き方によって、数種類に分類され、代表的なフォーマットに4:2:2フォーマット、4:2:0フォーマットがある。
図50は4:2:2フォーマットを示す図である。4:2:2は、水平方向4画素に対して、輝度は画素ごとに8bitでサンプリングし、色差は2画素ごとに8bitのサブサンプリング(平均化)を行う。すなわち、元はY、Cb、Crで表す1つの画素に対して、水平方向の隣接する2画素をまとめてCb、Crを割り当てる。
したがって、1画素あたりの平均情報量は16(={Y(8)+Cb(8)} or {Y(8)+Cr(8)})bitとなり、2つのYに1つのCbCrが割り当てられるので、色差情報は輝度情報の1/2となる。
図51は4:2:0フォーマットを示す図である。4:2:0は、4:2:2でサンプリングした後、輝度情報はそのまま残し,色差情報を垂直方向にも2画素分サブサンプリングする。すなわち、水平・垂直各方向に隣接する2画素(計4画素)をまとめてCb、Crを割り当てる。
したがって、1画素あたりの平均情報量は12(={Y(8)×4+Cb(8)+Cr(8)}÷4)bitとなり、4つのYに1つのCbCrが割り当てられるので、色差情報は輝度情報の1/4となる。
通常、デジタルTV放送やビデオエンコードなどの画像入力に対し、入力部ではITU−R規格の4:2:2フォーマットが対応しており、内部でMPEG2 Main Profileで規定される4:2:0フォーマットに変換している。そして、4:2:0フォーマットの画像信号に対して、動きベクトル検出・補償やDCT(Discrete Cosine Transform)といった符号化処理を施して、符号化データを生成する。
ここで、動きベクトルの検出を行う際は、マクロブロックと呼ばれる16画素×16ラインの矩形領域単位で検出処理が行われる。具体的には、フレームメモリからマクロブロック単位の原画像(これから動きベクトルを探索しようとする画像)と、それより大きな領域の参照画像(動きベクトルの探索範囲となる画像)とを読み出し、原画像のマクロブロックに対して、各画素の差分絶対値和が最も小さくなる参照画像領域上の位置を算出して動きベクトルを検出する。その後、検出した動きベクトルを元に、原画像マクロブロックに対する予測画像が生成される。
図52は動きベクトル検出のイメージを示す図である。現フレームFr2(原画像)のブロックmb2(原画像マクロブロック)に対して、前フレームFr1(参照画像)の中から似た画素を探す推定処理を行い、その分だけ位置をシフトした画素値を予測値とし、マクロブロックに対して水平成分と垂直成分を持つ動きベクトルを求める。
まず、現フレームFr2のブロックmb2と、前フレームFr1の点線ブロックmb1(ブロックmb2に対応する位置にあるブロックである)との周囲を比較する。そして、現在のブロックmb2の画素(絵柄)に近い部分を点線ブロックmb1の周囲の画素から探す。すなわち、差分絶対値和の最小値を探索する。図の場合、ブロックmb2とブロックmb1−1の対応する各画素値の絶対値の総和が最小値とすると(すなわち、差分絶対値和が最小値)、動きベクトルVが求まる。
図53は動き補償のイメージを示す図である。動きベクトルを検出した後、参照画像から動きベクトル分ずらしたブロックの予測画像を生成し、予測画像と原画像との差分を求める処理を動き補償と呼ぶ。ブロックmb1−1の絵柄に対して、動きベクトルVだけずらした予測画像mb1−2を生成し、原画像との差分を求める。
ここで、例えば、飛行機のような剛体の平行移動なら、シフトした画像の値は変化しないので、動きベクトルVだけ移動して生成した予測画像と、原画像との差分はゼロとなる。このとき符号化すべき情報は、水平・垂直成分の動きベクトル情報と、差分がゼロを示す情報となる。
また、予測画像と原画像との差分がゼロでない場合は(例えば、鳥がはばたいて移動して絵柄が変化している場合など)、その差分画像を予測誤差とし、予測誤差にDCT演算を施して変換係数を求める。その後に、量子化、可変長符号化の順に符号化処理を行って、符号化データを生成することになる。
一方、動きベクトル検出の計算量は巨大であるため、計算量削減の工夫が必要である。従来では、輝度に対して差分絶対値和が最小となれば、色差も概ね一致すると考えられるので(輝度の動きベクトルと、色差の動きベクトルは揃っているとみなして)、輝度で動きベクトルが検出されれば、色差に対する動きベクトル検出の計算処理を省略することで、全体の計算量の削減を図っている。色差成分の計算を省略することで、演算回路規模が低減し、フレームメモリから色差の原画像及び参照画像を読み込む処理なども省略でき、処理負荷の軽減が可能になる。
動きベクトル検出の従来技術として、フレーム予測時の動きベクトル検出範囲から、垂直成分が4n+2となる動きベクトルを除外して、色情報の劣化を改善する技術が提案されている(例えば、特許文献1)。
特開2001−238228号公報(段落番号〔0032〕〜〔0047〕,第1図)
通常、デジタルTV放送などでは、インタレース走査(奇数ライン、偶数ラインを交互に飛び越し走査して1画面を作る描写方式)の4:2:0フォーマットである画像に対して、動きベクトル検出・補償やDCTによる符号化処理を行っている。
なお、インタレース走査では、1つのフレームは、2つのフィールドから構成されており、一方のフィールドをTopフィールド、他方のフィールドをBottomフィールドと呼ぶ。
図51で上述したように、4:2:0では色差情報が間引かれているが、このようなフォーマットに対して、動きベクトル検出処理を行うと、従来では輝度成分だけで差分絶対値和を求めて動きベクトル検出を行っているので、動きを持つ画像に対しては、色差成分に劣化が生じるといった問題があった。
すなわち、符号化しようとする画像に動きがほとんどない場合は、輝度成分によるベクトル探索結果にもとづく予測に対して、色差成分が大きくずれることはない。しかし、符号化しようとする画像に動きがある場合には、原画像の色差成分と、輝度成分から得られた動きベクトルによって対応する参照画像の色差成分とにミスマッチングが生じる可能性がある。
色差成分のミスマッチングが生じると、動き補償時に、予測画像と原画像との差分を計算した際、予測誤差が大きくなり、この結果、符号化データの情報量が増えるか、または一定データ量に伝送量を抑える場合には、画質劣化が生じてしまうといった問題があった。
また、従来技術(特開2001−238228号公報)では、色差成分の大きなミスマッチングが生じるときの垂直成分を持つ動きベクトルを完全に除外することで、上記の問題に対処しているが、その他の垂直成分の動きベクトルについては何ら考慮されていないため、画質劣化が高品質に改善されたとはいえず、必ずしも最適な対策方法とはいえない。
本発明はこのような点に鑑みてなされたものであり、回路規模及び処理負荷を大きく増大させずに、色差成分のミスマッチングを効率よく回避して、高品質の動きベクトル検出・補償を行う動きベクトル検出・補償装置を提供することを目的とする。
本発明では上記課題を解決するために、図1に示すような、画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置10において、インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部11と、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める動き補償部12と、を有することを特徴とする動きベクトル検出・補償装置10が提供される。
ここで、動きベクトル検出部11は、インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する。動き補償部12は、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める。
本発明の動きベクトル検出・補償装置は、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出し、検出した動きベクトルを用いて、動き補償を行う構成とした。これにより、回路規模及び処理負荷を大きく増大させることなく、動きベクトル検出・補償時に生じる色差成分のミスマッチングを効率よく回避することができ、高品質の符号化処理を行うことが可能になる。
以下、本発明の実施の形態を図面を参照して説明する。図1は本発明の動きベクトル検出・補償装置の原理図である。第1の実施の形態の動きベクトル検出・補償装置10は、動きベクトル検出部11と動き補償部12から構成される。
動きベクトル検出部11は、インタレース走査で、色差成分が間引かれたフォーマット(以下、4:2:0フォーマットとする)を持つ画像信号に対し、輝度成分だけで、原画像の処理ブロックと参照画像とにより、画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行う。なお、本発明でいうブロックとは、16画素×16ラインのマクロブロックとする。
そして、参照画像上で、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックの対応位置との位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する。
なお、動きベクトルの垂直成分は、具体的には、4n+0、4n+1、4n+2、4n+3(nは整数)となる。オフセットの設定としては、原画像の処理ブロックBと、4n+0の位置の参照画像のブロックB0との差分絶対値和のオフセットはゼロに設定し、原画像の処理ブロックBと、4n+1、4n+2、4n+3の位置の参照画像のブロックB1、B2、B3との差分絶対値和のオフセットは適応的に設定する。
適応的に設定するとは、伝送ビットレート、量子化パラメータ(量子化のステップサイズ、量子化精度のこと)、色差エッジ状態、色差成分の予測誤差の少なくとも1つにもとづいて設定を行うということである(詳細は後述)。また、動き補償部12は、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める。
次に本発明の詳細動作を説明する前に、動きベクトル検出の基本的動作も含めて、本発明が解決すべき問題点について詳しく説明する。図2、図3は矩形画像が左上から右下に向かって移動する様子を示す図である。図2は輝度成分に対する参照画像のTopフィールド、Bottomフィールドを2次元画面イメージで示したもので、図3は輝度成分に対する原画像のTopフィールド、Bottomフィールドを2次元画面イメージで示したものである(TopフィールドとBottomフィールドは、いずれかが奇数ライン、偶数ラインを含むので、1ラインずらして示している)。
図中、画像の動きを黒の矩形で示している。図2の参照画像と図3の原画像とを見比べると、矩形が左上から右下に向かって移動していることがわかる。また、図2の参照画像だけを見ても、Topフィールドの矩形とBottomフィールドの矩形とが、1フィールド時間の間に移動しており、図3の原画像もTopフィールドの矩形とBottomフィールドの矩形とが、1フィールド時間の間に移動している。
図4、図5は4:2:2フォーマットと4:2:0フォーマットの関係を示す図である。図4は図2の参照画像に対して、水平x1点で見た4:2:2と4:2:0の対応関係を示しており、図5は図3の原画像に対して、水平x2点で見た4:2:2と4:2:0の対応関係を示している。なお、白四角黒四角は輝度成分を、白三角黒三角は色差成分を表しており、左側の数字はライン番号である。
4:2:2→4:2:0の変換では、色差成分の間引きが行われる。図4で説明すると、例えば、4:2:2の色差成分a1、a2から、4:2:0の色差成分a3が生成される。
この場合、色差成分a3は、色差成分a1から垂直下方向に2ライン間隔の2/8の位置、または色差成分a2から垂直上方向に2ライン間隔の6/8の位置に配置されるので、色差成分a1、a2の値の加重平均をとった値が色差成分a3の値(a3=(6×a1+2×a2)/8)となる(色差成分a3は、白三角と黒三角の加重平均から得られるので、図中わかりやすいように灰色の三角で示した)。
同様に、4:2:2の色差成分b1、b2から、4:2:0の色差成分b3が生成される。色差成分b3は、色差成分b1から垂直下方向に2ライン間隔の6/8の位置、または色差成分b2から垂直上方向に2ライン間隔の2/8の位置に配置されるので、色差成分b1、b2の値の加重平均をとった値が色差成分b3の値(b3=(2×b1+6×b2)/8)となる。なお、図5の原画像に対しても、同様な色差成分の間引きが行われて、4:2:2→4:2:0のフォーマットになる。
縦方向(垂直方向)に図4、図5を見れば、4:2:2→4:2:0では、輝度成分に対して色差成分は半分に間引かれることがわかる。なお、色差成分を間引く際は、実際には、間引きに使われる色差成分は上記で示した数以上の成分が使われる。すなわち、色差成分a3を求める場合、色差成分a1、a2だけでなく、さらにその周辺の色差成分も用いて計算されるが(色差成分b3を求める場合も同様、なお選択される周辺の色差成分の数は仕様により任意)、上記では簡単な例で説明した。
図6、図7と図8、図9は、矩形移動画像を輝度と色差に分けた4:2:0フォーマットを2次元画面イメージで表した図である。図6、図7はそれぞれ4:2:0の参照画像の輝度成分、色差成分のTop/Bottomフィールドを表し、図8、図9はそれぞれ4:2:0の原画像の輝度成分、色差成分のTop/Bottomフィールドを表す。
4:2:0フォーマットでは、輝度の水平2画素、垂直2画素の計4画素分が、色差の1画素成分に対応することになる。図6、図7を見れば例えば、輝度Y1〜Y4の4つの画素に対して、1つの色差成分CbCrが対応する(なお、色差成分CbCrは、白の輝度Y1、Y2と、黒の輝度Y3、Y4に対応する色差なので、図中わかりやすいように灰色で示した)。
一方、図8の領域R1は、参照画像Topフィールドの黒の矩形部分、領域R2は参照画像Bottomフィールドの黒の矩形部分を示したもので、図中の矢印はTopフィールド、Bottomフィールドのそれぞれの動きベクトルを示している。Top、Bottom両方とも、動きベクトルとしては揃っているため、フレーム予測として、動きベクトルを水平+2画素、垂直+2ラインで表すことができる。
図10、図11は4:2:0フォーマットの動きベクトルを示す図である。図10は図6、図8を水平x1、x2点で見た輝度の動きベクトル(以下、輝度ベクトルとも呼ぶ)を示している。図11は図7、図9を水平x1、x2点で見た色差の動きベクトル(以下、色差ベクトルとも呼ぶ)を示している。なお、図中の白四角は、矩形領域外の輝度成分、黒四角は矩形領域内の輝度成分、白三角は矩形領域外の色差成分、黒三角は矩形領域内の色差成分を示している。
輝度成分で得られた輝度ベクトルをVaとする。図10に示す輝度ベクトルVaの矢印の垂直方向に注目すると、垂直下方に2ライン下がれば、参照画像の画素値と、原画像の画素値が一致することがわかる。
例えば、参照画像Topの画素y1aは、2ライン下がれば、原画像Topの画素y1bにくる。このように、輝度成分に対しては、すべての画素に輝度は存在するので、どのような動きベクトルであっても、原画像の輝度成分に対応する参照画像の輝度成分は存在することになる。
一方、図11に対し、4:2:0フォーマットにより、色差成分に対しては間引き処理が行われるので、間引きのない輝度成分から生成した動きベクトルを色差成分にも適用すると、参照画像の色差成分と、原画像の色差成分との対応関係がずれることになる。
例えば、原画像Topのライン2の色差成分c1は、矩形領域内(黒で示した領域)の色差情報であるが、動きベクトルVaによると、対応する参照画像Topの色差成分はc2となるはずである。
しかし、色差が間引かれている4:2:0フォーマットの場合、色差成分c2は存在しないので、この場合、参照画像Bottom側のライン1の色差成分c3が動き補償で使われることになる。このc3は、図で見ればわかるように、矩形領域外(白で示した領域)の色差成分であるため、予測誤差が大きくなってしまう。
すなわち、c2を動きベクトルVaで移動すればc1となるので、c2が予測画素となるはずが、c2は存在しないので、従来では近傍位置のBottom側のc3を使用して予測画素を生成している(使用する画素がTopとBottomで入れ替わり、矩形領域内の色差成分と矩形領域外の色差成分との逆転現象が生じる)。すると、c3はc1の画素値と大きく異なるので(c3は矩形領域外、c1は矩形領域内)、このときの予測画素と原画素との差分には大きな誤差が生じてしまうことになる。
同様にして、原画像Bottomのライン3の色差成分c4は、矩形領域外の色差成分であるが、対応する参照画像は、本来、参照画像Bottomのc5の位置にあるはずだが存在しないので、参照画像Top側のライン2の色差情報c6が動き補償で使われることになる。このc6は、矩形領域内の色差成分であるため、予測誤差が大きくなってしまう。
このように、4:2:0フォーマットにより色差情報が間引かれているため、輝度成分だけで差分絶対値和を求めて生成した動きベクトルを、色差成分にも適用して予測画像を生成しようとすると、本来は、原画像Topの色差成分と、参照画像Topの色差成分との差分をとるべきところが、参照画像Bottomの色差成分と差分をとることになったり、または、原画像Bottomの色差成分と、参照画像Bottomの色差成分との差分をとるべきところが、参照画像Topの色差成分と差分をとることになったりするため、対応関係にミスマッチングが発生してしまう。
すると、動き補償時には、予測誤差が大きくなり、符号化データの情報量の増大や画質劣化を引き起こすといった問題があった。このため、輝度成分に対する差分絶対値和の計算を、色差成分に対しても同様に行って、色差成分の差分絶対値和も含めての動きベクトルの検出を行えば、色差の大きなミスマッチを防ぐことは可能となるのだが、計算量がその分増えることになり、回路規模及び処理負荷の増大を招くことになる。
ここで、上記の問題点を一般化して表してみる。図12〜図16は問題点の一般化を説明するための図である。図12は矩形画像が水平方向のみに動いたときの動きベクトルの様子を示している。垂直成分+0の予測における輝度ベクトルV0を色差ベクトルとして使用してもミスマッチは起こらないことがわかる。
次に図16を見ると、この図は矩形画像が垂直方向に+4動いたときの動きベクトルの様子を示している。この場合も、垂直成分+4の予測における輝度ベクトルV4を色差ベクトルとして使用してもミスマッチは起こらない。
次に図13を見ると、この図は矩形画像が垂直方向に+1動いたときの動きベクトルの様子を示している。垂直成分+1の予測における輝度ベクトルV1を色差ベクトルとして使用すると、対応する画素が存在しないことがわかる。このような場合には、ハーフペル(半画素)補完を行って予測画素を生成する。
例えば、色差成分d1は、垂直成分+1の輝度ベクトルV1では、対応する画素が存在しないので、周辺の色差成分として、d2、d3から上述したような加重平均を求めて、色差成分d1を補完する。同様に、色差成分d4は、垂直成分+1の輝度ベクトルV1では、対応する画素が存在しないので、周辺の色差成分として、d3、d5から加重平均を求めて、色差成分d4を補完する。
図14は矩形画像が垂直方向に+2動いたときの動きベクトルの様子を示している。図10、図11で上述した内容と同じ現象であり、垂直成分+2の予測における輝度ベクトルV2を色差ベクトルとして使用すると、矩形領域内外の画素値が逆転する現象が生じる。
図15は矩形画像が垂直方向に+3動いたときの動きベクトルの様子を示している。この場合、垂直成分+3の予測による輝度ベクトルV3を色差ベクトルとして使用すると、図13と同様に対応する画素が存在しない。このときもハーフペル補完を行って予測画素を生成する。
例えば、色差成分e1は、垂直成分+3の輝度ベクトルV3では、対応する画素が存在しないので、周辺の色差成分として、e2、e3から加重平均を求めて、色差成分e1を補完する。同様に、色差成分e4は、垂直成分+3の輝度ベクトルV3では、対応する画素が存在しないので、周辺の色差成分として、e3、e5から加重平均を求めて、色差成分e4を補完する。
以上、まとめると、動きベクトルの垂直成分に対して、+0はミスマッチングが起きず、+1〜+3でミスマッチングが起きることになり、再び+4でミスマッチングが起きなくなる。すなわち、垂直方向4n+0のとき、ミスマッチングは起こらず、垂直方向4n+1、4n+2、4n+3のときミスマッチングが生じることになる(nは整数)。
また、矩形領域内外の画素値の逆転現象が生じ、最も大きなミスマッチングが生じて、予測誤差が大きくなるのは、4n+2の場合である。4n+1、4n+3の場合は、Topの色差成分とBottomの色差成分との間のハーフペル補完を行ったものとなり、4n+2と比べると大きな誤差になる可能性は低いが、それでもある程度の予測誤差が生じてしまう。
ここで、従来技術(特開2001−238228号公報)では、最もエラーが大きくなる垂直方向4n+2となる動きベクトルは完全に除外することで、予測誤差の低減化を図っている。しかし、上記で示したように、動きベクトル検出時には、4n+1、4n+3の場合においても予測誤差は発生するので、4n+1、4n+3で生じる予測誤差についても考慮した誤差低減化のための制御を行わなければ、符号化処理全体における画質向上にはつながらない。
また、伝送ビットレートが高く、伝送量に余裕があるなら、ある程度大きな予測誤差であっても伝送できる(受信側で復号化可能)。ところが、従来技術ではこういった伝送状態に関係なく、単に4n+2となる動きベクトルの除外を行っているので、このような場合にはかえって、画質劣化を引き起こす可能性がある。
したがって、本発明では、単に4n+2となる動きベクトルの除外を行うのではなく、回路規模及び処理負荷を大きく増大させずに、動きベクトル垂直成分の4n+1、4n+2、4n+3に対する予測誤差の低減化を図る制御を行い、動きベクトル検出・補償時に生じる色差成分のミスマッチを効率よく回避して、高品質の符号化処理を行う動きベクトル検出・補償装置及び画像符号化装置を提供するものである。
次に本発明の第1の実施の形態の動きベクトル検出・補償装置10において、動きベクトル検出部11の動作について詳しく説明する。図17はオフセット設定テーブルを示す図である。動きベクトルの垂直成分が4n+0のときは、上述のように、色差成分のミスマッチングは発生しないので、オフセットはゼロとする。
また、4n+1、4n+2、4n+3のときは、ミスマッチングが発生するが、4n+1と4n+3及び4n+2を比べると、4n+2の誤差は特に大きな値となり、4n+1、4n+3はどちらも同じような誤差となると考えられるので、4n+1、4n+3には同じオフセット値OfsAとし、4n+2はオフセット値OfsBを設定する。
次にオフセットの決め方について説明する。動きベクトル検出部11は、オフセットOfsA、OfsBを、伝送ビットレート、量子化パラメータ、色差エッジ状態(色差エッジが大きいか否か)、色差成分の予測誤差の少なくとも1つにもとづいて、適応的に設定する。オフセットOfsA、OfsBは、基本的には、量子化パラメータに応じて調整するが、伝送ビットレートや画像の色状態に応じて決定することもできる。
図18、図19は伝送ビットレートまたは色差エッジ状態に応じてのオフセット決定を説明するための図である。原画像のマクロブロックM1の予測ブロックを探索する場合を考える。
図18、マクロブロックM1に近似した参照画像のブロックM1a、M1bを示す。また、参照画像上において、動きベクトル垂直成分4n+0の位置のブロックM1aの平均差分絶対値が11、4n+1の位置のブロックM1bの平均差分絶対値が10であったとする。平均差分絶対値とは、2つのブロックの画素値の差分の絶対値を平均化した値であり、差分絶対値和を画素の数で割ったものに等しい。
ここで、マクロブロックM1の予測ブロックを求める場合、マクロブロックM1と、ブロックM1a、M1bそれぞれとの差分絶対値和が最小値となる方のブロックが予測ブロックとなるが、伝送ビットレートが低く、色差エッジが大きくて色差成分のミスマッチングの影響が大きくでると予想される場合には(量子化によって予測誤差の歪みが大きくでると予想される場合には)、たとえマクロブロックM1と4n+1のブロックM1bとの差分絶対値和の方が、マクロブロックM1と4n+0のブロックM1aとの差分絶対値和よりも小さい値であっても、4n+0のブロックM1aが選択されるようにオフセットOfsAを決定する。
この場合、例えばOfsA=257と設定して、マクロブロックM1と、ブロックM1a、M1bそれぞれとの平均差分絶対値を用いての差分絶対値和を計算すると、マクロブロックM1と4n+1のブロックM1bとの差分絶対値和dif1は、ブロックM1bの平均差分絶対値×256+OfsA=10×256+257=2817となる。
また、マクロブロックM1と4n+0のブロックM1aの差分絶対値和dif0は、ブロックM1aの平均差分絶対値×256+0(4n+0のオフセットはゼロ)=11×256=2816となる。
計算結果を比較すると、dif0(4n+0との差分絶対値和)<dif1(4n+1との差分絶対値和)⇔2816<2817となるので、実際の差分絶対値和の値は4n+1の方が小さいにもかかわらず、4n+1が選ばれないようにオフセットOfsAをあらかじめ加えておくことで、4n+0の方が差分絶対値和が小さくなり、こちらが選ばれるようになる。
すなわち、伝送ビットレートが低く、画像の色変化が大きい場合、4n+1の差分絶対値和の方が最小値となるような場合でも、4n+0のブロックの平均差分絶対値と、4n+1(または4n+3でも同様)のブロックの平均差分絶対値との差分が1以下程度であるならば、4n+0のブロックを選んでも輝度成分の誤差として顕著な画質劣化を与えないので、色差成分のミスマッチングが生じる4n+1を選ぶのではなく、4n+0のブロックが選ばれるようなオフセットOfsAを設定する。
同様に図19、マクロブロックM1に近似した参照画像のブロックM1a、M1cを示す。参照画像上の動きベクトル垂直成分4n+0のブロックM1aの平均差分絶対値が12、4n+2のブロックM1cの平均差分絶対値が10であったとする。
この場合、例えばOfsB=513と設定して、マクロブロックM1と、ブロックM1a、M1cそれぞれとの平均差分絶対値を用いての差分絶対値和を計算すると、マクロブロックM1と4n+2のブロックM1cとの差分絶対値和dif2は、ブロックM1cの平均差分絶対値×256+OfsB=10×256+513=3073となる。また、マクロブロックM1と4n+0のブロックM1aとの差分絶対値和dif0は、12×256=3072となる。
計算結果を比較すると、dif0(4n+0との差分絶対値和)<dif2(4n+2との差分絶対値和)⇔3072<3073となるので、実際の差分絶対値和の値は4n+2の方が小さいにもかかわらず、4n+2が選ばれないようにオフセットOfsBをあらかじめ加えておくことで、4n+0の方が差分絶対値和は小さくなり、こちらが選ばれるようになる。
すなわち、伝送ビットレートが低く、画像の色変化が大きい場合、4n+2の差分絶対値和の方が最小値となるような場合でも、4n+0のブロックの平均差分絶対値と、4n+2のブロックの平均差分絶対値との差分が2以下程度であるならば、色差成分のミスマッチングが生じる4n+2を選ぶよりも、輝度成分の誤差として2以下の4n+0のブロックを選んだ方が顕著な画質劣化を与えないものとして、4n+0のブロックが選ばれるようにオフセットOfsBを設定する。
一方、ある程度伝送ビットレートも高く、多少予測誤差が大きくても予測差分を受信側へ送りきることができる場合は、4n+0のブロックの選択されやすさを少なくすべき値の低いオフセット(例えば、OfsA=32、OfsB=64)を4n+1、4n+2、4n+3側に設定し、4n+0の動きベクトルの選ばれやすさを少な目にすることもできる。
次に動きベクトル検出処理の具体的なプログラムについて説明する。図20は動きベクトル検出処理のプログラム例を示す図である。通常のTV放送などに適用される720画素×480ラインの映像を例にとると、4:2:0フォーマットとしてフレームメモリに格納されるため、1フレームあたりのデータは、輝度成分で720画素×480ラインとなる。
また、原画像の輝度成分のデータをYo[y][x](x=0〜719, y=0〜479)、参照画像の輝度成分のデータをYr[y][x](x=0〜719, y=0〜479)とし、各成分の値が0〜255の範囲の値とすると、原画像のあるマクロブロック座標(Mx,My)に対しての差分絶対値和が最小となるフレーム予測動きベクトルVx,Vyは、例えば、図に示すようなプログラムの処理により求めることができる(ただし、Mx=0〜44、My=0〜29であり、abs(v)は、vの絶対値をとる関数とする)。
〔S1〕宣言文である。Rx、Ryはそれぞれ、参照画像上の水平方向、垂直方向の画素を示す。x、yは、原画像上の水平方向、垂直方向の画素を示す。Vx,Vyはそれぞれ、動きベクトルの水平成分、垂直成分を表す。また、ここでのVdiffは、差分絶対値和がとりえない値となるように、16×16個の各画素がすべて最大値255となった値に1を加算して、初期値として設定する。diffはオフセット値または差分絶対値和の計算結果を示す。
〔S2〕Ryを0〜(479−1)まで+1ずつ繰り返し、Rxを0〜(719−1)まで+1ずつ繰り返す。
〔S3〕参照画像上のブロックが存在するRyから、動きベクトルの垂直成分Myを引いた値を4で割って余りを求める。そして、余り0ならオフセット値としてdiff=0、余り1ならオフセット値としてdiff=OfsA、余り2ならオフセット値としてdiff=OfsB、余り3ならオフセット値としてdiff=OfsAとする。
〔S4〕yを0〜1まで+1ずつ繰り返し、xを0〜1まで+1ずつ繰り返し、原画像のマクロブロックと、参照画像のマクロブロックとの差分絶対値和を求める(図21で後述)。
〔S5〕前の差分絶対値和Vdiffと、計算で求めた差分絶対値和diffとを比較し、Vdiff>diffならば、diffをVdiffに置き換える。また、このときの画素のRx、RyをそれぞれVx、Vyとする。すなわち、ここでは、最小値の更新を行っている。
〔S6〕Vx−MxをVxに、Vy−MyをVyにして、Vx、Vyをベクトル表現に書き直す。
図21は差分絶対値和を求める際の画素探索の様子を示す図である。図20のステップS4から、原画像における任意の画素は、Yo[My*16+y] [Mx*16+x]であり、参照画像における任意の画素は、Yr[Ry+y] [Rx+x]で表せる。
原画像のマクロブロックM1と参照画像のブロックM2との差分絶対値和を求めるとする。マクロブロックM1は、マクロブロック座標(My,Mx)=(0,1)であるので、マクロブロックM1内の任意の画素は、Yo[My*16+y] [Mx*16+x]=Yo[0*16+y] [1*16+x]=Yo[y] [16+x]で表せる。
また、参照画像のブロックM2は、探索すべき最初の画素位置が16ライン目の16画素目に位置するので、ブロックM2内の任意の画素は、Yr[Ry+y] [Rx+x]=Yr[16+y] [16+x]で表せる。
ここで、xとyを0〜15まで増やすことで、ブロック内において、ステップS4で示した差分絶対値和の計算が実行される。例えば、x=0、y=0ならば、マクロブロックM1の画素Yo[y] [16+x]=Yo[0] [16]と、ブロックM2の画素Yr[16] [16]との差分の絶対値が計算される。また、x=15、y=15ならば、マクロブロックM1の画素Yo[y] [16+x]=Yo[15] [31]と、ブロックM2の画素Yr[31] [31]との差分の絶対値が計算される(このような計算が256回行われて差分絶対値和を求める)。
なお、上記のプログラム・ステップにおいて、ステップS3が本発明により追加した部分であり、その他のステップは、従来の動きベクトル検出処理で使用されている部分である。このように、本発明の機能は、動きベクトルの垂直成分によってオフセットを設定するプログラミングと、そのための回路を付加するだけで実行することができるので、回路規模及び処理負荷を大きく増大させずに、色差成分のミスマッチングを効率よく回避することが可能になる。
次に図22〜図35を用いて、図2、図3で上述したような、矩形が移動している場合の映像を、Top/Bottomフィールドを組み合わせたフレーム形式で見た場合の、参照画像と原画像で、背景の輝度値を200、矩形内部の輝度値を150とした場合に、動きベクトルの垂直成分の関係と、差分画像(検出した動きベクトルで画素を移動して生成した予測画像と、原画像との差分で求めた画像)の関係について説明する。
図22は動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図であり、図23はその差分画像を示す図である。図24は動きベクトルの垂直成分が4n+1の場合の参照画像と原画像を示す図であり、図25はその差分画像を示す図である。
また、図26は動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図であり、図27はその差分画像を示す図である。図28は動きベクトルの垂直成分が4n+3の場合の参照画像と原画像を示す図であり、図29はその差分画像を示す図である。
図22に対し、本来の図形の垂直方向の動きは+2であるため、図23の差分画像は完全に一致して全画素ともに差分0となり、差分絶対値和も0となるが、他の場合は差分が発生している。
図24に示す例の4n+1の場合は、図25で差分絶対値和は2300(=50×46)となる。図26に示す例の4n+0の場合は、図27で差分絶対値和は600(=50×12)となる。図28に示す例の4n+3の場合は、図29で差分絶対値和は2100(=50×42)となる。
このような場合、従来の方式では、差分絶対値和が最も小さくなる図22に示す動きベクトルが選択されることになるが、本発明ではオフセット量としてOfsBを例えば、600以上にすることで、本来の差分絶対値和が最小となる動きベクトルの垂直成分+2に代わって、垂直成分+0の動きベクトル(図26)を選択させることができる。
また、図30は動きベクトルの垂直成分が4n+1の場合の参照画像と原画像を示す図であり、図31はその差分画像を示す図である。図32は動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図であり、図33はその差分画像を示す図である。図34は動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図であり、図35はその差分画像を示す図である。
ここで、図30に対して、図形の垂直方向の動きが+1の場合、図31に示す差分絶対値和は0となるが、図32に示すように4n+0では、図33で差分絶対値和が2500となっており、図34に示すように4n+2では、図35で差分絶対値和が2300となっている。
このような場合も、従来方式では、差分絶対値和が最も小さくなる図30の動きベクトルが選択されることになるが、本発明によりオフセット量としてOfsAを例えば、2500以上にすることで、本来の差分絶対値和が最小となるベクトル+1に代わって、垂直成分+0の動きベクトル(図32)を選択させることができる。
次に矩形内部が一様な値でない場合について図36〜図39を用いて説明する。図36は動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図であり、図37はその差分画像を示す図である。図38は動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図であり、図39はその差分画像を示す図である。
図36の例は、図形の垂直方向の動きが+2の場合であるが、矩形内部が一様な値でなく、輝度値が水平方向に40のラインと水平方向に160のラインがある。
この場合、図37の差分画像は0となるが、図38、図39に示すように、垂直ベクトルを4n+0とした場合の差分絶対値和が9120(=160×12+120×6×10)と大きな値となっている。この場合でも、OfsBを9120以上にすれば、+2のベクトルではなく、+0のベクトルを選択させることが可能であるが、9120という値は、事実上、動き検出が当たっていない状態に近く、色差ミスマッチを防ぐために4n+0を選んだとしても、今度は輝度データのミスマッチが大きすぎて画質的に劣化が目立つようになる。このため、仮に色差ミスマッチが発生したとしても4n+2のベクトルを選択した方が、画質的には良いと考えられる。
極端に言えば、輝度成分の差分絶対値和の理論上の最大値である255×256=65280をOfsAやOfsBに設定すれば、色差のミスマッチの可能性のある4n+1、4n+3や4n+2のベクトルをすべて排除することが可能だが、輝度のミスマッチが極端に大きくなる場合は得策ではない。したがって、本発明では、OfsAやOfsBを適切に決めることで、輝度のミスマッチ量とバランスさせながら、色差のミスマッチの発生の可能性がある4n+1、4n+3や4n+2の動きベクトルの発生を抑制するものである。
次に色差成分の予測誤差にもとづいて、オフセットを決める方法について説明する。OfsA及びOfsBの値としては、ビットレートや絵柄に応じて適切な固定値を決めてもよいが、以下に述べるように、色差成分の予測誤差から適応的にOfsAまたはOfsBを算出することも可能である。
まず、動き補償部12において、色差成分に関する原画像から予測画像の差分を求める処理で得られたCb、Crの差分値に対して、あらたにCb差分値及びCr差分値それぞれの絶対値の和Cdiffを求める機能を追加する。
図40はCb差分値及びCr差分値それぞれの絶対値和Cdiffを求めるプログラムを示す図である。色差の動き補償後の差分画像データをdiff CB[][]、diff CR[][]とする。もともと、動き補償処理として、参照画像と原画像の差分を計算する処理は存在するため、Cdiffを求めるためのプログラムは、図中、下線を引いた部分だけである。
ここで、各マクロブロックについて、輝度成分による動き検出処理により求められた差分絶対値和Vdiffと、動き補償部12にあらたに設けた回路により求められた色差成分の差分絶対値和Cdiffとの関係は、輝度成分が16×16=256データであるのに対し、色差成分は4:2:0変換によりCbとCr各々8×8=64データで、CdiffはCbとCrの差分絶対値和の合算で128データ分に相当するため、Vdiff:Cdiff =2:1の関係と考えられる。このため、色差ミスマッチが発生していない理想状態では、以下の式(1)の関係となる。
Figure 2006041943
垂直ベクトルが4n+1、4n+3や4n+2の場合に、色差ミスマッチが発生していなければ、概ね上記の関係を満たすが、色差ミスマッチが発生すると、Cdiffの値が大きくなる(2×Cdiff>Vdiff)。このため、オフセットOfsA、OfsBは以下の式(2)、式(3)で設定してよい。
Figure 2006041943
ただし、iは垂直ベクトルが4n+1、4n+3となるマクロブロックの識別子で、n A はマクロブロックの個数とする。
Figure 2006041943
ただし、は垂直ベクトルが4n+2となるマクロブロックの識別子で、n B はマクロブロックの個数とする。
なお、この処理では、OfsA、OfsBが極端に大きな値になって、そもそも、垂直ベクトルとして、4n+1、4n+3や4n+2が全くでなくなってしまう問題があるため、実際の処理では、OfsA、OfsBが大きくなり過ぎないよう、上限を設けたり、処理が進むにしたがって、OfsA、OfsBを徐々に下げていくような処理を加えたり、またはシーンが大きく変わるような場合は、初期値に戻すなどすることで、OfsA及びOfsBが適切な値に収束するようにする必要がある。
また、ここでは本発明の本質的な原理説明のために、CdiffとVdiffの関係を式(1)のような簡略式としているが、実際には、輝度と色差ではダイナミックレンジが異なるし、モノクロに近い映像とカラフルな映像では輝度と色差のバランスが異なるために、これらのことを考慮して、本来は、以下の式(4)とする方がよい。
Figure 2006041943
ただしαは補正係数で、これは、システムのA/Dコンバータの特性など多くの要因が関係するため、ここでは方式を限定しないが、式(5)のように色差ミスマッチが発生していない状態でのVdiffとCdiffの関係を数画面分に渡って統計をとることで求めることも可能である。
Figure 2006041943
ただし、はVdiff()<OfsAかつVdiff()<OfsBとなるマクロブロックの識別子で、はマクロブロックの個数である。ここで、Vdiffに条件をつけているのは、OfsA、OfsBによりベクトルが強制的に4n+0の選択になっている場合の影響を避けるためである。
なお、補正係数をαとした場合のOfsA、OfsBは以下の式(6)、(7)となる。
Figure 2006041943
Figure 2006041943
次に本発明の第2の実施の形態について説明する。第1の実施の形態では、色差ミスマッチングを起こす可能性のあるフレーム予測で求めた動きベクトルの垂直成分4n+1、4n+3及び4n+2に対して、オフセットOfsA、OfsBを適応的に決めて、差分絶対値和にオフセットを加算しておくことで、4n+1、4n+3、4n+2の予測ブロックを選ばれにくくして、色差成分のミスマッチングを回避する構成とした。
一方、本発明の第2の実施の形態では、オフセットを加算するのではなく、フレーム予測と、フィールド予測とを適応的に切り替えることで、色差成分のミスマッチングを回避するものである。
図41は第2の実施の形態の原理図を示す図である。動きベクトル検出・補償装置20は、動きベクトル検出部21、動き補償部22から構成される。動きベクトル検出部21は、インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで動きベクトルを検出する際に、フレーム予測で検出した動きベクトル(以下、フレームベクトルとも呼ぶ)に対し、フレームベクトルがとりうる垂直成分に応じて、使用する動きベクトルを選択する。
具体的には、フレームベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、4n+0の場合は動きベクトルとしてフレームベクトルをそのまま使用する。
また、フレーム予測を行った結果、フレームベクトルが4n+1、4n+2、4n+3のいずれかになった場合は、フィールド予測に切り替えて再度動きベクトルを検出する(フィールド予測で検出した動きベクトルを以下、フィールドベクトルとも呼ぶ)。そして、フィールドベクトルを動きベクトルとして使用する。
動き補償部22は、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める。このように、フレームベクトルまたはフィールドベクトルのいずれかを選択することで、色差成分のミスマッチングを抑制する。
なお、MPEG2の符号化処理における動きベクトル検出では、マクロブロックの処理毎に、フレーム予測またはフィールド予測のどちらで動きベクトルを検出するかを決めることができる。通常、Topフィールド及びBottomフィールド共に、動きベクトルが揃っているような場合には、フレーム予測を行って動きベクトルを求めるが、TopフィールドとBottomフィールドの動きベクトルが揃っていないような場合には、フィールド予測を行って動きベクトルを求めることになる。
また、フレーム予測で動きベクトルを検出した場合、動きベクトルの情報は、参照画像から原画像へ向かう1つのベクトルの水平・垂直成分となる。また、フィールド予測で動きベクトルを検出した場合の動きベクトルの情報は、2本の動きベクトルが存在することになるので、それぞれのベクトルの水平・垂直成分と、参照画像のフィールドを示すフィールドセレクトとになる。
例えば、図41のフレーム予測の動きベクトルVbの情報は、ベクトルVbの水平・垂直成分となる。また、フィールド予測の動きベクトルVcの情報は、フィールドセレクトがTopで、かつベクトルVcの水平・垂直成分となる。また、動きベクトルVdは、フィールドセレクトがBottomで、かつベクトルVdの水平・垂直成分となる。
次にフレームベクトルの垂直成分が4n+1、4n+2、4n+3のいずれかになったときに、フィールド予測に切り替えてフレームベクトルを検出することで、色差成分のミスマッチングが回避できる理由について説明する。
図42はフィールド予測における色差成分のミスマッチング回避を説明するための図である。図11で上述したように、フレームベクトルが4n+2の場合、例えば、原画像のTopフィールドの色差成分c1に対して、本来は参照画像のTopフィールドの画素に対応すべきc2が、その位置に存在しないので、Bottomフィールドからの色差成分c3を用いて予測画素を生成していた。このために大きなミスマッチングが生じていたが、フィールド予測にすると、たとえ対応すべき位置に色差成分の画素c2が存在しなくても、同じフィールド内の最も近傍の画素c6を選ぶことになる。
すなわち、フレーム予測では、例えば、Topに対応する画素がなければ、近傍画素としてBottom側に位置する画素を持ってきてしまうので、誤差が大きくなったが、フィールド予測では、たとえTopに対応する画素がなくても、同じTopのフィールドの中から画素を補完するので(フィールド予測ではフィールドセレクトという情報があるため、同じフィールド内で補完可能である)、大きな誤差が生じなくなり、フレーム予測で生じていたような大きなミスマッチングが起きなくなる。
このように、第2の実施の形態では、輝度成分による動きベクトル検出処理時に、色差ミスマッチを起こす可能性のあるフレーム予測でベクトルの垂直成分4n+2、4n+1及び4n+3となった場合は、フレーム予測にせず、フィールド予測にすることで、色差のミスマッチが回避可能である。
しかし、フィールド予測はフレーム予測に対して、動きベクトルの情報量が大きくなるため、ベクトルデータのオーバーヘッドが大きくなる。よって、これを回避するため、マクロブロック内の色差エッジを検出する回路(色差エッジ検出部)を追加し、色差ミスマッチの影響が大きい場合に限って、フィールド予測に切り替えるようにする。
色差のミスマッチにより予測誤差が大きくなるのは、矩形画像内と矩形画像外の色差成分が大きく異なる場合である(なお、矩形内が黒で、矩形外が白であるような映像では色差エッジはない。なぜなら黒も白もCb、Crは同じ値であり、輝度値だけで白、黒が表現されるからである(ちなみに白のYは0xffで、黒のYは0x00である))。
例えば、矩形外が赤系の色(Cb<127、Cr>128)で、矩形内が青(Cb>128、Cr<127)といった場合、色差のミスマッチの影響が大きいが、矩形の内外が共に赤や青など、色差成分が似ていて、輝度成分のみが異なるというような場合は、例え色差のミスマッチが発生していても影響が少ない。
このように色差のミスマッチが発生しても、色差成分がもともと似ているなら影響は少なく、実際に、人物や風景などの映像の場合、色成分が大きく変化するのは稀であり、このような場合は、フレーム予測のままでも色差ミスマッチによる予測誤差の増大の影響はあまりない。一方、看板や字幕のエッジなど、色成分が大きく変化する場合に色差ミスマッチがおきると、看板や字幕の色が周囲の画像に滲み出たような見苦しい映像となるため、このような状態を判断するために、色差のエッジ判定回路を追加する。
次にフィールドベクトルの設定について説明する。図43はフレームベクトルとフィールドベクトルの垂直成分の対応表を示す図である。動き検出部からの動きベクトルが、フレーム予測で垂直成分4n+2、4n+1及び4n+3のいずれかであり、かつ色差エッジ検出部の結果が色差エッジありと判定された場合には、予測タイプをフィールド予測に切り替えて、図のテーブルに示すようなフィールドベクトルを検出する。
次に図44〜図46を用いて、図43に示したフィールドベクトルを図示して説明する。図44はフレームベクトル4n+2となったときのフィールドベクトルを示す図である。フレームベクトルが4n+2となったとき、フィールド予測にすると、フィールドベクトルは、Topの参照画像→Topの原画像へ向かう動きベクトルとして、Top側のフィールドベクトルの垂直成分は2n+1及びフィールドセレクトはTop、Bottomの参照画像→Bottomの原画像へ向かう動きベクトルとして、Bottom側のフィールドベクトルの垂直成分は2n+1及びフィールドセレクトはBottomとなる。
なお、輝度で2n+1のベクトルは、色差ではその半分の(n+0.5)のベクトルとなる。0.5の部分はハーフペル補完処理が行われ、近傍画素の平均として求められる。図の場合、色差成分f1、f2はそれぞれ(Ct(n)+Ct(n+1))/2、(Cb(n)+Cb(n+1))/2により求まる。
なお、フィールド予測のときに行われるハーフペル補完は、フレーム予測の4n+1、4n+3のときに行ったハーフペル補完と比べると誤差は少ない。なぜなら、フィールド予測のときに行われるハーフペル補完は、同一フィールド上(TopとTopまたはBottomとBottom)で行われるのに対し、フレーム予測のときに行われるハーフペル補完は、異なるフィールド上(TopとBottom)で行われるからである。
図45はフレームベクトル4n+1となったときのフィールドベクトルを示す図である。フレームベクトルが4n+1となったとき、フィールド予測にすると、フィールドベクトルは、Bottomの参照画像→Topの原画像へ向かう動きベクトルとして、Top側のフィールドベクトルの垂直成分は2n及びフィールドセレクトはBottom、Topの参照画像→Bottomの原画像へ向かう動きベクトルとして、Bottom側のフィールドベクトルの垂直成分は2n+1及びフィールドセレクトはTopとなる。
なお、輝度で、2n、2n+1のベクトルは、色差ではその半分のn、(n+0.5)のベクトルとなる。また、色差成分g1は、g2とg3から補完される。
図46はフレームベクトル4n+3となったときのフィールドベクトルを示す図である。フレームベクトルが4n+3となったとき、フィールド予測にすると、フィールドベクトルは、Bottomの参照画像→Topの原画像へ向かう動きベクトルとして、Top側のフィールドベクトルの垂直成分は2n+2及びフィールドセレクトはBottom、Topの参照画像→Bottomの原画像へ向かう動きベクトルとして、Bottom側のフィールドベクトルの垂直成分は2n+1及びフィールドセレクトはTopとなる。
なお、輝度で、2n+2、2n+1のベクトルは、色差ではその半分のn+1、(n+0.5)のベクトルとなる。また、色差成分h1は、h2とh3から補完される。
次に動きベクトル補正の機能をOFFすることについて説明する。インタレース走査された画像信号の動きベクトル検出を行うと、色差成分のミスマッチングが生じるので、第1の実施の形態ではオフセットの加算、第2の実施の形態ではフィールド予測への切り替えといった動きベクトル補正を行うことで、ミスマッチングの回避を行ったが、処理対象の画像信号がインタレース走査でないプログレッシブ(ノンインタレース)画像の場合には、色差ミスマッチングがそもそも発生しない。したがって、このような画像信号が入力した場合には、第1、第2の実施の形態は共に、上述したような動きベクトル補正は不要であり、動きベクトル検出部において、動きベクトル補正機能をOFFにする。
ただし、映画をTV放送などに合わせるため2:3プルアップと呼ばれる処理によってインタレース走査に変換した場合、本来は1つの映像を、時間的にTOP画像とBOTTOM画像に分けて入力されることになる。この場合は、インタレース走査ではあるものの、本来は同時刻であるTOP画像とBOTTOM画像を組みとしてフレーム化したものであるので、フレーム間では色差ミスマッチが発生しない。このような入力画像においては、画像入力処理の段階で、3:2プルダウンを行うが、3:2プルダウンを施してプログレッシブ化可能な映像に対しても、動きベクトルの補正機能はOFFとする。
図47は2:3プルアップ及び3:2プルダウンの処理を示す図である。映画素材の画像信号をTV放送のフォーマットに変換する場合、映画素材は1秒間に24コマ、TVは1秒間に30コマなので、24→30にコマ数を変換する必要がある。映画素材のフォーマットからTVのフォーマットに変換する処理を2:3プルアップ(またはテレシネ)と呼ぶ。
ここで、1フレームが1/24秒の映画素材のフレームA〜Dを、1フレームが1/30秒のTVのコマ数に変換すると、フレームAは、TopフィールドAT、BottomフィールドAB、TopフィールドATに変換され、フレームBは、BottomフィールドBB、TopフィールドBTに変換され、フレームCは、BottomフィールドCB、TopフィールドCT、BottomフィールドCBに変換され、フレームDは、TopフィールドDT、BottomフィールドDBに変換される。
すなわち、1フレームが1/24秒の4枚のフレーム((1/24)×4=1/6)が、1フィールドが1/60秒の10枚のフィールド(((1/60)×10=1/6)に変換される。
TV放送のフォーマットに変換された画像信号に、MPEGのエンコード処理を施す場合には、2:3プルアップで生成されたフィールドに、先に3:2プルダウンを施してからエンコードを行う。ここでの3:2プルダウンでは、符号化に無駄な重複しているフィールドF3、F8を省くことで、エンコード入力画像を生成する。
エンコード入力画像に対し、TopフィールドATと、BottomフィールドABは、元々1つの映画素材のフレームAから生成したものなので、これらのフィールド間に動きはない。他のフレームB〜Dに関するフィールドも同様である。したがって、TopとBottomからなるフレームであっても、3:2プルダウン後の画像信号にはフィールド間で動きがないので、このような画像信号の符号化を行う際には動きベクトル補正機能をOFFすることになる。
次に本発明の動きベクトル検出・補償装置を適用した、MPEG2等に使用される画像符号化装置について説明する。図48は第1の実施の形態の動きベクトル検出・補償装置10を含む画像符号化装置の構成を示す図である。
画像符号化装置30−1は、A/D部31、画像入力部32、動きベクトル検出・補償部10a、符号化部33、ローカルデコーダ34、フレームメモリ35、全体制御部36から構成される。また、符号化部33はDCT部33a、量子化部33b、可変長符号化部33cから構成され、ローカルデコーダ34は逆量子化部34a、逆DCT部34bから構成される。
A/D部31は、TV放送などのアナログ画像信号をデジタル信号に変換して輝度色差フォーマットとして、4:2:2フォーマットのデジタル画像信号を生成する。
画像入力部32は、4:2:2フォーマットの画像信号を4:2:0フォーマットの画像信号に変換する。4:2:0の画像信号は、フレームメモリ35に格納される。なお、全体制御部36は、フレームメモリ35内のフレーム画像の管理や各構成要素同士のインタフェース制御等を行う。
動きベクトル検出・補償部10aは、第1の実施の形態で上述した機能を有し、動きベクトル検出部11は、フレームメモリ35からマクロブロック単位の原画像とそれより大きな領域の参照画像を読み出し、原画像のマクロブロックに対して、オフセット加算によって求めた各画素の差分絶対値和が最も小さくなる、参照画像領域上の位置を動きベクトルとして算出する。
動き補償部12は、フレームメモリ35から画像信号を読み出し、検出された動きベクトルを用いて、原画像マクロブロックと参照画像の該当動きベクトル位置から予測画像を生成し、その差分を予測誤差としてDCT部33aに送信する。
DCT部33aは、予測誤差をDCT変換し、変換係数を量子化部33bに送信する。量子化部33bは、全体制御部36により指示された量子化パラメータにより変換係数を量子化し、逆量子化部34a及び可変長符号化部33cに送信する。可変長符号化部33cは、ハフマン符号化などの符号化処理を行って符号化データを生成し出力する。
逆量子化部34aは、量子化されたデータを、量子化パラメータにしたがって逆量子化し、逆DCT部34bに送信し、逆DCT部34bは、逆DCT変換して再生予測誤差を生成し、動き補償部12に送信する。動き補償部12では、予測画像に再生予測誤差を加算することで、ローカルデコード画像(次の処理で用いられる参照画像となる)を生成し、フレームメモリ35に出力する。
図49は第2の実施の形態の動きベクトル検出・補償装置20を含む画像符号化装置の構成を示す図である。画像符号化装置30−2は、図48で示した画像符号化装置30−1と基本的な構成は同じである。異なる箇所は、第2の実施の形態の機能を含む動きベクトル検出・補償部20aと、フレーム予測とフィールド予測を切り替えて動きベクトルを検出する際に、マクロブロック内の色差エッジを検出する色差エッジ検出部37とを含む点である。
色差エッジ検出部37は、画像入力部32から出力された画像信号をマクロブロック単位で色差エッジを検出し、フレームメモリ35に格納する。動きベクトル検出部21は、フレームメモリ35から読み出した原画像、参照画像及び色差エッジ情報にもとづいて動きベクトル検出を行う。その他の動作は同様なので説明は省略する。
以上説明したように、本発明の第1の実施の形態では、オフセット加算によって求めた各画素の差分絶対値和が最も小さくなる、参照画像領域上の位置を動きベクトルとして検出することで、従来の動き検出回路の構成に対して、簡単な機能追加だけで色差ミスマッチを抑止する効果が得られる。また、第2の実施の形態では、色差エッジの検出回路の追加により、色差ミスマッチが発生していてもほとんど予測誤差に影響ない場合は、動きベクトル補正を行わず、予測誤差に影響がある場合にのみ予測タイプをフレーム予測からフィールド予測に切り替えることで、符号化データの増大を最小限にすることができる。
なお、上記では、第1、第2の実施の形態を独立して示したが、両方を使って第1の実施の形態で緩くベクトルの制約を与え、第2の実施の形態では、第1の実施の形態で制限しきれなかったものをケアするといったことも可能である。
(付記1) 画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置において、
インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、
検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める動き補償部と、
を有することを特徴とする動きベクトル検出・補償装置。
(付記2) 前記動きベクトル検出部は、動きベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、原画像の処理ブロックと、4n+0の位置の参照画像のブロックとの差分絶対値和のオフセットはゼロに設定し、原画像の処理ブロックと、4n+1、4n+2、4n+3の位置の参照画像のブロックとの差分絶対値和のオフセットは、伝送ビットレート、量子化パラメータ、色差エッジ状態、色差成分の予測誤差の少なくとも1つにもとづいて、適応的に設定することを特徴とする付記1記載の動きベクトル検出・補償装置。
(付記3) 前記動きベクトル検出部は、伝送ビットレートが低く、色差エッジの変化が大きい場合には、4n+0のブロックの平均差分絶対値と、4n+1または4n+3のブロックの平均差分絶対値との差分が第1の閾値以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+1または4n+3側に設定し、または4n+0のブロックの平均差分絶対値と、4n+2のブロックの平均差分絶対値との差分が第1の閾値より大きい第2の閾値以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+2側に設定し、伝送ビットレートが高い場合には、4n+0のブロックの選択されやすさを少なくすべき値の低いオフセットを4n+1、4n+2、4n+3側に設定することを特徴とする付記2記載の動きベクトル検出・補償装置。
(付記4) 前記動き補償部で、色差成分に関する原画像から予測画像の差分を求める処理で得られたCb、Crの差分値に対して、前記動き補償部は、あらたにCb差分値及びCr差分値それぞれの色差差分絶対値和を求め、前記動きベクトル検出部は、輝度成分による輝度差分絶対値和をVdiff、前記色差差分絶対値和をCdiff、補正係数をαとした場合に、α×Cdiff>Vdiffとなるならば、4n+1、4n+3のオフセットOfsAは、iを4n+1、4n+3となるブロックの識別子、nをブロックの個数とした際に、
Figure 2006041943
で求め、
4n+2のオフセットOfsBは、iを4n+2となるブロックの識別子、nをブロックの個数とした際に、
Figure 2006041943
で求めることを特徴とする付記2記載の動きベクトル検出・補償装置。
(付記5) 前記動きベクトル検出部は、インタレース走査でない画像信号に対しては、前記動きベクトル補正の機能をOFFにし、かつインタレース走査の画像信号であっても、3:2プルダウン処理によりプログレッシブ化可能な画像信号に対しては、前記動きベクトル補正の機能をOFFにすることを特徴とする付記1記載の動きベクトル検出・補償装置。
(付記6) 画像信号の符号化処理を行う画像符号化装置において、
4:2:2フォーマットのデジタル画像信号を4:2:0フォーマットに変換する画像入力処理部と、
インタレース走査で4:2:0フォーマットの画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求め、予測画像に再生予測誤差を加算して、ローカルデコード画像を生成する動き補償部と、から構成される動きベクトル検出・補償部と、
予測誤差をDCT変換して変換係数を求めるDCT部と、変換係数を量子化して量子化値を求める量子化部と、量子化値を可変長符号化を施して、符号化データを生成する可変長符号化部と、から構成される符号化部と、
量子化値を逆量子化して逆量子化値を求める逆量子化部と、逆量子化値をIDCT変換して前記再生予測誤差を求めるIDCT部と、から構成されるローカルデコーダと、
複数フレームの画像信号を格納するフレームメモリと、
を有することを特徴とする画像符号化装置。
(付記7) 前記動きベクトル検出部は、動きベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、原画像の処理ブロックと、4n+0の位置の参照画像のブロックとの差分絶対値和のオフセットはゼロに設定し、原画像の処理ブロックと、4n+1、4n+2、4n+3の位置の参照画像のブロックとの差分絶対値和のオフセットは、伝送ビットレート、量子化パラメータ、色差エッジ状態、色差成分の予測誤差の少なくとも1つにもとづいて、適応的に設定することを特徴とする付記6記載の画像符号化装置。
(付記8) 前記動きベクトル検出部は、伝送ビットレートが低く、色差エッジの変化が大きい場合には、4n+0のブロックの平均差分絶対値と、4n+1または4n+3のブロックの平均差分絶対値との差分が第1の閾値以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+1または4n+3側に設定し、または4n+0のブロックの平均差分絶対値と、4n+2のブロックの平均差分絶対値との差分が第1の閾値より大きい第2の閾値以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+2側に設定し、伝送ビットレートが高い場合には、4n+0のブロックの選択されやすさを少なくすべき値の低いオフセットを4n+1、4n+2、4n+3側に設定することを特徴とする付記7記載の画像符号化装置。
(付記9) 前記動き補償部で、色差成分に関する原画像から予測画像の差分を求める処理で得られたCb、Crの差分値に対して、前記動き補償部は、あらたにCb差分値及びCr差分値それぞれの色差差分絶対値和を求め、前記動きベクトル検出部は、輝度成分による輝度差分絶対値和をVdiff、前記色差差分絶対値和をCdiff、補正係数をαとした場合に、α×Cdiff>Vdiffとなるならば、4n+1、4n+3のオフセットOfsAは、iを4n+1、4n+3となるブロックの識別子、nをブロックの個数とした際に、
Figure 2006041943
で求め、
4n+2のオフセットOfsBは、iを4n+2となるブロックの識別子、nをブロックの個数とした際に、
Figure 2006041943
で求めることを特徴とする付記7記載の動きベクトル検出・補償装置。
(付記10) 前記動きベクトル検出部は、インタレース走査でない画像信号に対しては、前記動きベクトル補正の機能をOFFにし、かつインタレース走査の画像信号であっても、3:2プルダウン処理によりプログレッシブ化可能な画像信号に対しては、前記動きベクトル補正の機能をOFFにすることを特徴とする付記6記載の画像符号化装置。
(付記11) 画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置において、
インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで動きベクトルを検出する際に、フレーム予測で検出した動きベクトルであるフレームベクトルに対し、フレームベクトルがとりうる垂直成分に応じて、使用する動きベクトルとして、フレームベクトルまたはフィールド予測に切り替えてフィールド予測で検出した動きベクトルであるフィールドベクトルのいずれかを選択する動きベクトル補正を行うことで、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、
検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める動き補償部と、
を有することを特徴とする動きベクトル検出・補償装置。
(付記12) 前記動きベクトル検出部は、フレームベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、4n+0の場合は動きベクトルとしてフレームベクトルを使用し、4n+1、4n+2、4n+3の場合はフィールド予測に切り替えてフィールドベクトルを検出して、フィールドベクトルを動きベクトルとして使用することを特徴とする付記11記載の動きベクトル検出・補償装置。
(付記13) 処理ブロック内で、色差成分のミスマッチングが生じる色差エッジが存在するか否かを判別する色差エッジ検出部をさらに有し、前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1、4n+2、4n+3のいずれかで、かつ色差エッジが検出された場合に、フィールド予測に切り替えることを特徴とする付記12記載の動きベクトル検出・補償装置。
(付記14) 前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1の場合は、Topフィールドのフィールドベクトルの垂直成分を2n及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとし、フレームベクトルの垂直成分が4n+2の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをBottomフィールドとし、フレームベクトルの垂直成分が4n+3の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+2及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとすることを特徴とする付記12記載の動きベクトル検出・補償装置。
(付記15) 前記動きベクトル検出部は、インタレース走査でない画像信号に対しては、前記動きベクトル補正の機能をOFFにし、かつインタレース走査の画像信号であっても、3:2プルダウン処理によりプログレッシブ化可能な画像信号に対しては、前記動きベクトル補正の機能をOFFにすることを特徴とする付記11記載の動きベクトル検出・補償装置。
(付記16) 画像信号の符号化処理を行う画像符号化装置において、
4:2:2フォーマットのデジタル画像信号を4:2:0フォーマットに変換する画像入力処理部と、
インタレース走査で4:2:0フォーマットの画像信号に対し、輝度成分だけで動きベクトルを検出する際に、フレーム予測で検出した動きベクトルであるフレームベクトルに対し、フレームベクトルがとりうる垂直成分に応じて、使用する動きベクトルとして、フレームベクトルまたはフィールド予測に切り替えてフィールド予測で検出した動きベクトルであるフィールドベクトルのいずれかを選択する動きベクトル補正を行うことで、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求め、予測画像に再生予測誤差を加算して、ローカルデコード画像を生成する動き補償部と、から構成される動きベクトル検出・補償部と、
予測誤差をDCT変換して変換係数を求めるDCT部と、変換係数を量子化して量子化値を求める量子化部と、量子化値を可変長符号化を施して、符号化データを生成する可変長符号化部と、から構成される符号化部と、
量子化値を逆量子化して逆量子化値を求める逆量子化部と、逆量子化値をIDCT変換して前記再生予測誤差とするIDCT部と、から構成されるローカルデコーダと、
複数フレームの画像信号を格納するフレームメモリと、
を有することを特徴とする画像符号化装置。
(付記17) 前記動きベクトル検出部は、フレームベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、4n+0の場合は動きベクトルとしてフレームベクトルを使用し、4n+1、4n+2、4n+3の場合はフィールド予測に切り替えてフィールドベクトルを検出して、フィールドベクトルを動きベクトルとして使用することを特徴とする付記16記載の画像符号化装置。
(付記18) 処理ブロック内で、色差成分のミスマッチングが生じる色差エッジが存在するか否かを判別する色差エッジ検出部をさらに有し、前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1、4n+2、4n+3のいずれかで、かつ色差エッジが検出された場合に、フィールド予測に切り替えることを特徴とする付記17記載の画像符号化装置。
(付記19) 前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1の場合は、Topフィールドのフィールドベクトルの垂直成分を2n及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとし、フレームベクトルの垂直成分が4n+2の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをBottomフィールドとし、フレームベクトルの垂直成分が4n+3の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+2及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとすることを特徴とする付記17記載の画像符号化装置。
(付記20) 前記動きベクトル検出部は、インタレース走査でない画像信号に対しては、前記動きベクトル補正の機能をOFFにし、かつインタレース走査の画像信号であっても、3:2プルダウン処理によりプログレッシブ化可能な画像信号に対しては、前記動きベクトル補正の機能をOFFにすることを特徴とする付記16記載の画像符号化装置。
本発明の動きベクトル検出・補償装置の原理図である。 矩形画像が左上から右下に向かって移動する様子を示す図である。 矩形画像が左上から右下に向かって移動する様子を示す図である。 4:2:2フォーマットと4:2:0フォーマットの関係を示す図である。 4:2:2フォーマットと4:2:0フォーマットの関係を示す図である。 矩形移動画像を輝度と色差に分けた4:2:0フォーマットを示す図である。 矩形移動画像を輝度と色差に分けた4:2:0フォーマットを示す図である。 矩形移動画像を輝度と色差に分けた4:2:0フォーマットを示す図である。 矩形移動画像を輝度と色差に分けた4:2:0フォーマットを示す図である。 4:2:0フォーマットの動きベクトルを示す図である。 4:2:0フォーマットの動きベクトルを示す図である。 問題点の一般化を説明するための図である。 問題点の一般化を説明するための図である。 問題点の一般化を説明するための図である。 問題点の一般化を説明するための図である。 問題点の一般化を説明するための図である。 オフセット設定テーブルを示す図である。 伝送ビットレートまたは色差エッジ状態に応じてのオフセット決定を説明するための図である。 伝送ビットレートまたは色差エッジ状態に応じてのオフセット決定を説明するための図である。 動きベクトル検出処理のプログラム例を示す図である。 差分絶対値和を計算する際の画素探索の様子を示す図である。 動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図である。 4n+2のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+1の場合の参照画像と原画像を示す図である。 4n+1のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図である。 4n+0のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+3の場合の参照画像と原画像を示す図である。 4n+3のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+1の場合の参照画像と原画像を示す図である。 4n+1のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図である。 4n+0のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図である。 4n+2のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+2の場合の参照画像と原画像を示す図である。 4n+2のときの差分画像を示す図である。 動きベクトルの垂直成分が4n+0の場合の参照画像と原画像を示す図である。 4n+0のときの差分画像を示す図である。 Cb差分値及びCr差分値それぞれの絶対値和Cdiffを求めるプログラムを示す図である。 第2の実施の形態の原理図を示す図である。 フィールド予測における色差成分のミスマッチング回避を説明するための図である。 フレームベクトルとフィールドベクトルの垂直成分の対応表を示す図である。 フレームベクトル4n+2となったときのフィールドベクトルを示す図である。 フレームベクトル4n+1となったときのフィールドベクトルを示す図である。 フレームベクトル4n+3となったときのフィールドベクトルを示す図である。 2:3プルアップ及び3:2プルダウンの処理を示す図である。 第1の実施の形態の動きベクトル検出・補償装置を含む画像符号化装置の構成を示す図である。 第2の実施の形態の動きベクトル検出・補償装置を含む画像符号化装置の構成を示す図である。 4:2:2フォーマットを示す図である。 4:2:0フォーマットを示す図である。 動きベクトル検出のイメージを示す図である。 動き補償のイメージを示す図である。
符号の説明
10 動きベクトル検出・補償装置
11 動きベクトル検出部
12 動き補償部
B 原画像の処理ブロック
B0 動きベクトル垂直成分4n+0のブロック
B1 動きベクトル垂直成分4n+1のブロック
B2 動きベクトル垂直成分4n+2のブロック
B3 動きベクトル垂直成分4n+3のブロック

Claims (10)

  1. 画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置において、
    インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、
    検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める動き補償部と、
    を有することを特徴とする動きベクトル検出・補償装置。
  2. 前記動きベクトル検出部は、動きベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、原画像の処理ブロックと、4n+0の位置の参照画像のブロックとの差分絶対値和のオフセットはゼロに設定し、原画像の処理ブロックと、4n+1、4n+2、4n+3の位置の参照画像のブロックとの差分絶対値和のオフセットは、伝送ビットレート、量子化パラメータ、色差エッジ状態、色差成分の予測誤差の少なくとも1つにもとづいて、適応的に設定することを特徴とする請求項1記載の動きベクトル検出・補償装置。
  3. 前記動きベクトル検出部は、伝送ビットレートが低く、色差エッジの変化が大きい場合には、4n+0のブロックの画素平均値と、4n+1または4n+3のブロックの画素平均値との差分が1以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+1または4n+3側に設定し、または4n+0のブロックの画素平均値と、4n+2のブロックの画素平均値との差分が2以下なら、4n+0のブロックが選択されるべき値の高いオフセットを4n+2側に設定し、伝送ビットレートが高い場合には、4n+0のブロックの選択されやすさを少なくすべき値の低いオフセットを4n+1、4n+2、4n+3側に設定することを特徴とする請求項2記載の動きベクトル検出・補償装置。
  4. 前記動き補償部で、色差成分に関する原画像から予測画像の差分を求める処理で得られたCb、Crの差分値に対して、前記動き補償部は、あらたにCb差分値及びCr差分値それぞれの色差差分絶対値和を求め、前記動きベクトル検出部は、輝度成分による輝度差分絶対値和をVdiff、前記色差差分絶対値和をCdiff、補正係数をαとした場合に、α×Cdiff>Vdiffとなるならば、4n+1、4n+3のオフセットOfsAは、iを4n+1、4n+3となるブロックの識別子、nをブロックの個数とした際に、
    Figure 2006041943
    で求め、
    4n+2のオフセットOfsBは、iを4n+2となるブロックの識別子、nをブロックの個数とした際に、
    Figure 2006041943
    で求めることを特徴とする請求項2記載の動きベクトル検出・補償装置。
  5. 前記動きベクトル検出部は、インタレース走査でない画像信号に対しては、前記動きベクトル補正の機能をOFFにし、かつインタレース走査の画像信号であっても、3:2プルダウン処理によりプログレッシブ化可能な画像信号に対しては、前記動きベクトル補正の機能をOFFにすることを特徴とする請求項1記載の動きベクトル検出・補償装置。
  6. 画像信号の符号化処理を行う画像符号化装置において、
    4:2:2フォーマットのデジタル画像信号を4:2:0フォーマットに変換する画像入力処理部と、
    インタレース走査で4:2:0フォーマットの画像信号に対し、輝度成分だけで画素の差分絶対値和を算出して動きベクトルを検出する際に、動きベクトルがとりうる垂直成分に応じて、あらかじめ差分絶対値和にオフセットを加算する動きベクトル補正を行って、オフセットが加算された差分絶対値和が最小値となるブロックと、処理ブロックとの位置のずれ量から、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求め、予測誤差に再生予測誤差を加算して、ローカルデコード画像を生成する動き補償部と、から構成される動きベクトル検出・補償部と、
    予測誤差をDCT変換して変換係数を求めるDCT部と、変換係数を量子化して量子化値を求める量子化部と、量子化値を可変長符号化を施して、符号化データを生成する可変長符号化部と、から構成される符号化部と、
    量子化値を逆量子化して逆量子化値を求める逆量子化部と、逆量子化値をIDCT変換して前記再生予測誤差を求めるIDCT部と、から構成されるローカルデコーダと、
    複数フレームの画像信号を格納するフレームメモリと、
    から構成される画像符号化装置。
  7. 画像信号の動きベクトルの検出及び動き補償を行う動きベクトル検出・補償装置において、
    インタレース走査で色差成分が間引かれたフォーマットを持つ画像信号に対し、輝度成分だけで動きベクトルを検出する際に、フレーム予測で検出した動きベクトルであるフレームベクトルに対し、フレームベクトルがとりうる垂直成分に応じて、使用する動きベクトルとして、フレームベクトルまたはフィールド予測に切り替えてフィールド予測で検出した動きベクトルであるフィールドベクトルのいずれかを選択する動きベクトル補正を行うことで、色差成分のミスマッチングを抑制した動きベクトルを検出する動きベクトル検出部と、
    検出した動きベクトルを用いて、予測画像を生成し、原画像と予測画像との差分である予測誤差を求める動き補償部と、
    を有することを特徴とする動きベクトル検出・補償装置。
  8. 前記動きベクトル検出部は、フレームベクトルの垂直成分4n+0、4n+1、4n+2、4n+3(nは整数)に対して、4n+0の場合は動きベクトルとしてフレームベクトルを使用し、4n+1、4n+2、4n+3の場合はフィールド予測に切り替えてフィールドベクトルを検出して、フィールドベクトルを動きベクトルとして使用することを特徴とする請求項7記載の動きベクトル検出・補償装置。
  9. 処理ブロック内で、色差成分のミスマッチングが生じる色差エッジが存在するか否かを判別する色差エッジ検出部をさらに有し、前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1、4n+2、4n+3のいずれかで、かつ色差エッジが検出された場合に、フィールド予測に切り替えることを特徴とする請求項8記載の動きベクトル検出・補償装置。
  10. 前記動きベクトル検出部は、フレームベクトルの垂直成分が4n+1の場合は、Topフィールドのフィールドベクトルの垂直成分を2n及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとし、フレームベクトルの垂直成分が4n+2の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをBottomフィールドとし、フレームベクトルの垂直成分が4n+3の場合は、Topフィールドのフィールドベクトルの垂直成分を2n+2及びフィールドセレクトをBottomフィールド、またはBottomフィールドのフィールドベクトルの垂直成分を2n+1及びフィールドセレクトをTopフィールドとすることを特徴とすることを特徴とする請求項7記載の動きベクトル検出・補償装置。
JP2004219083A 2004-07-27 2004-07-27 動きベクトル検出・補償装置 Expired - Fee Related JP4145275B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2004219083A JP4145275B2 (ja) 2004-07-27 2004-07-27 動きベクトル検出・補償装置
US11/000,460 US20060023788A1 (en) 2004-07-27 2004-12-01 Motion estimation and compensation device with motion vector correction based on vertical component values
EP20080167885 EP2026584A1 (en) 2004-07-27 2004-12-16 Motion estimation and compensation device with motion vector correction based on vertical component values
DE200460022280 DE602004022280D1 (de) 2004-07-27 2004-12-16 Bewegungsschätzung und -kompensationsvorrichtung mit Bewegungsvektorkorrektur basierend auf vertikalen Komponentenwerten
EP20040257850 EP1622387B1 (en) 2004-07-27 2004-12-16 Motion estimation and compensation device with motion vector correction based on vertical component values
KR20040108008A KR100649463B1 (ko) 2004-07-27 2004-12-17 움직임 벡터 검출·보상 장치
CNB2004101016874A CN100546395C (zh) 2004-07-27 2004-12-20 具有基于垂直分量的运动向量校正的运动估计和补偿设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004219083A JP4145275B2 (ja) 2004-07-27 2004-07-27 動きベクトル検出・補償装置

Publications (2)

Publication Number Publication Date
JP2006041943A true JP2006041943A (ja) 2006-02-09
JP4145275B2 JP4145275B2 (ja) 2008-09-03

Family

ID=34930928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004219083A Expired - Fee Related JP4145275B2 (ja) 2004-07-27 2004-07-27 動きベクトル検出・補償装置

Country Status (6)

Country Link
US (1) US20060023788A1 (ja)
EP (2) EP1622387B1 (ja)
JP (1) JP4145275B2 (ja)
KR (1) KR100649463B1 (ja)
CN (1) CN100546395C (ja)
DE (1) DE602004022280D1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110181508A1 (en) * 2009-06-25 2011-07-28 Pixart Imaging Inc. Image processing method and image processing module
JP2014143488A (ja) * 2013-01-22 2014-08-07 Nikon Corp 画像圧縮装置、画像復号装置およびプログラム

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
US20060120612A1 (en) * 2004-12-08 2006-06-08 Sharath Manjunath Motion estimation techniques for video encoding
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
AR052601A1 (es) * 2005-03-10 2007-03-21 Qualcomm Inc Clasificacion de contenido para procesamiento de multimedia
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US20070206117A1 (en) * 2005-10-17 2007-09-06 Qualcomm Incorporated Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video
US8948260B2 (en) * 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US20070171280A1 (en) * 2005-10-24 2007-07-26 Qualcomm Incorporated Inverse telecine algorithm based on state machine
US9131164B2 (en) * 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US8379723B2 (en) * 2006-06-27 2013-02-19 Intel Corporation Chroma motion vector processing apparatus, system, and method
JP2008042332A (ja) * 2006-08-02 2008-02-21 Toshiba Corp 補間フレーム作成方法及び補間フレーム作成装置
JP4762095B2 (ja) * 2006-09-20 2011-08-31 株式会社東芝 画像復号装置及び画像復号方法
JP2009010492A (ja) * 2007-06-26 2009-01-15 Hitachi Ltd 画像復号化装置及び画像変換回路
JP4678015B2 (ja) * 2007-07-13 2011-04-27 富士通株式会社 動画像符号化装置及び動画像符号化方法
CN101415122B (zh) * 2007-10-15 2011-11-16 华为技术有限公司 一种帧间预测编解码方法及装置
KR101336951B1 (ko) * 2007-11-02 2013-12-04 삼성전자주식회사 휴대 단말기 및 그 파노라마 이미지 촬영 모드 수행 방법
US9456192B2 (en) * 2007-12-14 2016-09-27 Cable Television Laboratories, Inc. Method of coding and transmission of progressive video using differential signal overlay
US8355077B2 (en) * 2008-03-27 2013-01-15 Csr Technology Inc. Adaptive windowing in motion detector for deinterlacer
US8345996B2 (en) * 2008-07-07 2013-01-01 Texas Instruments Incorporated Determination of a field referencing pattern
JP2010187116A (ja) * 2009-02-10 2010-08-26 Toshiba Corp 動画処理装置
JP5115498B2 (ja) * 2009-03-05 2013-01-09 富士通株式会社 画像符号化装置、画像符号化制御方法およびプログラム
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
CN101883286B (zh) * 2010-06-25 2012-12-05 无锡中星微电子有限公司 运动估计中的校准方法及装置、运动估计方法及装置
MX2013008691A (es) * 2011-02-10 2013-08-21 Panasonic Corp Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
US20120207212A1 (en) * 2011-02-11 2012-08-16 Apple Inc. Visually masked metric for pixel block similarity
KR101566366B1 (ko) * 2011-03-03 2015-11-16 한국전자통신연구원 색차 성분 양자화 매개 변수 결정 방법 및 이러한 방법을 사용하는 장치
WO2012118359A2 (ko) 2011-03-03 2012-09-07 한국전자통신연구원 색차 성분 양자화 매개 변수 결정 방법 및 이러한 방법을 사용하는 장치
JP5837575B2 (ja) 2011-04-12 2015-12-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US9167247B2 (en) * 2011-05-20 2015-10-20 Panasonic Intellectual Property Corporation Of America Methods and apparatuses for encoding and decoding video using inter-color-plane prediction
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
JP5865366B2 (ja) 2011-05-27 2016-02-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置
ES2779226T3 (es) 2011-05-31 2020-08-14 Sun Patent Trust Procedimiento de descodificación de vídeo y dispositivo de descodificación de vídeo
JP5729817B2 (ja) * 2011-06-29 2015-06-03 日本電信電話株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム及び動画像復号プログラム
EP2728878B1 (en) 2011-06-30 2020-02-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
CA2850595C (en) 2011-10-19 2020-09-08 Panasonic Corporation Picture coding method, picture coding apparatus, picture decoding method, and picture decoding apparatus
JP2013172323A (ja) * 2012-02-21 2013-09-02 Toshiba Corp 動き検出装置、画像処理装置および画像処理システム
WO2013189257A1 (en) * 2012-06-20 2013-12-27 Mediatek Inc. Method and apparatus of bi-directional prediction for scalable video coding
US20150023436A1 (en) 2013-07-22 2015-01-22 Texas Instruments Incorporated Method and apparatus for noise reduction in video systems
KR101582093B1 (ko) * 2014-02-21 2016-01-04 삼성전자주식회사 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법
US10277921B2 (en) * 2015-11-20 2019-04-30 Nvidia Corporation Hybrid parallel decoder techniques
US10764589B2 (en) * 2018-10-18 2020-09-01 Trisys Co., Ltd. Method and module for processing image data
WO2020084465A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Simplified coding of generalized bi-directional index
CN109597488B (zh) * 2018-12-12 2019-12-10 海南大学 空间展示平台角度距离主动适应方法
CN112333397B (zh) * 2020-03-26 2022-05-13 华为技术有限公司 图像处理方法和电子设备
CN112632426B (zh) * 2020-12-22 2022-08-30 新华三大数据技术有限公司 网页处理方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04207788A (ja) * 1990-11-30 1992-07-29 Sony Corp 画像信号符号化装置及び方法
US6005980A (en) 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
US7006571B1 (en) * 1997-06-03 2006-02-28 Hitachi, Ltd. Method of synthesizing interframe predicted image, and image coding and decoding method and device therefore
JP3712906B2 (ja) 2000-02-24 2005-11-02 日本放送協会 動きベクトル検出装置
JP3797209B2 (ja) * 2001-11-30 2006-07-12 ソニー株式会社 画像情報符号化方法及び装置、画像情報復号方法及び装置、並びにプログラム
US7116831B2 (en) * 2002-04-10 2006-10-03 Microsoft Corporation Chrominance motion vector rounding
JP4100067B2 (ja) 2002-07-03 2008-06-11 ソニー株式会社 画像情報変換方法及び画像情報変換装置
JP3791922B2 (ja) * 2002-09-06 2006-06-28 富士通株式会社 動画像復号化装置及び方法
US7057664B2 (en) * 2002-10-18 2006-06-06 Broadcom Corporation Method and system for converting interlaced formatted video to progressive scan video using a color edge detection scheme
JP2004219083A (ja) 2003-01-09 2004-08-05 Akashi Corp 振動発生機

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110181508A1 (en) * 2009-06-25 2011-07-28 Pixart Imaging Inc. Image processing method and image processing module
US8515203B2 (en) * 2009-06-25 2013-08-20 Pixart Imaging Inc. Image processing method and image processing module for a pointing device
JP2014143488A (ja) * 2013-01-22 2014-08-07 Nikon Corp 画像圧縮装置、画像復号装置およびプログラム

Also Published As

Publication number Publication date
KR20060010689A (ko) 2006-02-02
EP1622387B1 (en) 2009-07-29
CN1728832A (zh) 2006-02-01
JP4145275B2 (ja) 2008-09-03
EP1622387A2 (en) 2006-02-01
DE602004022280D1 (de) 2009-09-10
EP1622387A3 (en) 2007-10-17
KR100649463B1 (ko) 2006-11-28
CN100546395C (zh) 2009-09-30
EP2026584A1 (en) 2009-02-18
US20060023788A1 (en) 2006-02-02

Similar Documents

Publication Publication Date Title
JP4145275B2 (ja) 動きベクトル検出・補償装置
JP6582062B2 (ja) 画素の前処理および符号化
US7075993B2 (en) Correction system and method for enhancing digital video
US6509930B1 (en) Circuit for scan conversion of picture signal using motion compensation
US5453799A (en) Unified motion estimation architecture
US9247250B2 (en) Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
CN107615761B (zh) 用于像素处理和编码的方法、设备和计算机可读介质
US20080084932A1 (en) Controlling loop filtering for interlaced video frames
US6931062B2 (en) Decoding system and method for proper interpolation for motion compensation
JP2005318620A (ja) 適応時間予測を用いた動きベクトル検出
CN106973295B (zh) 视频编码方法/装置以及视频解码方法/装置
US20020001347A1 (en) Apparatus and method for converting to progressive scanning format
WO1999067952A1 (en) Method and device for converting number of frames of image signals
US6909750B2 (en) Detection and proper interpolation of interlaced moving areas for MPEG decoding with embedded resizing
JPH11298861A (ja) 画像信号のフレーム数変換方法および装置
US10674182B2 (en) Pixel pre-processing and encoding
US8767831B2 (en) Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
KR20010072186A (ko) 비디오 스트림 내의 오리지날 픽셀로부터 필러 픽셀을발생시키는 회로 및 방법
JP5259634B2 (ja) 画像処理装置、符号化装置、復号装置及びプログラム
KR100213287B1 (ko) 영상복호기의 에러보상장치
JP6531591B2 (ja) 映像符号化装置、映像符号化方法、及び映像符号化プログラム、並びに映像復号化装置、映像復号化方法、及び映像復号化プログラム
JP2004336817A (ja) 画像信号の符号化・復号化方式および装置
JP2001285870A (ja) ディジタル信号処理装置および方法、並びにディジタル画像信号処理装置および方法
JP2001313948A (ja) 動きベクトル変換装置及び方法
JP2001309389A (ja) 動きベクトル変換装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees