JP5573385B2 - 動画像符号化装置及び動画像符号化方法 - Google Patents

動画像符号化装置及び動画像符号化方法 Download PDF

Info

Publication number
JP5573385B2
JP5573385B2 JP2010131979A JP2010131979A JP5573385B2 JP 5573385 B2 JP5573385 B2 JP 5573385B2 JP 2010131979 A JP2010131979 A JP 2010131979A JP 2010131979 A JP2010131979 A JP 2010131979A JP 5573385 B2 JP5573385 B2 JP 5573385B2
Authority
JP
Japan
Prior art keywords
feature point
encoding
region
picture
header
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010131979A
Other languages
English (en)
Other versions
JP2011259216A (ja
Inventor
寛史 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010131979A priority Critical patent/JP5573385B2/ja
Publication of JP2011259216A publication Critical patent/JP2011259216A/ja
Application granted granted Critical
Publication of JP5573385B2 publication Critical patent/JP5573385B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像符号化装置及び動画像符号化方法に関する。
近年、動画像の符号化/復号技術は、テレビの地上デジタル放送への移行や、デジタルビデオカメラ、デジタルスチルカメラ、携帯電話などの普及により、生活に密接したものとなっている。
動画像の符号化では、主に、時間的に前後して入力される画像データ間の類似性、または入力画像における画素間の類似性を利用してデータの圧縮が行われている。
動画像の符号化を行う際に解析した、動き情報や色情報などは、監視カメラシステムや、スポーツなどのフォームチェック用途などにも使用することができる。また、上記動き情報やフレーム間の差分情報などを色差情報として表示することにより、ユーザは、目視により、その動きや差分情報を把握することが可能である。
特開平11−177991号公報 特開2000−184360号公報
従来の手法では、復号側では、本来の動画像の色差情報による色を表示させる場合と、動画像において注目したい領域(特徴点)を強調表示するための色差情報による色を表示させる場合の、どちらかを選択することになる。本来の色差情報による動画像符号化データと、強調表示用の色差情報による動画像符号化データの両方を残す場合は、2種類の動画像データを符号化できるように回路やメモリを追加するため、動画像符号化装置の回路面積が増大する問題があった。
動画像符号化装置は、動画像データから特徴点を含む領域を検出する特徴点検出部と、前記領域に対して、他の領域とは異なる符号化方式で符号化するように符号化方式を切り替える符号化方式切り替え部と、前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成するヘッダ生成部と、を有する。
開示の動画像符号化装置及び動画像符号化方法によれば、小規模の回路で2種類の符号化データを作成することができる。
第1の実施の形態の動画像符号化装置の一例を示す図である。 特徴点の強調表示手法Aの一例を示す図である。 特徴点の強調表示手法Bの一例を示す図である。 図2及び図3で示した特徴点の強調表示手法により強調表示されたマクロブロックの例を示している。 特徴点の強調表示手法Cの一例を示す図である。 図5で示した特徴点の強調表示手法により相対的に強調表示されたマクロブロックの例を示している。 第2の実施の形態の動画像符号化装置の一例を示す図である。 第2の実施の形態の動画像符号化装置による一例の処理の流れを示すフローチャートである。 符号化手法1の処理の流れを示すフローチャートである。 H.264の符号化データのフォーマット例を示す図である。 スライスヘッダの一例を示す図である。 復号ピクチャと参照ピクチャの遷移の様子を示す図である。 符号化手法2の処理の流れを示すフローチャートである。 符号化手法3の処理の流れを示すフローチャートである。 スライスヘッダの格納例と、復号時のスライスヘッダの選択例を示す図である。
以下、本発明の動画像符号化装置及び動画像符号化方法の実施の形態を、図面を参照しつつ説明する。
(第1の実施の形態)
図1は、第1の実施の形態の動画像符号化装置の一例を示す図である。
動画像符号化装置10は、特徴点検出部11、符号化部12、符号化方式切り替え部13、ヘッダ生成部14を有している。
特徴点検出部11は、入力される原画像の動画像データから特徴点を含む領域を検出する。特徴点とは、たとえば、予め指定された特定の色を示す領域、フレーム間での輝度の差分や動きベクトルが所定の値よりも大きい領域、ユーザが指定した領域などである。動きベクトルの大きさは、符号化部12からの情報をもとに検出される。
符号化部12は、動画像データに対してIピクチャ、Pピクチャなどのピクチャの種類に応じて、画面内予測符号化または画面間予測符号化の何れかの符号化方式により、符号化処理を行う。
符号化方式切り替え部13は、動画像データのピクチャの種類に応じて、符号化部12で画面内予測符号化または画面間予測符号化を行わせるか切り替えるとともに、特徴点を検出した動画像データの領域に対して、他の領域とは異なる符号化方式で符号化させる。たとえば、符号化方式切り替え部13は、特徴点を検出しなかった領域で画面間予測符号化を行う場合には、特徴点を検出した領域では画面内予測符号化を行わせる。また反対に、符号化方式切り替え部13は、特徴点を検出しなかった領域で画面内予測符号化を行う場合には、特徴点を検出した領域では画面間予測符号化を行わせる。どの符号化方式が適用されるかは、後述する特徴点の強調表示の仕方によって設定される。
ヘッダ生成部14は、特徴点を検出しない動画像データ(ピクチャ)に付加するヘッダを生成するとともに、特徴点を検出する動画像データに付加する特徴点強調用のヘッダを生成する。特徴点強調用のヘッダには、強調表示の仕方に応じた値が設定される。たとえば、特徴点を検出した領域に特定の色を付けて目立たせる場合には、その色の情報が含まれる。ヘッダは、符号化部12にて符号化されたデータとともに、たとえば、外部メモリ20に記憶される。そして、ヘッダは復号処理の際に用いられる。
以下、第1の実施の形態の動画像符号化装置10の動作を説明する。
たとえば、1フレームの原画の動画像データが特徴点検出部11に入力されると、特徴点検出部11は、予め設定した内容に応じて特徴点を検出する。たとえば、スポーツなどのフォームチェックを行う場合、動きベクトルの大きい箇所を強調表示したい。その場合、特徴点検出部11は、符号化部12での動き検出結果を参照して、フレーム間の動きベクトルが所定の大きさよりも大きい領域を特徴点として検出する。
特徴点が検出された場合、符号化方式切り替え部13は、特徴点が検出された領域(たとえば、マクロブロック)に対して、他の領域とは異なる符号化方式で符号化するように、符号化方式を切り替える。符号化部12は、符号化方式切り替え部13にて指定された符号化方式で符号化を行い、符号化データを、たとえば、外部メモリ20に記憶する。また、ヘッダ生成部14は、特徴点を検出しない動画像データに付加するヘッダを生成するとともに、特徴点を検出する動画像データに付加する特徴点強調用のヘッダを生成し、たとえば、外部メモリ20に記憶する。
符号化方式は、特徴点の強調表示の仕方に応じて切り替えられる。特徴点の強調表示の仕方として、たとえば、以下の3種(以下強調表示手法A,B,Cという)がある。
図2は、特徴点の強調表示手法Aの一例を示す図である。
図2では、H.264/AVC(Advanced Video Coding)のピクチャであるIDRピクチャ(instantaneous decoding refresh picture)とPピクチャ(inter predictive picture)を用いた処理の例を示している。また、図2では、通常再生時(特徴点の強調表示をしない時)と、特徴点の強調表示を行う場合について示している。
IDRピクチャは長期間参照ピクチャとして用いられ、Pピクチャは短期間参照ピクチャとして用いられる。通常再生時、あるマクロブロックを復号する際、たとえば、図2に示すように1フレーム前のピクチャにおける、ある領域を予測画(参照ピクチャ)として、図2の右側に示しているように、輝度と色差成分の差分画像との足し合わせから復号画が得られる。
これに対して、特徴点を強調表示する際には、長期参照ピクチャであるIDRピクチャが参照されるように、ヘッダ生成部14がヘッダを生成する。そして、ヘッダ生成部14がIDRピクチャに対して、たとえば、緑やピンクなど、強調表示用の色を設定することで、復号画はIDRピクチャに設定した色により強調されることになる。
この強調表示手法Aを用いる場合、符号化方式切り替え部13は、あるピクチャにおいて、特徴点を検出したマクロブロック以外については、画面内予測符号化を行うように切り替えを行う。これにより、復号時には、特徴点を検出したマクロブロックに対してのみ強調表示用の色を表示させることができる。
図3は、特徴点の強調表示手法Bの一例を示す図である。
図3では、通常再生と特徴点を強調表示する場合における、画面間予測符号化の際の重み付けの一例と、マクロブロックの復号の様子を示している。
重み付け後の輝度Yは、Y=(Y_pred×WeightY)+OffsetYで表される。ここで、Y_predは重み付け前の輝度Yの値であり、WeightYは輝度Yに対する重み係数(−128〜127)であり、OffsetYは輝度Yに対するオフセット(−128〜127)である。
重み付け後の色差Cは、C=(C_pred×WeightC)+OffsetCで表される。ここで、C_predは重み付け前の色差Cの値であり、WeightCは色差Cに対する重み係数(−128〜127)であり、OffsetCは色差Cに対するオフセット(−128〜127)である。以下、重み係数とオフセットを合わせて予測重み付け係数という。
通常再生時には、予測重み付け係数のうち、重み係数は、たとえば、輝度及び色差とも1であり、オフセットは0である。これに対して、特徴点を強調表示する際には、ヘッダ生成部14は、強調したい領域における色差の予測重み付け係数を、強調表示用の色に応じて変更することで、復号時に特徴点を強調表示させることができる。図3の例では、ヘッダ生成部14が色差の予測重み付け係数のうち、重み係数を127としオフセットも127と最大値を設定することで、予測画はピンク色として扱われピンク色で強調表示された復号画が得られる。
この強調表示手法Bを用いる場合も、符号化方式切り替え部13は、あるピクチャにおいて、特徴点を検出したマクロブロックに対しては画面間予測符号化、特徴点を検出しないマクロブロックに対しては画面内予測符号化を行うように符号化方式を切り替える。
ただし、強調表示手法Aとは異なり、画面間予測符号化で参照される参照ピクチャは、たとえば、通常の短期間参照ピクチャが用いられる。上記のように色差の予測重み付け係数を変更することにより、復号時には、特徴点を検出したマクロブロックに対してのみ強調表示用の色を表示させることができる。
図4は、図2及び図3で示した特徴点の強調表示手法により強調表示されたマクロブロックの例を示している。
動画像符号化装置10により、上記のような処理を行い、特徴点強調用のヘッダを生成することで、復号装置側では、特徴点を含むマクロブロックMB1,MB2,MB3,MB4が、たとえば、ピンクや緑などの目立つ色にて強調表示される。
図5は、特徴点の強調表示手法Cの一例を示す図である。
図5でも、通常再生と特徴点を強調表示する場合における、画面間予測符号化の際の予測重み付け係数の一例と、マクロブロックの復号の様子を示している。
重み付け後の輝度Yと色差Cは図3と同様の式で表されている。
通常再生時には、予測重み付け係数のうち、たとえば、重み係数は輝度及び色差とも1であり、オフセットは0である。これに対して、特徴点を強調表示する際には、ヘッダ生成部14は、特徴点を検出しなかった領域における色差の予測重み付け係数を変更する。図5の例では、ヘッダ生成部14が、色差の予測重み付け係数のうち重み係数を0とし、オフセットを127と設定することで、予測画は灰色として扱われ特徴点ではない領域の復号画は灰色となる。これにより、特徴点の領域を相対的に強調することができる。
この強調表示手法Cを用いる場合、符号化方式切り替え部13は、あるピクチャにおいて、特徴点を検出したマクロブロック以外について画面間予測符号化、特徴点を検出しないマクロブロックに対しては画面内予測符号化を行うように符号化方式を切り替える。図5に示すように色差の予測重み付け係数を変更することで、復号時には、特徴点を検出したマクロブロック以外を灰色(またはモノクロとしてもよい)などの目立たない色で表示させ、特徴点のマクロブロックを相対的に強調表示させることができる。
図6は、図5で示した特徴点の強調表示手法により相対的に強調表示されたマクロブロックの例を示している。
動画像符号化装置10により、図5で示したような処理を行い、特徴点強調用のヘッダを生成することで、復号装置側では、特徴点を含むマクロブロックMB5,MB6,MB7,MB8,MB9以外が、たとえば、灰色など目立たない色にて表示される。その結果、特徴点を含むマクロブロックMB5,MB6,MB7,MB8,MB9が相対的に強調表示される。
以上のように、第1の実施の形態の動画像符号化装置10によれば、特徴点を含む領域に対して、他の領域とは異なる符号化方式で符号化して、さらに特徴点を含む領域を強調表示させる情報を含むヘッダを生成する。これにより、特徴点の強調用の符号化データと非強調用の符号化データを別々に作成することなく、1回の符号化処理で作成できる。したがって、小規模の回路で、動画像データにおける特徴点の強調表示用の符号化データと非強調表示用の符号化データを作成することが可能となる。
(第2の実施の形態)
図7は、第2の実施の形態の動画像符号化装置の一例を示す図である。
なお、以下では、H.264/AVCによる動画像データの符号化を例にして説明する。
第2の実施の形態の動画像符号化装置50は、全体制御部51、予測誤差信号生成部52、整数変換部53、量子化部54、エントロピー符号化部55、逆量子化部56、逆整数変換部57、参照ピクチャ生成部58、フィルタ処理部59を有している。さらに動画像符号化装置50は、画面内予測部60、動き予測処理部61、重み付け予測処理部62、予測画像選択部63、特徴点検出部64を有している。
全体制御部51は、動画像符号化装置50の各部を制御するとともに、スライスヘッダを生成し、メモリ70のスライスヘッダ領域71に蓄積する。全体制御部51は、図1で示した動画像符号化装置10のヘッダ生成部14の機能を有する。
予測誤差信号生成部52は、原画像のピクチャにおいて、マクロブロックの画素データと、予測画像選択部63で選択された予測画像のマクロブロックの画素データとの差分を演算することにより、予測誤差信号を生成する。整数変換部53は、予測誤差信号生成部52からの予測誤差信号を整数変換した信号を出力する。量子化部54は、整数変換部53からの出力信号を量子化する。これにより、予測誤差信号の符号量が低減される。
エントロピー符号化部55は、量子化部54からの量子化データ、画面内予測部60からの出力データ、動き予測処理部61からの動きベクトル、重み付け予測処理部62からの予測重み付け係数をエントロピー符号化する。そして、エントロピー符号化部55は、符号化データを出力し、メモリ70のスライスデータ領域72に蓄積する。ここで、エントロピー符号化とは、シンボルの出現頻度に応じて可変長の符号を割り当てる符号化方式を指す。
逆量子化部56は、量子化部54からの量子化データを逆量子化する。逆整数変換部57は、逆量子化部56からの出力データに逆整数変換処理を施す。これにより、復号時の予測誤差が内部で生成される。
参照ピクチャ生成部58は、動き補償されたマクロブロックの画素データと、逆量子化部56及び逆整数変換部57によって復号された予測誤差信号とを加算する。これにより、動き補償された参照ピクチャのマクロブロックが生成される。
フィルタ処理部59は、マクロブロックのデータに対してデブロッキングフィルタ処理を行い、ブロックノイズの発生を抑制した後、参照ピクチャをメモリ70の参照ピクチャバッファ領域73に蓄積する。
画面内予測部60は、同じピクチャにおける周辺画素から、予測画像のマクロブロックを生成する。
動き予測処理部61は、原画像のマクロブロックと、メモリ70の参照ピクチャバッファ領域73から読み込んだ参照ピクチャのデータをもとに動きベクトルを算出する。そして、動き予測処理部61は、動きベクトルをもとに、メモリ70から読み込んだ参照ピクチャのデータに対して動き補償することにより、動き補償された予測画像のマクロブロックを生成する。
重み付け予測処理部62は、予測重み付け係数を、動き補償された予測画像のマクロブロックに適用したものを出力する。
予測画像選択部63は、画面内予測部60または重み付け予測処理部62のどちらか一方から出力される予測画像のマクロブロックを選択し、予測誤差信号生成部52及び参照ピクチャ生成部58に出力する。予測画像選択部63は、動画像符号化装置50が処理するピクチャの種類によって全体制御部51の制御に応じて、切り替えが指示されるとともに、特徴点検出部64からの指示によっても切り替えを行う。予測画像選択部63は、図1で示した符号化方式切り替え部13の機能を有している。
特徴点検出部64は、図1で示した動画像符号化装置10の特徴点検出部11の機能を有している。特徴点検出部64は原画像、動き予測処理部61から出力される動きベクトルの情報を入力して、特徴点を含むマクロブロックを検出する。また、特徴点検出部64は、特徴点を検出したマクロブロックを識別するための番号を保持するMB保持メモリ64aを有している。
なお、メモリ70は、動画像符号化装置50の内部に設けるようにしてもよい。
以下、図7で示したような動画像符号化装置50による動画像符号化方法の詳細を説明する。
図8は、第2の実施の形態の動画像符号化装置による一例の処理の流れを示すフローチャートである。
まず、全体制御部51は、特徴点検出部64に対して、特徴点検出を行わせるか否かの設定を行う(ステップS1)。ここでは、さらに、どのような特徴を検出するかの設定も行われる。たとえば、特定の色、またはフレーム間の動きベクトルの大きさにおいて特徴点とすべき閾値などが設定される。
そして、全体制御部51は、特徴点検出部64に設定された内容をもとに、特徴点検出処理を実施するか否かを判定する(ステップS2)。ここで、特徴点検出処理を行わないと判定された場合には、通常の符号化処理が行われる(ステップS3)。
特徴点検出処理を実施すると判定された場合、全体制御部51は、特徴点検出部64に対して、検出されるマクロブロックに対する符号化方式を設定する(ステップS4)。ここでは、前述した3つの強調表示手法A,B,Cに応じて、符号化方式が設定される。
全体制御部51は、符号化方式が画面間予測符号化であるか否かを判定し(ステップS5)、画面間予測符号化ではない場合には、前述した強調表示手法Cに対応した符号化手法3を実行させる(ステップS6)。符号化方式が、画面間予測符号化である場合には、全体制御部51は、参照ピクチャの切り替えが行われる符号化方式であるか否かを判定する(ステップS7)。参照ピクチャの切り替えが行われない場合には、全体制御部51は、前述した強調表示手法Bに対応した符号化手法2を実行させる(ステップS8)。参照ピクチャの切り替えが行われる場合には、全体制御部51は、前述した強調表示手法Aに対応した符号化手法1を実行させる(ステップS9)。
以下各符号化手法1〜3の詳細を説明する。
図9は、符号化手法1の処理の流れを示すフローチャートである。
特徴点検出部64は、全体制御部51の制御のもと、特徴点検出を実施するピクチャ間隔を設定する(ステップS10)。具体的には、特徴点検出部64は、入力される複数のピクチャのうち一部のピクチャに対して特徴点検出を行うように設定する。たとえば、特徴点検出部64は、数枚に1枚のピクチャ(たとえば、3枚に1枚)に対して、特徴点検出を行うように設定を行う。これにより、符号処理の処理時間が短縮される。符号化手法1及び後述する符号化手法2のように特徴点が検出されないマクロブロックに対して画面内予測符号化を用いる場合には符号量を抑制できる点で特に有用である。
なお、この設定は、図8で示したステップS1の処理において行うようにしてもよい。 次に、動画像符号化装置50は、前処理を行う(ステップS11)。前処理では、特徴点を強調表示するときの色合いの設定(ステップS11a)と、IDRピクチャの符号化が行われる(ステップS11b)。IDRピクチャは、スライスヘッダにより長期間参照ピクチャとして指定され、メモリ70に保存される。
図10は、H.264の符号化データのフォーマット例を示す図である。
H.264の符号化データは、AUD(アクセスユニットデリミタ)、SPS(シーケンスパラメータセット)、PPS(ピクチャパラメータセット)、SEI(付加データ)、Slice(スライス情報)を含んでいる。スライス情報はHeader(スライスヘッダ)とData(スライスデータ)を有している。
図11は、スライスヘッダの一例を示す図である。
スライスヘッダには、参照ピクチャを並べ変える処理を行う構文(シンタックス)(ref_pic_list_reordering)や、画面間予測符号化の際の予測重み付け係数を指定する構文(pred_wight_table)が含まれる。また、スライスヘッダには、デコード時の参照ピクチャを指定する構文(dec_ref_pic_marking)が含まれる。
図9のステップS11bの処理では、IDRピクチャに対して、long_term_reference_flagが“1”に設定され、長期間参照ピクチャとして指定される。
その後、全体制御部51にてPOC(ピクチャオーダーカウント)などのピクチャパラメータセットの生成が行われる(ステップS12)。ステップS11の処理で指定した強調用の長期間参照ピクチャは、復号の際に参照のために用いるものであるため、表示しなくてもよい。その場合、全体制御部51は、IDRピクチャに対して、後続の符号化ピクチャよりも大きなPOC値を与える。これにより、IDRピクチャを非表示とすることができる。なお、次のIDRピクチャについても、表示させないために、全体制御部51は次のIDRピクチャのスライスヘッダにおいて、no_output_of_prior_pics_flagを1に設定する。
次に、全体制御部51は、特徴点を強調しない場合に適用する特徴点非強調用のスライスヘッダを生成する(ステップS13)。
全体制御部51は、ステップS10の処理で設定されたピクチャ間隔に応じて、入力した原画像のピクチャが、特徴点の検出対象のピクチャであるか否かを判定する(ステップS14)。検出されたピクチャが、特徴点の検出対象のピクチャである場合には、全体制御部51は、特徴点強調用のスライスヘッダを生成する(ステップS15)。特徴点強調用のスライスヘッダは、たとえば、図11で示したref_pic_list_reorderingの部分を、特徴点非強調用のスライスヘッダとは異なるようにしたものである。
具体的には、全体制御部51は、スライスヘッダのref_pic_list_reorderingにおける変数RefPicList0[0]、RefPicList0[1](図示せず)を変更する。変数RefPicList0[0]、RefPicList0[1]は、参照ピクチャを示す変数である。特徴点を強調表示しないピクチャでは、変数RefPicList0[0]に短期間参照ピクチャ(たとえば、符号化対象のピクチャの1フレーム前のピクチャ)が設定され、変数RefPicList0[1]に長期間参照ピクチャが設定される。全体制御部51は、特徴点を強調表示するピクチャに対しては、変数RefPicList0[0]には長期間参照ピクチャ、変数RefPicList0[1]には短期間参照ピクチャを設定するように変更する。
上記のように設定したときの復号装置側の参照ピクチャの遷移の様子を以下に示す。
図12は、復号ピクチャと参照ピクチャの遷移の様子を示す図である。
復号ピクチャ番号、短期間参照ピクチャ、長期間参照ピクチャと、RefPicListの内容を示している。
復号するピクチャ番号2〜5において、短期間参照ピクチャは1つ前のピクチャ番号のピクチャとなる。ピクチャ番号1〜5において長期間参照ピクチャはピクチャ番号0のIDRピクチャとなる。
ピクチャ番号1のピクチャを復号する際には、RefPicListの[0]にピクチャ番号0が設定され、長期間参照ピクチャが参照ピクチャとして用いられる。その後のピクチャ番号2,3,4のピクチャの復号の際には、短期間参照ピクチャのピクチャ番号が、RefPicListの[0]に設定され、参照ピクチャとして用いられる。[1]には、長期間参照ピクチャのピクチャ番号0が設定される。
特徴点を強調表示するピクチャ(ピクチャ番号4)の復号の際には、長期間参照ピクチャのピクチャ番号0が、RefPicListの[0]に設定され、参照ピクチャとして用いられる。[1]には、短期間参照ピクチャのピクチャ番号3が設定される。
図9のフローチャートの説明に戻る。
上記のように特徴点強調用のスライスヘッダが生成されると、全体制御部51の制御のもと、入力された原画像のピクチャにおいてマクロブロックごとの符号化処理が開始される(ステップS16)。なお、符号化の際には、動き予測を行うので、全体制御部51は、特徴点非強調用のスライスヘッダを用いる。すなわち、参照ピクチャとして、短期間参照ピクチャを利用して動き予測が行われる。
特徴点の検出はマクロブロック単位で行われる。特徴点検出部64は、入力されるマクロブロックに特徴点が含まれるか否か判定する(ステップS17)。特徴点が検出されなかった場合には、特徴点検出部64は、そのマクロブロックに対して強制的に画面内予測による符号化を行うように、予測画像選択部63に対して指示する。これにより、予測画像選択部63は、画面内予測部60から出力される予測画像のマクロブロックを選択し、予測誤差信号生成部52及び参照ピクチャ生成部58に入力する。これにより、画面内予測による符号化が行われる(ステップS18)。
特徴点が検出された場合には、特徴点検出部64は、そのマクロブロックに対して強制的に画面間予測による符号化を行わせるように、予測画像選択部63に対して指示する。これにより、重み付け予測処理部62から出力される予測画像のマクロブロックが選択され、予測誤差信号生成部52及び参照ピクチャ生成部58に入力され、画面間予測による符号化が行われる(ステップS19)。また、特徴点検出部64は、特徴点が含まれたマクロブロックの番号をMB保持メモリ64aに保持する(ステップS20)。なお、マクロブロックの番号は、メモリ70に保持するようにしてもよい。
ステップS18またはステップS20の処理の後、全体制御部51は、1ピクチャの全てのマクロブロックについての処理が終了したか否か判定する(ステップS21)。全てのマクロブロックについての処理が終了していない場合には、ステップS16からの処理が繰り返される。全てのマクロブロックについての処理が終了していれば、ステップS26の判定処理が行われる。
ステップS14の処理において、入力された原画像のピクチャが特徴点検出対象ピクチャではないと判定された場合、全体制御部51の制御のもと、マクロブロックごとの符号化処理が開始される(ステップS22)。ここでの符号化方式は、画面内予測による符号化であっても画面間予測による符号化であってもよい。ただし、全体制御部51は、符号化方式が画面間予測による符号化であり、且つ参照領域が、特徴点が検出されたマクロブロックであるか否を判定する(ステップS23)。符号化方式が画面間予測による符号化であり、且つ参照領域が、特徴点が検出されたマクロブロックである場合、復号の際、参照領域が強調表示されたものになり、正しい復号処理が行われなくなる。これを避けるため、たとえば、特徴点検出部64または全体制御部51は、ステップS23の条件が満たされている場合には、該当マクロブロックに対して、符号化方式を画面内予測符号化にするように、予測画像選択部63の出力を強制的に切り替える。これにより、画面内予測による符号化が行われる(ステップS24)。
ステップS23の条件が満たされていない場合、またはステップS24の処理後、全体制御部51は、1ピクチャの全てのマクロブロックについての処理が終了したか否か判定する(ステップS25)。全てのマクロブロックについての処理が終了していない場合には、ステップS22からの処理が繰り返される。全てのマクロブロックについての処理が終了していれば、ステップS26の判定処理が行われる。
ステップS26の処理では、全体制御部51は、符号化対象の全ピクチャの符号化が終了したか否かを判定する(ステップS26)。全ピクチャの符号化が終了していない場合には、ステップS12からの処理が繰り返され、次のピクチャに対する符号化が行われる。全ピクチャの符号化が終了した場合には、符号化手法1の処理が終了する。
次に、符号化手法2の処理を説明する。
図13は、符号化手法2の処理の流れを示すフローチャートである。
ステップS30〜S33までの処理は、図9で示した符号化手法1のS10,S12〜S14の処理と同じである。符号化手法2では、参照ピクチャの切り替えは行われないので、符号化手法1のような前処理(ステップS11)は行われない。
符号化手法2では、特徴点強調用のスライスヘッダの生成処理(ステップS34)が符号化手法1のものと異なっている。
符号化手法2における特徴点強調用のスライスヘッダは、たとえば、図11で示したpred_wight_tableの部分を、特徴点非強調用のスライスヘッダとは異なるようにしたものである。
具体的には、全体制御部51は、スライスヘッダのpred_wight_tableにおける変数luma_weight_l0[i](以下weightと略す)、luma_offset_l0[i](以下offsetと略す)を特定の値に設定する。ここでiは、参照ピクチャリスト(RefPicList[i])のインデックス番号である。
画面間予測符号化の予測重み付け係数を用いてマクロブロックを符号化する際、予測画素値の色差CはC=Clip(参照画素値C_pred×weight+offset)(−128≦wight≦127,−128≦offset≦127)の式で計算される。なお、Clipは計算結果が0より小さければ0に、255より大きければ255に補正する演算である。
全体制御部51は、特徴点非強調用のスライスヘッダを生成する際には、色差用の予測重み付け係数を、weight=1、offet=0とする。これに対して、特徴点強調用のスライスヘッダを生成する際には、全体制御部51は、たとえば、weight=127、offet=127などと設定する。これにより、画面間予測符号化を用いた場合に、復号時には処理対象のマクロブロックの画素を、緑やピンクなどの目立った画素に強調表示することができる。
以降のステップS35〜S45の処理については、符号化手法1のステップS16〜S26の処理と同様である。
次に、符号化手法3の処理を説明する。
図14は、符号化手法3の処理の流れを示すフローチャートである。
ステップS50〜S53までの処理は、図13で示した符号化手法2のS30〜S33の処理と同じである。符号化手法3でも、参照ピクチャの切り替えを行わないので、符号化手法1のような前処理(ステップS11)は行わない。
符号化手法3では、特徴点強調用のスライスヘッダの生成処理(ステップS54)が符号化手法1,2のものと異なっている。符号化手法3における特徴点強調用のスライスヘッダは、符号化手法2と同様に、たとえば、図11で示したpred_wight_tableの部分を、特徴点非強調用のスライスヘッダとは異なるようにしたものであるが、予測重み付け係数の設定が異なる。
符号化手法3において、全体制御部51は、復号時に、特徴点を含まないマクロブロックを目立たない色(たとえば、灰色)で表示させるために、色差用の予測重み付け係数を、たとえば、weight=0、offset=127と設定する。
その後、符号化手法1,2と同様に、マクロブロックの符号化処理が開始され(ステップS55)、特徴点検出の判定(ステップS56)が行われる。ただし、符号化手法3では、特徴点検出部64は、特徴点が検出されなかったマクロブロックに対しては、画面間予測が行われるように予測画像選択部63を強制的に切り替え、画面間予測による符号化処理を行わせる(ステップS57)。そして、特徴点検出部64は、特徴点が検出されたマクロブロックに対しては、画面内予測が行われるように予測画像選択部63を強制的に切り替え、画面内予測による符号化処理を行わせる(ステップS58)。なお、符号化の際には、動き予測を行うので、全体制御部51は、特徴点強調用のスライスヘッダを用いず、特徴点非強調用のスライスヘッダを用いる。特徴点強調用のスライスヘッダは、復号時に用いられる。
これにより、復号時には特徴点以外のマクロブロックを、図6に示したように、灰色などの目立たない画素で表示することができ、特徴点を含むマクロブロックを相対的に強調表示することができる。
ステップS57またはステップS58の処理の後、全体制御部51は、1ピクチャの全てのマクロブロックについての処理が終了したか否か判定する(ステップS59)。全てのマクロブロックについての処理が終了していない場合には、ステップS55からの処理が繰り返される。全てのマクロブロックについての処理が終了していれば、ステップS63の判定処理が行われる。
ステップS53の処理において、入力された原画像のピクチャが特徴点検出対象ピクチャではないと判定された場合、全体制御部51の制御のもと、マクロブロックごとの符号化処理が開始される(ステップS60)。符号化手法3では、特徴点検出部64は、特徴点を検出しないピクチャのマクロブロックに対しては、強制的に画面内予測による符号化を行うように、予測画像選択部63を切り替えて、画面内予測による符号化処理を行わせる(ステップS61)。
ステップS61の処理後、全体制御部51は、1ピクチャの全てのマクロブロックについての処理が終了したか否か判定する(ステップS62)。全てのマクロブロックについての処理が終了していない場合には、ステップS60からの処理が繰り返される。全てのマクロブロックについての処理が終了していれば、ステップS63の判定処理が行われる。ステップS63の処理では、全体制御部51は、符号化対象の全ピクチャの符号化が終了したか否かを判定する。全ピクチャの符号化が終了していない場合には、ステップS51からの処理が繰り返され、次のピクチャに対する符号化が行われる。全ピクチャの符号化が終了した場合には、符号化手法3の処理が終了する。
以上のように、第2の実施の形態の動画像符号化装置50では、特徴点を含むマクロブロックに対して、他のマクロブロックとは異なる符号化方式で符号化して、さらに2種類のヘッダを生成する。これにより、特徴点の強調用の符号化データと非強調用の符号化データを別々に作成することなく、1回の符号化処理で作成できる。したがって、小規模の回路で、動画像データにおける特徴点の強調表示用の符号化データと非強調表示用の符号化データを作成することが可能となる。
ところで、全体制御部51は、符号化手法1〜3で生成した特徴点非強調用のスライスヘッダと、特徴点強調用のスライスヘッダを、スライスデータとは、異なるメモリ70の領域に格納する。
図15は、スライスヘッダの格納例と、復号時のスライスヘッダの選択例を示す図である。
メモリ70において、たとえば、特徴点非強調用のスライスヘッダは、特徴点非強調用スライスヘッダ領域71aに格納され、特徴点強調用のスライスヘッダは特徴点強調用スライスヘッダ領域71bに格納される。
図示しない復号装置は、特徴点非強調表示用のストリームを復号する際には、特徴点非強調用のスライスヘッダをそれぞれのピクチャ0〜nに対して適用して復号する。これに対して、復号装置が特徴点強調用のストリームを復号する際には、特徴点強調用のスライスヘッダを用いることになる。ただし、前述したように、数枚のピクチャに1枚の割合で特徴点を検出する場合には、特徴点を検出しないピクチャに対して特徴点非強調用のスライスヘッダが用いられる。その場合、復号装置側では、ピクチャごとに、特徴点非強調用スライスヘッダ領域71aと、特徴点強調用スライスヘッダ領域71bの何れからスライスヘッダを参照するのか選択する。この手間をなくすため、全体制御部51は、たとえば、符号化手法1〜3のステップS13,S32,S52で生成した特徴点非強調用のスライスヘッダを、ピクチャごとに、特徴点強調用スライスヘッダ領域71bの該当する領域に記憶する。そして、全体制御部51は、符号化手法1〜3のステップS15,S34,S54で特徴点強調用のスライスヘッダを生成した場合には、該当するピクチャの特徴点非強調用のスライスヘッダを上書きする。たとえば、図15では、ピクチャ2の特徴点を強調する場合の例について示している。この場合、特徴点強調用スライスヘッダ領域71bにおいて、ピクチャ2用のスライスヘッダが特徴点強調用のスライスヘッダであり、ピクチャ0,1,3用のスライスヘッダは、特徴点非強調用のスライスヘッダであることを示している。
このようにすることで、復号装置側では、特徴点調表示用のストリームを復号する際には、特徴点強調用スライスヘッダ領域71bのみを参照すればよいので、処理が簡略化できる。
以上、実施の形態に基づき、本発明の動画像符号化装置及び動画像符号化方法の一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。たとえば、図9、図13及び図14で示したフローでは、特徴点強調用のスライスヘッダを生成してから、特徴点検出や符号化方式の切り替えを行うようにしているが、特徴点検出や符号化方式の切り替えの後に特徴点強調用のスライスヘッダを生成してもよい。
以上説明した複数の実施の形態に関し、さらに以下の付記を開示する。
(付記1) 動画像データから特徴点を含む領域を検出する特徴点検出部と、
前記領域に対して、他の領域とは異なる符号化方式で符号化するように符号化方式を切り替える符号化方式切り替え部と、
前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成するヘッダ生成部と、
を有することを特徴とする動画像符号化装置。
(付記2) 前記符号化方式切り替え部は、前記他の領域に対して画面内予測符号化を行う場合には、前記領域に対して画面間予測符号化を行うように前記符号化方式を切り替え、前記他の領域に対して画面間予測符号化を行う場合には、前記領域に対して画面内予測符号化を行うように前記符号化方式を切り替えることを特徴とする付記1に記載の動画像符号化装置。
(付記3) 前記特徴点検出部は、順次入力される複数のピクチャのうち、一部のピクチャに対して前記領域の検出を行うことを特徴とする付記1または2に記載の動画像符号化装置。
(付記4) 前記ヘッダ生成部は、特徴点非強調用のヘッダを生成してメモリに記憶し、処理中のピクチャが前記領域の検出を行うピクチャである場合には、前記特徴点非強調用のヘッダを、生成した前記特徴点強調用のヘッダで上書きすることを特徴とする付記3に記載の動画像符号化装置。
(付記5) 前記領域に対して画面間予測符号化を行う場合、前記ヘッダ生成部は、前記領域のデータの復号の際に参照される参照ピクチャとして、特定の色が設定された長期間参照ピクチャを指定した前記特徴点強調用のヘッダを生成することを特徴とする付記1乃至4の何れか一項に記載の動画像符号化装置。
(付記6) 前記領域に対して画面間予測符号化を行う場合、前記ヘッダ生成部は、強調表示用の色に応じて色差用の予測重み付け係数を設定した前記特徴点強調用のヘッダを生成することを特徴とする付記1乃至4の何れか一項に記載の動画像符号化装置。
(付記7) 前記特徴点検出部は、前記特徴点を検出した前記領域の識別番号を保持し、特徴点を検出しないピクチャにおいて画面間予測符号化が行われる際に、前記識別番号で指定された前記領域が参照された場合、前記符号化方式切り替え部に、前記符号化方式を画面内予測符号化に切り替えさせることを特徴とする付記1乃至6の何れか一項に記載の動画像符号化装置。
(付記8) 前記領域に対して画面内予測符号化を行う場合、前記ヘッダ生成部は、前記他の領域に設定する色に応じて色差用の予測重み付け係数を設定した前記特徴点強調用のヘッダを生成することを特徴とする付記1乃至7の何れか一項に記載の動画像符号化装置。
(付記9) 特徴点検出部が動画像データから特徴点を含む領域を検出し、
符号化方式切り替え部が前記領域に対して、他の領域とは異なる符号化方式で符号化するように符号化方式を切り替え、
ヘッダ生成部が前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成することを特徴とする動画像符号化方法。
10 動画像符号化装置
11 特徴点検出部
12 符号化部
13 符号化方式切り替え部
14 ヘッダ生成部
20 外部メモリ

Claims (6)

  1. 動画像データから特徴点を含む領域を検出する特徴点検出部と、
    前記領域に対して、前記特徴点を含まない他の領域とは異なる符号化方式で符号化するように符号化方式を切り替える符号化方式切り替え部と、
    前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成するヘッダ生成部と、を有し、
    前記符号化方式切り替え部は、前記他の領域に対して画面内予測符号化を行う場合には、前記領域に対して画面間予測符号化を行うように前記符号化方式を切り替え、前記他の領域に対して画面間予測符号化を行う場合には、前記領域に対して画面内予測符号化を行うように前記符号化方式を切り替える、
    ことを特徴とする動画像符号化装置。
  2. 動画像データから特徴点を含む領域を検出する特徴点検出部と、
    前記領域に対して、前記特徴点を含まない他の領域とは異なる符号化方式で符号化するように符号化方式を切り替える符号化方式切り替え部と、
    前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成するヘッダ生成部と、を有し、
    前記特徴点検出部は、前記特徴点を検出した前記領域の識別番号を保持し、特徴点を検出しないピクチャにおいて画面間予測符号化が行われる際に、前記識別番号で指定された前記領域が参照された場合、前記符号化方式切り替え部に、前記符号化方式を画面内予測符号化に切り替えさせる、
    ことを特徴とする動画像符号化装置。
  3. 前記特徴点検出部は、順次入力される複数のピクチャのうち、一部のピクチャに対して前記領域の検出を行うことを特徴とする請求項1または2に記載の動画像符号化装置。
  4. 前記ヘッダ生成部は、特徴点非強調用のヘッダを生成してメモリに記憶し、処理中のピクチャが前記領域の検出を行うピクチャである場合には、前記特徴点非強調用のヘッダを、生成した前記特徴点強調用のヘッダで上書きすることを特徴とする請求項3に記載の動画像符号化装置。
  5. 前記ヘッダ生成部は、前記特徴点を含む動画像データに付加する前記特徴点強調用のヘッダと、前記特徴点を含まない動画像データに付加する特徴点非強調用のヘッダの2種類のヘッダを生成することを特徴とする請求項1または2に記載の動画像符号化装置。
  6. 特徴点検出部が動画像データから特徴点を含む領域を検出し、
    前記特徴点が検出されないピクチャにおいて画面間予測符号化が行われる際に、前記特徴点が検出された前記領域の識別番号で指定された前記領域が参照された場合、符号化方式切り替え部が符号化方式を画面内予測符号化に切り替えることで前記領域に対して、前記特徴点を含まない他の領域とは異なる符号化方式で符号化するように符号化方式を切り替え、
    ヘッダ生成部が前記領域を強調表示させる情報を含む特徴点強調用のヘッダを生成することを特徴とする動画像符号化方法。
JP2010131979A 2010-06-09 2010-06-09 動画像符号化装置及び動画像符号化方法 Expired - Fee Related JP5573385B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010131979A JP5573385B2 (ja) 2010-06-09 2010-06-09 動画像符号化装置及び動画像符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010131979A JP5573385B2 (ja) 2010-06-09 2010-06-09 動画像符号化装置及び動画像符号化方法

Publications (2)

Publication Number Publication Date
JP2011259216A JP2011259216A (ja) 2011-12-22
JP5573385B2 true JP5573385B2 (ja) 2014-08-20

Family

ID=45474902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010131979A Expired - Fee Related JP5573385B2 (ja) 2010-06-09 2010-06-09 動画像符号化装置及び動画像符号化方法

Country Status (1)

Country Link
JP (1) JP5573385B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102254118B1 (ko) * 2013-10-12 2021-05-20 삼성전자주식회사 인트라 블록 복사 예측을 이용한 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158410A (ja) * 2005-11-30 2007-06-21 Sony Computer Entertainment Inc 画像符号化装置、画像復号装置、および画像処理システム
JP4863936B2 (ja) * 2007-06-25 2012-01-25 株式会社ソニー・コンピュータエンタテインメント 符号化処理装置および符号化処理方法
JP5531327B2 (ja) * 2007-09-10 2014-06-25 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2011259216A (ja) 2011-12-22

Similar Documents

Publication Publication Date Title
US10701360B2 (en) Method and device for determining the value of a quantization parameter
KR102130480B1 (ko) 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
EP3598758B1 (en) Encoder decisions based on results of hash-based block matching
JP4014263B2 (ja) 映像信号変換装置及び映像信号変換方法
JP4724061B2 (ja) 動画像符号化装置
US8630347B2 (en) Video decoding apparatus and video decoding method
CN112740696B (zh) 视频编码和解码
AU2014388185A1 (en) Adjusting quantization/scaling and inverse quantization/scaling when switching color spaces
US20140192860A1 (en) Method, device, computer program, and information storage means for encoding or decoding a scalable video sequence
JP2008219876A (ja) 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置
JP5137687B2 (ja) 復号装置及び復号方法、プログラム
JP5573385B2 (ja) 動画像符号化装置及び動画像符号化方法
US20110249736A1 (en) Codeword restriction for high performance video coding
JPH09261530A (ja) 映像記録装置
JP5147546B2 (ja) 映像符号化装置及び映像復号化装置
JP2018129688A (ja) 映像符号化装置、映像符号復号システム、及び映像符号化プログラム
JP2007013398A (ja) ポストフィルタ、ポストフィルタリングプログラムおよび電子情報機器
JP5946980B1 (ja) 画像復号化方法
GB2509706A (en) Encoding or decoding a scalable video sequence using inferred SAO parameters
JP5911982B2 (ja) 画像復号化方法
JP5750191B2 (ja) 画像復号化方法
JP2010130402A (ja) 映像符号化装置及び映像復号化装置
JP2018050150A (ja) 画像符号化装置、画像符号化方法及びコンピュータプログラム
JPH11234679A (ja) 強制画面更新装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140616

R150 Certificate of patent or registration of utility model

Ref document number: 5573385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees