JP4939890B2 - 映像符号化装置、映像復号化装置及び映像復号化方法 - Google Patents

映像符号化装置、映像復号化装置及び映像復号化方法 Download PDF

Info

Publication number
JP4939890B2
JP4939890B2 JP2006271167A JP2006271167A JP4939890B2 JP 4939890 B2 JP4939890 B2 JP 4939890B2 JP 2006271167 A JP2006271167 A JP 2006271167A JP 2006271167 A JP2006271167 A JP 2006271167A JP 4939890 B2 JP4939890 B2 JP 4939890B2
Authority
JP
Japan
Prior art keywords
image
frame
simulation
specific
specific area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006271167A
Other languages
English (en)
Other versions
JP2008092301A (ja
Inventor
圭里 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006271167A priority Critical patent/JP4939890B2/ja
Priority to US11/860,823 priority patent/US8320691B2/en
Publication of JP2008092301A publication Critical patent/JP2008092301A/ja
Application granted granted Critical
Publication of JP4939890B2 publication Critical patent/JP4939890B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Description

本発明は、フレーム間符号化が行われる映像に対する映像符号化装置、映像復号化装置及び映像復号化方法に関する。
近年においては、映像を構成する時系列の画像に対して、MPEG等の動き補償を伴うフレーム間符号化を行う符号化手段を用いることにより、フレーム間符号化を行わない場合よりも動画像の画像データ量を低減する映像符号化装置や、符号化された映像或いは画像を復号化する映像復号化装置が広く用いられるようになった。
このような場合、従来例の映像符号化装置においては、符号化を行おうとする画像として特に煙、炎等のように時間的な変化が激しい、換言すると異なるフレーム間における対応する画像の動き量若しくはずれ量が大きい特定領域を含む画像が符号化対象となる場合には、フレーム間符号化に伴う予測誤差が大きくなりがちとなる。
予測誤差が大きくなる場合は、フレーム内で符号化を行うイントラピクチャ(I-pictureと略記)を多く入れるなどの対応を行う場合があるが、いずれにしても符号量が増大してしまうという問題がある。
なお、特許文献1には、煙の領域を検出する装置が開示されている。
しかしながら、この特許文献1における装置は、符号化或いは復号化を行う手段を開示していない。
特開2004−30225号公報
本発明は上述した点に鑑みてなされたもので、煙、炎等、動き量若しくはずれ量が大きい特定領域を含む映像に対して小さな符号量での符号化を可能とする映像符号化装置、その符号化に対する復号化を可能とする映像復号化装置及び映像復号化方法を提供することを目的とする。
本発明の一実施形態に係る映像復号化装置は、フレーム内符号化及びフレーム間符号化によって生成した符号化画像であって、前記フレーム間符号化に際して、色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を前記特定画像以外の背景画像又は置換画像で置換して生成された符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化手段と、前記符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行い、復号結果の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションによってシミュレーション画像を生成し、生成したシミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成手段と、を具備する。
本発明の映像復号化装置によれば、煙、炎等、動き量若しくはずれ量が大きい特定領域を含む映像に対して小さな符号量での符号化を可能とする。
また、本発明の映像復号化装置及び映像復号化方法によれば、前記小さな符号量での符号化された映像に対する復号化を可能とする。
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る映像符号化装置1の構成を示す。この映像符号化装置1は、入力される入力画像2に対して煙、炎等、動きが激しい或いは時間的な変化が大きい特定領域を検出する特定領域検出部3を有する。
つまり、煙、炎等、動きが激しい或いは時間的な変化が大きい特定領域の場合には、動き検出を伴うフレーム間符号化を行った場合にはその予測誤差或いはフレーム間符号化量が増大してしまう。
このため、本実施形態では、このような特性を示す特定領域を検出し、その特定領域に対してはそのままの状態では、フレーム間符号化を行わないようにする。
この特定領域検出部3により検出された特定領域を含むフレームの画像は、背景合成部4に入力される。
背景合成部4は、イントラピクチャ(I-pictureと略記)の以外の画像においては、特定領域部分の画像データを除去し、その特定領域部分を、より予測誤差が小さくできる背景画像等で置換した背景合成画像(或いは置換画像)を生成する。
なお、I-pictureは、フレーム内で符号化が行われる画像(フレーム)であり、これ以外の画像、つまりインターピクチャの画像は、フレーム間符号化が行われる。
背景合成部4から出力される背景合成画像は、所定画素数からなる(Macro Block等の)ブロックに分割されて画像符号化部5に入力され、この画像符号化部5は、入力される背景合成画像の各ブロックを符号化して出力画像22を生成する。この画像符号化部5は、通常広く採用されている画像符号化装置に該当する。
なお、背景合成部4は、I-pictureのフレームの場合には、特定領域部分の情報を生成する(この情報は映像復号時に用いられる)が、入力画像のまま、分割されたブロックを、画像符号化部5に出力する。
そして、後述する第2の実施形態等で説明する映像復号化装置31側においては、映像符号化装置1から出力される符号化された画像に対して、I-picture以外のフレームに対して、背景画像等で置換等された特定領域部分に対して、I-pictureにおける特定領域部分の情報を用いて煙、炎等の特性を示す特定領域を復号化する処理を行うことになる。 上記特定領域検出部3は、入力画像2が、煙等が有する色相に合致する領域か否かを検出する色相検出回路6と、この色相検出回路6により検出された領域を含むフレームを格納する第1のフレームバッファ7と、フレーム間の画像から動き若しくは画像間のずれ量を検出する動き/ずれ量検出回路8とを有する。
色相検出回路6は、入力画像のカラー画像を、例えばR、G、B成分に分解する。そして、色相検出回路6は、分解したRGB画像成分が、煙等が持つ特徴の1つとなるその色相範囲内に入るか否かを閾値と比較することにより検出する。
色相検出回路6による閾値との比較により、煙等の特定画像部分が有する色相範囲内にある特定領域の可能性を持つ候補領域と判定された場合には、そのフレームが第1のフレームバッファ7に格納され、次のフレームにおいても、色相検出回路6は同様の検出を行う。
そして、隣接するフレーム間で色相検出により、閾値以内で一致すると判定された両候補領域に対して、動き/ずれ量検出回路8は、例えば対応する両候補領域の中心位置間のずれ量による動き量や、対応する両画素値の差の2乗和(2乗の積算値)等の算出により、両候補領域間の動き量若しくはずれ量が閾値を超えるか否かを検出(判定)する。
動き/ずれ量検出回路8は、両候補領域間の動き量若しくはずれ量が閾値を超えるか否かを検出(判定)することにより、煙、炎等の特定画像が持つ主要な特徴としてのフレーム間符号化の際の予測誤差が大きくなって(従って、符号化量が増大しまう)特定領域であるか否かの判定を行う。
なお、動き/ずれ量検出回路8による上記2乗和等の算出の代わりに両候補領域間の動きベクトルの値の検出を行い、その値が閾値を超えるか否かにより特定画像に相当する特定領域であるか否かを判定しても良い。
そして、そのような判定が行われた特定領域部分に対して、次の背景合成部4は、その特定領域以外の例えば背景画像等で置換する処理を行う。
なお、特定領域検出部3は、色相検出と動き/ずれ量検出の他に、特定領域か否かの検出精度を上げるため、さらに濃度を調べる方法もある。具体的には、あるブロックに対して輝度値・色差の分散行列を求め、閾値に収まる成分の数を数えることで、煙等の特定画像部分が持つ特定領域であるか否かを判定することができる。
背景合成部4は、特定領域検出部3を経た画像における特定領域を除去する特定領域除去&背景生成回路9と、この特定領域除去&背景生成回路9により特定領域が除去された残りのフレーム画像部分を格納する第2のフレームバッファ10とを有する。
また、特定領域除去&背景生成回路9は、第2のフレームバッファ10から特定領域が除去された残りのフレーム画像部分を読み出し、その特定領域部分に背景画像等で置換して背景合成画像を生成して、その背景合成画像を複数のブロックに分割して、各ブロックを画像符号化部5に出力する。
なお、上述したように背景合成部4は、フレーム間符号化を行わない、つまり動きベクトルを検出しないI-pictureの場合には、入力画像2における特定領域部分を背景画像等で置換する処理を行うことなく、複数のブロックに分割して、各ブロックを、画像符号化部5に出力する。
(I-picture以外に対して)この背景合成部4における特定領域除去&背景生成回路9は、予測誤差が大きくなってしまう特定領域を、少なくともその特定領域以外となる背景画像等の所定画像で埋める(置換する)までの処理手順の概略は、
(a)I-pictureの前後の数フレームの画像から予測誤差が大きくなってしまう煙等の特定領域に対して、その特定領域でなく背景が映っているフレームを探す。
(b)そして、注目している特定領域を含むブロックと同じ位置のブロックを背景画像のブロックとして採用する。
(c)また、あるフレームの前後で背景が映っているものがあれば、動き補償した上で背景画像のブロックとして採用しても良い。
この他、特定領域を含むブロックを、上述した背景画像ではなく、特定領域の平均の色相、例えば特定領域が煙の場合には、煙の平均的な色相値となる白色のブロックで埋める等の処理を適用しても良い。つまり、特定領域を背景画像や置換画像等の所定画像で置換しても良い。
煙等、予測誤差が大きくなってしまう特定領域を背景画像で置換する方法についてさらに補足説明する。図2はI-pictureの次の(I-picture以外の)フレーム(1)とさらに次のフレーム(2)とを示す。また、ここでは、特定領域として煙の場合で示している。 図2の上側に示すようにI-pictureの前後(ここでは後)における注目しているフレーム(1)に特定領域として煙のブロックAが存在する場合、他のフレーム(2)の同位置のブロックA′が、そのフレーム(2)において煙領域でなければ背景画像として採用する。
一方、ブロックBのように他のフレーム(2)におけるブロックB′においても煙で完全に覆われている場合には、上述したように前後の数フレームから煙でなく、背景が映っているフレームを探し、そのフレームにおける背景のブロックが動きベクトルを持っている時は動き補償を行う。
また、煙のブロックAのように大部分が煙で覆われていて、残りの数画素の小さい部分が背景として見えている場合は、背景が映っている画素で最も距離が近い画素で背景を補間する。また、煙が映っている一連のフレームにおいて、時間変化に関係なく煙しかない全画素真っ白なブロックについては背景画像を探さずに周囲のブロックの画素値の平均を画素値として持つ単調なブロックを背景画像に設定する。
この場合、隣接する2つのI-pictureの間となる数フレーム程度だけ考えれば十分である。以上により、I-pictureの以外のフレームについては煙等が一切現れない背景合成画像が生成され、このブロックが画像符号化部5に入力される。
そして、画像符号化部5は、そのようなフレームのブロックに対して、本来の煙等の特定画像部分に対する動きベクトル検出を行うことなく、つまり特定領域部分が背景画像等で置換された背景合成画像に対して、通常のフレーム間符号化による画像符号化を行うことになる。
このため、本来の煙等を含む画像のままでフレーム間符号化を行った場合における予測誤差量が増大し、そのフレーム間符号化量が増大してしまうことを回避できるようになる。 この画像符号化部5は、入力される背景合成画像のブロックに対して減算を行う減算器11と、この減算器11の出力信号を離散コサイン変換(DCTと略記 )するDCT 回路12と、このDCT 回路12の出力信号を量子化して出力する量子化回路13とを有する。
なお、I-pictureのフレームの場合には、背景合成画像の代わりにI-pictureのブロックが減算器11をスルーして、DCT回路12に入力される。
この画像符号化部5は、入力されるブロックについてのDCT 係数あるいは後述する動きベクトルを可変長符号化したパケットに区切って、ビットストリーム信号の出力画像を出力する可変長符号化回路14を有する。
この画像符号化部5は、上記量子化回路13から出力されたDCT係数を逆量子化する逆量子化回路(図1ではIQと略記)15と、逆量子化されたDCT係数をさらに逆離散コサイン変換する逆DCT回路(図1ではIDCTと略記)16とを有する。
また、この画像符号化部5は、逆離散コサイン変換された画像を加算する加算器17と、この加算器17の出力を格納するフレームメモリ18と、このフレームメモリ18に格納されていた画像が入力され、動き補償された予測画像を作成する動き補償回路(或いは予測画像作成回路)19とを有する。なお、フレームメモリ18には、背景合成画像も入力される。
動き補償回路19により作成された予測画像は、減算器11と加算器17とに出力される。
また、画像符号化部5は、入力される背景合成画像(のブロック)と、フレームメモリ18に格納された画像を参照画像として動き検出を行う動き検出回路20と、この動き検出回路20から出力されるブロックの動きベクトルが入力されることにより、出力されるブロックへの動きを示す信号である動きベクトルを予測する動きベクトル予測回路21とを有する。
このような構成の画像符号化部5は、この画像符号化部5に入力される画像がI-pictureの場合には、イントラ符号化(フレーム内符号化)を行うのみであり、イントラ符号化されて可変長符号化回路14から、イントラ符号化された出力画像22が出力される。
これに対して、I-picture以外の場合には、フレームメモリ18に格納された画像を参照画像として、次に入力される背景合成画像のブロックに対して、参照画像のブロックとブロックマッチングを行う。そして、画像符号化部5は、参照画像のブロックからの動きベクトルを検出すると共に、動き補償された予測画像を作成して、入力される背景合成画像から予測画像を減算した予測誤差の画像データを符号化する。
つまり、I-picture以外の(インター)フレームの場合には、画像符号化部5は、フレーム間符号化を行う。この場合、上述したように煙等のように予測誤差が大きくなる特定領域は、周囲の背景画像等で置換されているので、予測誤差が大きくなることなく、フレーム間符号化を行うことができる。
従って、この映像符号化装置1を用いて動画像(映像)の符号化を行うことにより、その動画像におけるI-picture以外の各フレームは、煙等の各特定領域が予測誤差を小さくできる背景画像等の所定画像で置換されているので、小さなデータ量でフレーム間符号化を行うことができる。
本実施形態における映像符号化装置1による概略の動作は、図3のようになる。入力画像2は、映像符号化装置1に入力され、ステップS1において特定領域検出部3は、入力画像2から特定領域の検出を行う。
特定領域が検出された場合には、次のステップS2において例えば特定領域検出部3は、入力画像2がI-pictureか否かの判定を行う(換言すると、入力画像2をI-pictureとして符号化するか否かの判定を行う)。そしてI-pictureの場合には、次のステップS3において、そのI-pictureが画像符号化部5に送られ、この画像符号化部5は、I-picturとしてイントラ符号化を行う。
一方、ステップS1において特定領域が検出されない場合にも、ステップS4において入力画像2がI-pictureか否かの判定が行われる。そして、入力画像2がI-pictureの場合には、ステップS3に移り、I-pictureに対してイントラ符号化が行われる。
また、ステップS2において入力画像2がI-pictureでないと判定された場合には、ステップS5に進み、このステップS5において特定領域除去&背景合成部4は、特定領域部分を背景画像等で置換して背景合成画像を生成する。そして、次のステップS6において画像符号化部5は、I-picture以外の背景合成画像に対してフレーム間符号化を行う。
また、ステップS4において入力画像2がI-pictureでないと判定された場合にも、このステップS6においてフレーム間符号化が行われる。
このように動作する本実施形態は、入力画像2が煙等、動き量又はずれ量が大きく、予測誤差が大きくなる特定領域が有るか否かを特定領域検出部3により検出し、そのような特定領域が検出されない場合には通常の符号化処理を行う。
逆に、特定領域が検出された場合にはI-picture以外のフレームに対して、特定領域部分を背景画像等で置換して、フレーム間符号化を行う。
従って、本実施形態によれば、煙等、動き量又はずれ量が大きい特定領域を含む映像に対して小さな符号量での符号化が可能となる。
(第2の実施形態)
次に本発明の第2の実施形態を説明する。図4は、本発明の第2の実施形態に係る映像復号化装置31の構成を示す。
この映像復号化装置31は、第1の実施形態に係る映像符号化装置1により符号化された出力画像22のストリーム信号が入力されることにより、復号化の処理を行う。その際、最初のI-pictureのフレームにおける煙等の特定画像部分を利用して、I-picture以外のフレームにおける特定領域部分を復号(再生)する。
このため、この映像復号化装置31は、通常の映像復号化を行う第1の映像復号化部32に、特定領域部分に対する映像復号化を行う第2の映像復号化部33を備えている。 ストリーム信号は、第1の映像復号化部32を構成する可変長復号化回路34に入力される。
この可変長復号化回路34には、最初にI-pictureのフレームに対する符号化されたストリーム信号が入力され、可変長復号化回路34は、そのストリーム信号における可変長符号を、固定長の符号に戻し、逆量子化回路35に出力する。
また、I-pictureに続くI-picture以外のフレームの場合には、可変長復号化回路34は、同様に可変長符号を、固定長の符号に戻し、逆量子化回路35に出力すると共に、ストリーム信号における符号化された動きベクトルのデータ部分を抽出して動きベクトル再構成回路36に出力する。
動きベクトル再構成回路36は、入力された符号化された動きベクトルから動き補償処理で参照する動きベクトルの位置情報を算出する。そして、この動きベクトル再構成回路36は、算出した動きベクトルの位置情報を動き補償回路37に送る。動き補償回路37は、動きベクトルの位置情報を用いて、動き補償した予測画像を生成する。
逆量子化回路35は、固定長符号により予測残差の再生DCT係数値を生成し、逆DCT回路38に出力する。この逆DCT回路38は、例えば8×8個の係数を再生予測残差画像に変換し、加算器39に出力する。
加算器39は、再生予測残差画像に、動き補償回路37から出力される予測画像が第2の映像復号化部33を経て入力され、この予測画像を加算して、再生画像を生成する。なお、I-pictureの場合には、動き補償することなく、再生画像が生成される。
第2の映像復号化部33は、特定領域を除いた画像部分の場合には、動き補償回路37から出力される予測画像を加算器39に出力する。一方、特定領域部分の場合にはこの第2の映像復号化部33で生成した予測特定画像を加算器39に出力し、特定領域部分にこの予測特定画像を埋め込み、特定領域部分が予測特定画像で置換された再生画像が生成されるようにする。
この再生画像は、出力端子から出力画像として出力されると共に、フレームメモリ40に送られ、動き補償する際の参照画像としてフレームメモリ40に格納される。
このフレームメモリ40に格納された画像は、動き補償回路37に出力され、この動き補償回路37は、フレームメモリ40に格納されている画像を参照画像として動きベクトル再構成回路36から得られる動きベクトルの位置情報に基づいて動き補償し、予測画像を生成する。得られた予測画像は加算器39に出力され、次のフレームの再生画像の生成に利用される。
また、本実施形態においては、第2の映像復号化部33は、フレームメモリ40に格納された最初のI-pictureにおける煙等の特定画像部分を用いて、I-picture以外のフレームにおける特定領域部分に対応する予測画像(以下、予測特定画像という)を生成し、この予測特定画像で特定領域部分を置換して、再生画像を生成する処理を行う。
そのため、この第2の映像復号化部33は、最初のI-pictureの画像を用いて次のI-pictureが現れるまで、本来の画像となる煙等に相当する予測特定画像を生成する予測特定画像生成回路41と、この予測特定画像生成回路41により生成された予測特定画像をI-picture以外のフレームにおける特定領域に埋め込む等の処理により特定領域の特定画像として復号する特定画像合成回路42とを有する。
この予測特定画像生成回路41は、本実施形態においては予測特定画像としてシミュレーションによるシミュレーション画像を生成するシミュレーション画像生成回路41aを備えている。
シミュレーション画像による予測特定画像を生成するため、以下に示すようなNavier-Stokes方程式を利用する。I-picture以外のフレームにおける特定領域における元画像に相当する予測特定画像を生成するまでの手順の概略は以下のようになる。
(a)符号化された各フレームを復号化する。
(b)最初のI-pictureのフレームにおける煙等の特定画像の各位置に初期条件として速度ベクトルと圧力(及び必要に応じて外力)を与える。
(c)その初期条件の下で、離散化した2次元Navier-Stokes方程式を解いて次のフレームでの位置を予測し、予測特定画像を特定領域に埋め込み、合成して次のフレームを生成する。
(d)その予測特定画像を次のフレームを予測する画像として採用し、さらに速度ベクトルと圧力を初期条件として、(c)のように更に次のフレームを生成する。
(e)上記(c)(d)の操作を次のI-pictureが現れるまで繰り返し行い、I-pictureの間の各フレームにおける特定領域に対する予測特定画像を生成する。
なお、(c)において、予測特定画像を特定領域に埋め込み、特定画像を生成する処理を、最後に纏めて行うようにしても良い。以下では、この処理を最後に行う方法で説明する。
これらの手順に関して以下、説明する。
第1の実施形態で述べたとおり、I-picture以外のフレームにおいては煙等の本来の特定画像部分に相当する特定領域は、別の所定画像で置換されており、従って元画像の動きの情報は、符号化された後の情報には含まれていない。
そこで、除去されている煙等、元画像部分の動きを、シミュレーションにより生成されるシミュレーション画像により予測特定画像とする。
本実施形態では、元画像部分が例えば煙とし、煙の場合には、この煙を流体と見なしてその流体の振る舞いを記述する2次元Navier-Stokes方程式[数式1]を採用する。
また、2次元Navier-Stokes方程式を、x、y成分[数式2]に分け、それを離散化し、差分方程式[数式3]にすることによって近似的に解き、煙の動きを算出する。
[数式1]
(∂/∂t+(w・∇))w=ν・∇w−∇p−f(t,x,y) (1−1)
∇w=0 (1−2)
但し、∇=∂/∂x+∂/∂y、w=w(u,v)
[数式2]
(∂/∂t+u∂/∂x+v∂/∂y)u=ν・∇u−∂p/∂x−f(t,x) (2−1)
(∂/∂t+u∂/∂x+v∂/∂y)v=ν・∇v−∂p/∂y−f(t,y) (2−2))
[数式3]
圧力項:
u=p/4+dU +dU +2・dU/dU-(dU+dV)+f(t,x,y)/(Δx・Δy) (3−1)
x成分:
t+1=u+{ν・(r(u)−4u)-dP-u・dU-v・dU+f(t,x)}・Δt
(3−2)
y成分:
t+1=v+{ν・(r(v)−4v)-dP-u・dV-v・dU+f(t,y)}・Δt
(3−3)
但し、r(u)=u(x+Δx,y)+u(x-Δx,y)+ u(x,y+Δy)+u(x,y-Δy)、
dU=(ui+1-ui−1)/(2Δx),dU=(uj+1-uj−1)/(2Δy),Δx=Δy=1,
Δtはフレーム間隔の時間などである。
なお、数式1における(1−1)が2次元Navier-Stokes方程式であり、(1−2)により、煙の湧き出しが無い条件を課している。また、数式1におけるwは速度ベクトル、νは粘性係数、pは圧力、fは外力を示す。
また、(1−1)は、数式2の様にx,y成分に分けられる。
一般に、Navier-Stokes方程式は非線形偏微分方程式であり、一般解を具体的に求めることは困難である。そこでNavier-Stokes方程式を時間方向に離散化し、差分方程式にした上で積分することで解く。
そこで、数式2を差分方程式に直したものが数式3における(3−2)及び(3−3)となる。なお、(3−1)は、速度ベクトルのx成分を表す(3−2)及びy成分を表す(3−3)中における圧力項を表している。
このように差分化したNavier-Stokes方程式を解く際に重要になるのが初期条件の選び方である。初期条件を誤って選択すると、次々に求められる煙の画像が、次のI-pictureとの間で大きな乖離が生じかねない。そこで初期条件の設定は、例えば図5に示すように行う。
なお、図5は、上側が映像復号化装置31に順次入力される(実際には符号化された)フレームを示し、その下側にシミュレーションで生成される煙の予測特定画像を示す。図5の下側では、予測特定画像の部分を生成するが、上側のフレーム(i)と対応付けして示している。
図5の最も左に示すフレームは、最初のI-pictureのフレームを示し、このフレームにおける煙の画像部分に初期条件を設定する。
初期条件としては、煙を形成する各粒子の速度ベクトル、圧力、外力ベクトル、粘性係数の4つであるが、粘性係数に関しては、全フレームで一定とする。まず最初のI-pictureのフレーム(1)において、煙の各粒子に適当な初期条件を与える。図5では速度ベクトルu1x,v1yと圧力pの初期値u1x ,v1y 、pを設定した様子を示している。
そして次のフレーム(2)に対応する予測特定画像、次のフレーム(3)に対応する予測特定画像、という具合にして時系列的に次のI-pictureのフレーム(n)に相当するフレーム(n)における煙の予測特定画像を生成していく。
なお、図5ではフレーム(1)での速度ベクトルu1x,v1yが、フレーム(2)に対応する予測特定画像、I-pictureのフレーム(n)に対応するフレーム(n)における予測特定画像ではそれぞれu2x,v2y、unx,vnyのように変化する。
図5の最も右における下側に示すフレーム(n)まで、煙の予測特定画像(或いはシミュレーション画像)を生成したところで、その上に示す実際のI-pictureのフレーム(n)における実際の煙の画像との比較を行う。
比較を行う具体的な方策としては、例えば煙の画像領域における対応する画素値の差の絶対値の2乗和を取るなどして比較を行う。
ここで画素値とは輝度値及び色差値であり、輝度値のみ比較してもよいし、輝度値と色差値の両方を比較してもよい。
このようにして、初期条件を変更して複数組の煙の予測特定画像を生成する。そして、次のI-pictureの煙の画像領域との画素値の差の絶対値の2乗和が最も小さくなるときの初期条件を元のI-pictureの最適な初期条件として選ぶ。
さらに煙の各粒子の初期条件を摂動(小さく変動)させ、次のI-pictureの煙の画像領域との比較を行うことで各粒子の速度ベクトルと圧力を最適なものに選び、前の数フレームを(差分方程式を逆に解く、即ち微分することで)適宜修正しても良い。
但し、各フレームにおける煙の各粒子に働く外力に関しては、初期条件からNavier-Stokes方程式を解くことでは得られないので、各フレームの各粒子毎に外力を摂動させて、最適なものを選ぶようにしても良い。
具体的には、「I-pictureの煙の粒子の速度ベクトル、圧力の初期条件を一つ固定して、次のI-pictureまでのフレームの煙粒子の外力ベクトルを摂動させて、次のI-pictureとの差が最適になるように各フレームの各粒子の外力ベクトルを決定する」を、他の速度ベクトル等の初期条件で最適なものを探すごとに実行し、次のI-pictureとの差が最適になるようにする。このようにして自然な煙の流れを実現することができる。
このようにして、I-pictureとの差が最適になる煙の予測特定画像を生成できた場合には、時系列的に生成された煙の各予測特定画像を、各予測特定画像と最も近い関係になるフレームにおける所定領域に填め込むことにより、特定領域が特定画像で復号された再生画像を生成する。
図6は、本実施形態に係る映像復号化装置31による映像復号化方法の動作内容の概略を示す。
最初のステップS11において可変長復号化回路34は、入力されるストリ−ム信号(符号化画像)がI-pictureか否かの判定を行う。そして、I-pictureの場合にはステップS12に示すように第1の映像復号化装置32によりイントラ復号化(フレーム内復号化)が行われる。
また、この復号化されたI-pictureは、フレームメモリ40に格納され、ステップS13に示すように第2の映像復号化部33は、その特定領域の画像を用いて、I-picture以外のフレームの特定領域の元画像に対応する予測特定画像(シミュレーション画像)を生成する。
一方、I-pictureでない場合には、ステップS14に示すように、第1の映像復号化部32は、フレーム間復号化により、特定領域以外の画像を復号化する。そして、ステップS15において、ステップS13とステップS14でそれぞれ生成された画像が合成されて再生画像が生成される。
図6の映像復号化する処理方法においては、I-picture以外のフレームの特定領域は、その元画像よりも小さい符号量で符号化されているので、小さい符号量で符号化された映像の復号化ができる効果を有する。
次に図7により図5で説明した予測特定画像(シミュレーション画像)を生成する動作を説明する。
図7は、第2の映像復号化部33により、図5で説明した処理を行う動作内容を示すフローチャートである。図7では図5の場合と同様に特定画像が煙の場合で説明する。最初のステップS21において予測特定画像生成回路41は、最初のI-pictureの煙の画像領域における各点に適当な初期条件を設定する。
そして、次のステップS22においてこの予測特定画像生成回路41におけるシミュレーション画像生成回路41aを構成する例えばCPUは、次のI-pictureに至るまでの時間、上述したシミュレーションを行う。
次のステップS23において、CPUは、シミュレーションにより得られた次のI-pictureの煙に対応する煙の予測特定画像としてのシミュレーション画像とを比較する。
次のステップS24においてCPUは、この比較結果が閾値以下かの判定を行う。そして、閾値以下にならない場合には、ステップS25において設定された初期条件を変更して、ステップS22に戻る。
このようにして、ステップS24の判定処理において、比較結果が閾値以下になった場合には、ステップS26に進む。
ステップS26において特定画像合成回路42は、両I-picture間のフレームにおける特定領域をシミュレーション結果で置換する。そして、この処理を終了する。
このようにして、本実施形態は、I-picture以外の(インター)フレームにおいても煙等の元画像を、符号量が小さいストリーム信号としての画像符号化信号から生成することができる。
このように本実施形態によれば、符号量が小さくされた(符号化された)映像から復号化を行うことができる。
また、本実施形態によれば、映像符号化装置側から伝送する符号化された映像情報の伝送量を低減できる効果を有する。
(第3の実施形態)
次に本発明の第3の実施形態を説明する。第2の実施形態は、符号化された画像に対して映像復号時に、フレーム間符号化が行われるフレームにおける特定領域部分に対して、I-pictureの特定画像からシミュレーションで生成したシミュレーション画像で置換等する処理を適用した。
本実施形態は、符号化時にシミュレーションで生成したシミュレーション画像を生成する。また、この場合、シミュレーション画像を、符号化時における煙等の実際の特定画像(元画像)と比較し、その比較結果に応じてシミュレーション画像と、実際の特定画像を符号化する。
図8は本発明の第3の実施形態に係る映像符号化装置1Bの構成を示す。入力画像2は、図1に示した特定領域検出部3に入力され、特定領域検出部3は入力画像に特定領域が存在するか否かの有無及び存在する場合における特定領域を検出する。
この特定領域検出部3により特定領域が検出された場合の出力は、特定領域除去部9Aに入力されると共に、マルチプレクサ52の第1の入力端に入力される。
特定領域除去回路9Aは、特定領域検出部3により検出された特定領域を除去し、背景生成回路53に出力する。
背景生成回路53は、入力画像から特定領域を除去して、背景画像等で置換して背景合成画像を生成し、フレームバッファ51に出力すると共に、シミュレーション回路53に出力する。
フレームバッファ51には、入力画像2も入力される。そして、このフレームバッファ51は、入力画像から背景画像等で置換される特定領域を差し引いた特定領域部分の画像を画像比較回路54に出力する。
なお、I-pictureのフレームの場合には、特定領域除去回路9Aは特定領域を除去しないで、背景生成回路9Bを経てシミュレーション回路53とマルチプレクサ52に出力する。このシミュレーション回路53には、特定領域の情報も入力される。
このシミュレーション回路53は、I-pictureのフレームからその特定領域における煙等の画像部分に対してシミュレーションを行い、I-picture以外の各フレームにおける特定領域に対応するシミュレーション画像を生成して画像比較回路54に出力する。
また、このシミュレーション回路53は、このシミュレーション画像を生成する情報を符号化してマルチプレクサ52の他方の入力端に出力する。
画像比較回路54は、シミュレーション回路53から出力されるシミュレーション画像と、フレームバッファ51から出力される煙等の実際の特定画像部分とを比較して、その比較結果によりマルチプレクサ52の切換(選択)を制御する。
例えば、画像比較回路54は、シミュレーション画像と対応する特定画像部分とで各画素値の差の2乗和が閾値を超えるか否かを比較する。比較した結果が、閾値を超える場合には、マルチプレクサ52から入力画像2が画像符号化部5に出力されるように切換を制御する。なお、画像比較回路54は、比較結果が閾値を超える場合、その結果をシミュレーション回路53に戻し、さらに異なる初期条件でシミュレーションを行わせるようにすることもできる。
一方、画像比較回路54は、閾値以下となる場合には、背景合成画像にシミュレーション画像を生成する情報が付加された状態で画像符号化部5に出力されるように切換を制御する。
従って、画像符号化部5は、シミュレーション画像と対応する特定画像部分とが閾値を超えるずれが検出された場合には、実際に煙等を含む入力画像2に対して、通常の画像符号化を行う。一方、閾値以下のずれの場合には、画像符号化部5は、特定領域が置換された背景合成画像とシミュレーション画像を生成する情報に対して符号化を行う。
また、上記特定領域検出部3により特定領域が検出されない場合には、入力画像2は、この画像符号化部5を構成する減算器11、フレームメモリ18、動き補償回路19、動き検出回路20に入力され、画像符号化部5は、通常の画像符号化を行う。
なお、マルチプレクサ52からの出力信号は、画像符号化部5における減算器11,フレームメモリ18、動き補償回路19,動き検出回路20に入力される。図8における画像符号化部5におけるその他の構成は、図1にて説明したのでその説明を省略する。
本実施形態に係る映像符号化装置1Bは、例えば図9に示すような動作を行う。
最初のステップS31において、入力画像2が煙等の特定画像を含むか否かを特定領域検出部3により検出する。
特定領域が検出されない場合には、ステップS37に進み、入力画像2を通常の方式で符号化する。つまり、特定領域が検出されない場合には、既存の方式と同様に画像符号化部5により符号化を行う。
一方、特定領域が検出された場合には、ステップS32に進み、I-picture以外の場合には、特定領域除去回路51は、入力画像2から特定領域を除外し、背景生成回路9Bは背景画像等を挿入し、背景合成画像を生成する。なお、I-pictureの場合には、このフレームと、その場合における特定領域の情報がシミュレーション回路53に入力される。
次のステップS33においてシミュレーション回路53は、最初のI-pictureにおける特定領域の画像に対して、初期条件を設定して、第2の実施形態において説明したように各フレームに対応するシミュレーション画像を次のI-pictureに至るまで順次、生成する。 そして、次のステップS34において、画像比較回路54は、シミュレーション画像と、実際に入力される各フレームにおける特定領域の画像とに対して、例えば特定領域のMacro Block毎に対応する画素値の差の2乗和を算出する。
そして、次のステップS35において、画像比較回路54は、対応する画素値の差の2乗和の特定領域の1Macro Block当たりの平均値が閾値を超えるか否かを比較(判定)する。
この比較結果が閾値を超える画像のフレームに対しては、ステップS37に示すようにそのフレームを既存の方式と同様に画像符号化部5により通常の画像符号化を行う。つまり、I-picture以外のフレームにおいても煙等の元画像を含む状態のまま、そのフレームを画像符号化する。なお、この場合、閾値を超える場合には、初期条件を変更して同様の処理を繰り返すようにしても良い。
そして、初期条件を変更して、閾値以下になる場合には、ステップS36に進むようにし、初期条件を変更して設定された回数、同様の処理を行っても、閾値を超える場合にはステップS37に進むようにしても良い。
一方、比較結果が閾値を超えないフレームのものに対しては、ステップS36に示すように、そのフレームにおける特定領域を除いた背景画像部分を既存の方式と同様に画像符号化部5により符号化を行う。この場合、特定領域部分に対しては、画像符号化部5によりシミュレーション画像を生成する情報を符号化する。
このような処理を行うことにより、シミュレーションによるシミュレーション画像が適正に生成された場合には、従来例の場合よりも符号化した場合における符号量を小さくできる。つまり、符号量を低減できる。
また、本実施形態に係る映像符号化装置1Bによれば、煙等の動き量等が大きい特定領域が存在した場合、その特定領域の元画像をシミュレーションにより生成したシミュレーション画像が適切に元画像を表しているか否かを、元画像との比較により判定できる(比較結果が得られる)。
この比較結果は、例えばフレーム単位(の短い時間間隔)で得ることができる。従って、シミュレーションをより適切に行い易くなる。
また、シミュレーションにより生成した情報を用いることにより、以下に説明する映像復号化装置31B側における映像復号化をより少ない処理で行うことを可能とする。
図10は、第3の実施形態に係る映像符号化装置1Bに対応する映像復号化装置31Bの構成を示す。
この映像復号化装置31Bは、図4の映像復号化装置31において、加算器39に入力される信号を切り換える切換手段(選択手段)として例えばマルチプレクサ59を設けた第1の映像復号化部32Bと、予測特定画像生成回路41をシミュレーション画像生成回路41aとした第2の映像復号化部33Bとにしている。
このマルチプレクサ59は、通常は動き補償回路37から出力される予測画像を加算器39に入力されるように選択しており、可変長復号化回路34の出力信号に、シミュレーション画像を生成する情報が存在するか否かを検出し、その情報が存在すると、第2の映像復号化部33Bの出力が加算器39に入力されるように切り換える。
また、シミュレーション画像を生成する情報は、シミュレーション画像生成回路41aに入力され、このシミュレーション画像生成回路41aは、この情報を用いて図8のシミュレーション回路53によるシミュレーション画像を生成する。
そして、このシミュレーション画像は、特定画像合成回路42及び加算器39により特定領域部分に埋め込む等の合成処理がされて再生画像が生成される。なお、図10において、特定画像合成回路42は、シミュレーション画像とその周囲の背景画像とは混在するブロック部分では、動き補償回路37からの予測画像も入力され、特定画像合成回路42は、は両画像を合成する。
図11は、図10の映像復号化装置31Bによる映像復号化方法の概略の動作内容のフローチャートを示す。図11は、図6において、ステップS13以降の処理が変更された内容となっている。以下、異なる点のみを説明する。
この映像復号化装置31Bにおいては、ステップS12の後のステップS13′において、I-picture以外のフレームにおける特定フレームにおけるその特定領域の元画像に対応するシミュレーション画像を生成する。ここで、特定フレームとは、I-picture以外のフレームにおけるシミュレーション画像を生成する情報が付加されているフレームを意味する。
また、ステップS11においてI-pictureでないと判定された場合には、ステップS14′に示すように通常のフレーム間復号化により復号化された画像を生成する。この場合、特定領域が置換されたものと置換されていない符号化画像の両方が含まれる。
そして、ステップS14′により生成された画像は、ステップS15′により特定フレームか否かが判定され、特定フレームでない場合にはステップS16に進み、ステップS14′で生成された画像が再生画像として出力される。ステップS16の処理は、図10において、動き補償回路37の予測画像がマルチプレクサ59を経て加算器39で加算されて生成される再生画像に相当する。
一方、ステップS15′において特定フレームと判定された場合には、ステップS174においてS14′で生成された画像における特定領域部分がステップS13′で生成されたシミュレーション画像で置換する合成により再生画像が生成される。
本実施形態に係る映像復号化装置31Bによれば、入力される符号化された画像に、煙等の動き量等が大きい特定領域が存在した場合においても、その特定領域の元画像をシミュレーションにより生成できる場合にはその情報が付加されているので、(予め算出された)その情報を利用することにより効率良くかつ少ない処理量で復号化された再生画像を生成できる。
なお、シミュレーションによりシミュレーション画像を生成する例として、上述の数式2では2次元に簡略化しているが、3次元として扱い、その結果を2次元平面に投影するようにしても良い。また、上述した例では、煙に対してNavier-Stokes方程式を適用したシミュレーションの場合を説明したが、炎やその他の特定画像に対してもシミュレーションを適用することもできる。例えば、モンテカルロ法を用いたシミュレーションを利用しても良い。
また、上述した各実施形態等を組み合わせたり、変形などした実施形態等も本発明に属する。
本発明の第1の実施形態に係る映像符号化装置の構成を示すブロック図。 背景合成部による特定領域を背景画像で補間する動作説明図。 第1の実施形態に係る映像符号化装置の動作内容を示すフローチャート。 本発明の第2の実施形態に係る映像復号化装置の構成を示すブロック図。 シミュレーションにより特定領域の元画像を生成する動作説明図。 第2の実施形態に係る映像復号化装置の概略の動作内容を示すフローチャート。 第2の実施形態に係る映像復号化装置における第2の映像復号化部の動作内容を示すフローチャート。 本発明の第3の実施形態に係る映像符号化装置の構成を示すブロック図。 第3の実施形態に係る映像符号化装置の動作内容を示すフローチャート。 本発明の第3の実施形態に係る映像復号化装置の構成を示すブロック図。 図10の映像復号化装置による映像復号化の動作内容を示すフローチャート。
符号の説明
1、1B…映像符号化装置
2…入力画像
3…特定領域検出部
4…背景合成部
5…画像符号化部
31、31B…映像復号化装置
41a…シミュレーション画像生成回路

Claims (4)

  1. フレーム内符号化及びフレーム間符号化によって生成した符号化画像であって、前記フレーム間符号化に際して、色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を前記特定画像以外の背景画像又は置換画像で置換して生成された前記符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化手段と、
    前記符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行い、復号結果の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションによってシミュレーション画像を生成し、生成したシミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成手段と、
    を備えることを特徴とする映像復号化装置。
  2. 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、
    前記特定領域検出手段により検出された特定領域部分の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションにより以後のフレームの特定領域部分のシミュレーション画像を生成するシミュレーション画像生成手段と、
    前記入力される画像に対してフレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域についての前記フレーム内符号化及びフレーム間符号化のうち前記フレーム間符号化に代えて前記シミュレーション画像生成手段のシミュレーションに関する情報の符号化を行う符号化手段と、
    を備えることを特徴とする映像符号化装置。
  3. 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、前記特定領域検出手段により検出された特定領域部分の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションにより以後のフレームの特定領域部分のシミュレーション画像を生成するシミュレーション画像生成手段と、前記入力される画像に対してフレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域についての前記フレーム内符号化及びフレーム間符号化のうち前記フレーム間符号化に代えて前記シミュレーション画像生成手段のシミュレーションに関する情報の符号化を行う符号化手段と、を備える映像符号化装置によって符号化された符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化手段と、
    前記映像符号化装置によって符号化された符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行うと共に前記シミュレーションに関する情報の復号化を行い、復号結果の画像及びシミュレーションに関する情報を用いて、前記シミュレーション画像を復元し、復元した前記シミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成手段と、
    を備えることを特徴とする映像復号化装置。
  4. 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、フレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域検出手段により検出された特定領域についてのフレーム間符号化に際して、前記特定画像以外の背景画像又は置換画像で置換したフレームの画像を符号化処理する符号化手段と、を備えた映像符号化装置によって符号化された符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化ステップと、
    前記映像符号化装置によって符号化された符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行い、復号結果の画像を用い離散差分方式的に初期条件を設定して積分するシミュレーションによってシミュレーション画像を生成し、生成したシミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成ステップと、
    を備えることを特徴とする映像復号化方法。
JP2006271167A 2006-10-02 2006-10-02 映像符号化装置、映像復号化装置及び映像復号化方法 Expired - Fee Related JP4939890B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006271167A JP4939890B2 (ja) 2006-10-02 2006-10-02 映像符号化装置、映像復号化装置及び映像復号化方法
US11/860,823 US8320691B2 (en) 2006-10-02 2007-09-25 Image coding apparatus, image decoding apparatus, and image decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006271167A JP4939890B2 (ja) 2006-10-02 2006-10-02 映像符号化装置、映像復号化装置及び映像復号化方法

Publications (2)

Publication Number Publication Date
JP2008092301A JP2008092301A (ja) 2008-04-17
JP4939890B2 true JP4939890B2 (ja) 2012-05-30

Family

ID=39261277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006271167A Expired - Fee Related JP4939890B2 (ja) 2006-10-02 2006-10-02 映像符号化装置、映像復号化装置及び映像復号化方法

Country Status (2)

Country Link
US (1) US8320691B2 (ja)
JP (1) JP4939890B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247825B2 (ja) 2018-12-17 2023-03-29 Agc株式会社 ガラス組成物、複合粉末材料、複合粉末材料ペースト、レーザプリンタ用のプリンタヘッド、及びサーマルプリンタヘッド

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100987786B1 (ko) 2008-07-23 2010-10-13 (주)에이치엠씨 연기검출을 이용한 화재감지 시스템
US8958478B2 (en) * 2010-12-03 2015-02-17 Technische Universitaet Berlin Method and device for processing pixels contained in a video sequence
MX355319B (es) * 2011-11-08 2018-04-16 Kt Corp Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción.
KR102039688B1 (ko) 2013-03-14 2019-11-01 삼성전자주식회사 사용자 기기 및 그 동작 방법
US9876964B2 (en) * 2014-05-29 2018-01-23 Apple Inc. Video coding with composition and quality adaptation based on depth derivations
JP2016066922A (ja) * 2014-09-25 2016-04-28 ソニー株式会社 信号処理装置、撮像装置、および、それらにおける信号処理方法。
US9940689B2 (en) 2015-11-02 2018-04-10 Nvidia Corporation Latency-resistant sparse simulation technique, system and method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4689671A (en) * 1985-06-27 1987-08-25 Nec Corporation Coding apparatus for moving object image
JPS6212286A (ja) * 1985-07-09 1987-01-21 Nec Corp 動画像信号の符号化方式とその装置
JPS6212287A (ja) * 1985-07-09 1987-01-21 Nec Corp 動画像信号の適応予測符号化装置
US4941193A (en) * 1987-10-02 1990-07-10 Iterated Systems, Inc. Methods and apparatus for image compression by iterated function system
EP0476603B1 (en) * 1990-09-20 1997-06-18 Nec Corporation Method and apparatus for coding moving image signal
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
JPH07264597A (ja) * 1994-03-18 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 動き補償方法
US6052414A (en) * 1994-03-30 2000-04-18 Samsung Electronics, Co. Ltd. Moving picture coding method and apparatus for low bit rate systems using dynamic motion estimation
KR0171120B1 (ko) * 1995-04-29 1999-03-20 배순훈 특징점 기반 움직임 보상을 이용한 비디오 신호 부호화에서의 움직임 영역 설정방법 및 장치
JP3570863B2 (ja) * 1997-08-05 2004-09-29 三菱電機株式会社 動画像復号化装置および動画像復号化方法
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
JPH11308623A (ja) * 1998-04-24 1999-11-05 Sony Corp 画像処理装置
JP4157234B2 (ja) * 1999-09-02 2008-10-01 株式会社東芝 動画像内の移動物体検出装置
US6774908B2 (en) * 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP3953350B2 (ja) * 2002-03-28 2007-08-08 日本電信電話株式会社 映像シーン予測方法、装置、プログラム、および記録媒体
JP4049702B2 (ja) * 2003-05-09 2008-02-20 日本電信電話株式会社 映像生成方法、装置、プログラム及び該プログラムを記録した記録媒体
JP2005277733A (ja) * 2004-03-24 2005-10-06 Seiko Epson Corp 動画像処理装置
JP2007180808A (ja) * 2005-12-27 2007-07-12 Toshiba Corp 映像符号化装置、映像復号化装置、及び映像符号化方法
US8018494B2 (en) * 2006-01-10 2011-09-13 Panasonic Corporation Color correction device, color correction method, dynamic camera color correction device, and video search device using the same
JP2008042659A (ja) * 2006-08-08 2008-02-21 Sony Corp 画像処理装置および方法、プログラム、並びにプログラム格納媒体
KR100803611B1 (ko) * 2006-11-28 2008-02-15 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7247825B2 (ja) 2018-12-17 2023-03-29 Agc株式会社 ガラス組成物、複合粉末材料、複合粉末材料ペースト、レーザプリンタ用のプリンタヘッド、及びサーマルプリンタヘッド

Also Published As

Publication number Publication date
US8320691B2 (en) 2012-11-27
JP2008092301A (ja) 2008-04-17
US20080080779A1 (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4939890B2 (ja) 映像符号化装置、映像復号化装置及び映像復号化方法
US8326064B2 (en) Image re-encoding method to decode image data which is orthogonally transformed per first block and encoded by a first encoding method
JP5423948B2 (ja) 動画像符号化方法、およびこれを用いた装置とプログラム
JP4528694B2 (ja) 動画像符号化装置
JP2005532725A (ja) ビデオ符号化における内挿フィルタタイプの選択方法および選択システム
JP2009218742A (ja) 画像符号化装置
EP2960855B1 (en) Method and device for determining a set of modifiable elements in a group of pictures
JP2010263301A (ja) 画像データの生成方法
TW201524196A (zh) 影像預測解碼裝置、影像預測解碼方法及影像預測解碼程式
RU2734616C1 (ru) Способ декодирования видео с предсказанием и устройство декодирования видео с предсказанием
KR101140269B1 (ko) 영상신호 생성장치, 영상신호 생성방법, 영상신호 생성프로그램 및 그 프로그램을 기록한 컴퓨터 독취가능한 기록매체
JP2010081498A (ja) 画像圧縮符号化方法、及び装置
JP3778208B2 (ja) 画像符号化装置及び画像符号化方法
JP5180887B2 (ja) 符号化装置およびその方法
CN100508615C (zh) 运动图像的编码方法、解码方法、编码装置及解码装置
JP4964689B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2009218965A (ja) 画像処理装置、それを搭載した撮像装置、および画像再生装置
US20210120245A1 (en) Image coding apparatus, image coding method, and program, and image decoding apparatus, image decoding method, and program
JP2007214991A (ja) 映像品質測定装置および映像品質測定方法ならびにそのプログラム
TWI755653B (zh) 圖像編碼裝置、圖像編碼方法、圖像解碼裝置、圖像解碼方法
KR20050098292A (ko) 코딩된 잔류 모션 벡터 데이터의 존재를 통지하는 플래그를포함한 모션 벡터들의 예측 인코딩
JP2007020216A (ja) 符号化装置、符号化方法、フィルタ処理装置およびフィルタ処理方法
Sowmyayani et al. Frame differencing-based segmentation for low bit rate video codec using H. 264
JP2015019319A (ja) 符号化装置、符号化方法及びプログラム
JP2008227602A (ja) 直交変換・量子化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees