JP4939890B2 - 映像符号化装置、映像復号化装置及び映像復号化方法 - Google Patents
映像符号化装置、映像復号化装置及び映像復号化方法 Download PDFInfo
- Publication number
- JP4939890B2 JP4939890B2 JP2006271167A JP2006271167A JP4939890B2 JP 4939890 B2 JP4939890 B2 JP 4939890B2 JP 2006271167 A JP2006271167 A JP 2006271167A JP 2006271167 A JP2006271167 A JP 2006271167A JP 4939890 B2 JP4939890 B2 JP 4939890B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- simulation
- specific
- specific area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/162—User input
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
Description
このような場合、従来例の映像符号化装置においては、符号化を行おうとする画像として特に煙、炎等のように時間的な変化が激しい、換言すると異なるフレーム間における対応する画像の動き量若しくはずれ量が大きい特定領域を含む画像が符号化対象となる場合には、フレーム間符号化に伴う予測誤差が大きくなりがちとなる。
なお、特許文献1には、煙の領域を検出する装置が開示されている。
しかしながら、この特許文献1における装置は、符号化或いは復号化を行う手段を開示していない。
また、本発明の映像復号化装置及び映像復号化方法によれば、前記小さな符号量での符号化された映像に対する復号化を可能とする。
(第1の実施形態)
図1は本発明の第1の実施形態に係る映像符号化装置1の構成を示す。この映像符号化装置1は、入力される入力画像2に対して煙、炎等、動きが激しい或いは時間的な変化が大きい特定領域を検出する特定領域検出部3を有する。
つまり、煙、炎等、動きが激しい或いは時間的な変化が大きい特定領域の場合には、動き検出を伴うフレーム間符号化を行った場合にはその予測誤差或いはフレーム間符号化量が増大してしまう。
このため、本実施形態では、このような特性を示す特定領域を検出し、その特定領域に対してはそのままの状態では、フレーム間符号化を行わないようにする。
この特定領域検出部3により検出された特定領域を含むフレームの画像は、背景合成部4に入力される。
なお、I-pictureは、フレーム内で符号化が行われる画像(フレーム)であり、これ以外の画像、つまりインターピクチャの画像は、フレーム間符号化が行われる。
背景合成部4から出力される背景合成画像は、所定画素数からなる(Macro Block等の)ブロックに分割されて画像符号化部5に入力され、この画像符号化部5は、入力される背景合成画像の各ブロックを符号化して出力画像22を生成する。この画像符号化部5は、通常広く採用されている画像符号化装置に該当する。
そして、後述する第2の実施形態等で説明する映像復号化装置31側においては、映像符号化装置1から出力される符号化された画像に対して、I-picture以外のフレームに対して、背景画像等で置換等された特定領域部分に対して、I-pictureにおける特定領域部分の情報を用いて煙、炎等の特性を示す特定領域を復号化する処理を行うことになる。 上記特定領域検出部3は、入力画像2が、煙等が有する色相に合致する領域か否かを検出する色相検出回路6と、この色相検出回路6により検出された領域を含むフレームを格納する第1のフレームバッファ7と、フレーム間の画像から動き若しくは画像間のずれ量を検出する動き/ずれ量検出回路8とを有する。
色相検出回路6による閾値との比較により、煙等の特定画像部分が有する色相範囲内にある特定領域の可能性を持つ候補領域と判定された場合には、そのフレームが第1のフレームバッファ7に格納され、次のフレームにおいても、色相検出回路6は同様の検出を行う。
そして、隣接するフレーム間で色相検出により、閾値以内で一致すると判定された両候補領域に対して、動き/ずれ量検出回路8は、例えば対応する両候補領域の中心位置間のずれ量による動き量や、対応する両画素値の差の2乗和(2乗の積算値)等の算出により、両候補領域間の動き量若しくはずれ量が閾値を超えるか否かを検出(判定)する。
なお、動き/ずれ量検出回路8による上記2乗和等の算出の代わりに両候補領域間の動きベクトルの値の検出を行い、その値が閾値を超えるか否かにより特定画像に相当する特定領域であるか否かを判定しても良い。
そして、そのような判定が行われた特定領域部分に対して、次の背景合成部4は、その特定領域以外の例えば背景画像等で置換する処理を行う。
なお、特定領域検出部3は、色相検出と動き/ずれ量検出の他に、特定領域か否かの検出精度を上げるため、さらに濃度を調べる方法もある。具体的には、あるブロックに対して輝度値・色差の分散行列を求め、閾値に収まる成分の数を数えることで、煙等の特定画像部分が持つ特定領域であるか否かを判定することができる。
また、特定領域除去&背景生成回路9は、第2のフレームバッファ10から特定領域が除去された残りのフレーム画像部分を読み出し、その特定領域部分に背景画像等で置換して背景合成画像を生成して、その背景合成画像を複数のブロックに分割して、各ブロックを画像符号化部5に出力する。
なお、上述したように背景合成部4は、フレーム間符号化を行わない、つまり動きベクトルを検出しないI-pictureの場合には、入力画像2における特定領域部分を背景画像等で置換する処理を行うことなく、複数のブロックに分割して、各ブロックを、画像符号化部5に出力する。
(a)I-pictureの前後の数フレームの画像から予測誤差が大きくなってしまう煙等の特定領域に対して、その特定領域でなく背景が映っているフレームを探す。
(b)そして、注目している特定領域を含むブロックと同じ位置のブロックを背景画像のブロックとして採用する。
(c)また、あるフレームの前後で背景が映っているものがあれば、動き補償した上で背景画像のブロックとして採用しても良い。
この他、特定領域を含むブロックを、上述した背景画像ではなく、特定領域の平均の色相、例えば特定領域が煙の場合には、煙の平均的な色相値となる白色のブロックで埋める等の処理を適用しても良い。つまり、特定領域を背景画像や置換画像等の所定画像で置換しても良い。
一方、ブロックBのように他のフレーム(2)におけるブロックB′においても煙で完全に覆われている場合には、上述したように前後の数フレームから煙でなく、背景が映っているフレームを探し、そのフレームにおける背景のブロックが動きベクトルを持っている時は動き補償を行う。
この場合、隣接する2つのI-pictureの間となる数フレーム程度だけ考えれば十分である。以上により、I-pictureの以外のフレームについては煙等が一切現れない背景合成画像が生成され、このブロックが画像符号化部5に入力される。
そして、画像符号化部5は、そのようなフレームのブロックに対して、本来の煙等の特定画像部分に対する動きベクトル検出を行うことなく、つまり特定領域部分が背景画像等で置換された背景合成画像に対して、通常のフレーム間符号化による画像符号化を行うことになる。
なお、I-pictureのフレームの場合には、背景合成画像の代わりにI-pictureのブロックが減算器11をスルーして、DCT回路12に入力される。
この画像符号化部5は、入力されるブロックについてのDCT 係数あるいは後述する動きベクトルを可変長符号化したパケットに区切って、ビットストリーム信号の出力画像を出力する可変長符号化回路14を有する。
また、この画像符号化部5は、逆離散コサイン変換された画像を加算する加算器17と、この加算器17の出力を格納するフレームメモリ18と、このフレームメモリ18に格納されていた画像が入力され、動き補償された予測画像を作成する動き補償回路(或いは予測画像作成回路)19とを有する。なお、フレームメモリ18には、背景合成画像も入力される。
動き補償回路19により作成された予測画像は、減算器11と加算器17とに出力される。
このような構成の画像符号化部5は、この画像符号化部5に入力される画像がI-pictureの場合には、イントラ符号化(フレーム内符号化)を行うのみであり、イントラ符号化されて可変長符号化回路14から、イントラ符号化された出力画像22が出力される。
これに対して、I-picture以外の場合には、フレームメモリ18に格納された画像を参照画像として、次に入力される背景合成画像のブロックに対して、参照画像のブロックとブロックマッチングを行う。そして、画像符号化部5は、参照画像のブロックからの動きベクトルを検出すると共に、動き補償された予測画像を作成して、入力される背景合成画像から予測画像を減算した予測誤差の画像データを符号化する。
従って、この映像符号化装置1を用いて動画像(映像)の符号化を行うことにより、その動画像におけるI-picture以外の各フレームは、煙等の各特定領域が予測誤差を小さくできる背景画像等の所定画像で置換されているので、小さなデータ量でフレーム間符号化を行うことができる。
本実施形態における映像符号化装置1による概略の動作は、図3のようになる。入力画像2は、映像符号化装置1に入力され、ステップS1において特定領域検出部3は、入力画像2から特定領域の検出を行う。
一方、ステップS1において特定領域が検出されない場合にも、ステップS4において入力画像2がI-pictureか否かの判定が行われる。そして、入力画像2がI-pictureの場合には、ステップS3に移り、I-pictureに対してイントラ符号化が行われる。
また、ステップS2において入力画像2がI-pictureでないと判定された場合には、ステップS5に進み、このステップS5において特定領域除去&背景合成部4は、特定領域部分を背景画像等で置換して背景合成画像を生成する。そして、次のステップS6において画像符号化部5は、I-picture以外の背景合成画像に対してフレーム間符号化を行う。
このように動作する本実施形態は、入力画像2が煙等、動き量又はずれ量が大きく、予測誤差が大きくなる特定領域が有るか否かを特定領域検出部3により検出し、そのような特定領域が検出されない場合には通常の符号化処理を行う。
逆に、特定領域が検出された場合にはI-picture以外のフレームに対して、特定領域部分を背景画像等で置換して、フレーム間符号化を行う。
従って、本実施形態によれば、煙等、動き量又はずれ量が大きい特定領域を含む映像に対して小さな符号量での符号化が可能となる。
次に本発明の第2の実施形態を説明する。図4は、本発明の第2の実施形態に係る映像復号化装置31の構成を示す。
この映像復号化装置31は、第1の実施形態に係る映像符号化装置1により符号化された出力画像22のストリーム信号が入力されることにより、復号化の処理を行う。その際、最初のI-pictureのフレームにおける煙等の特定画像部分を利用して、I-picture以外のフレームにおける特定領域部分を復号(再生)する。
このため、この映像復号化装置31は、通常の映像復号化を行う第1の映像復号化部32に、特定領域部分に対する映像復号化を行う第2の映像復号化部33を備えている。 ストリーム信号は、第1の映像復号化部32を構成する可変長復号化回路34に入力される。
また、I-pictureに続くI-picture以外のフレームの場合には、可変長復号化回路34は、同様に可変長符号を、固定長の符号に戻し、逆量子化回路35に出力すると共に、ストリーム信号における符号化された動きベクトルのデータ部分を抽出して動きベクトル再構成回路36に出力する。
動きベクトル再構成回路36は、入力された符号化された動きベクトルから動き補償処理で参照する動きベクトルの位置情報を算出する。そして、この動きベクトル再構成回路36は、算出した動きベクトルの位置情報を動き補償回路37に送る。動き補償回路37は、動きベクトルの位置情報を用いて、動き補償した予測画像を生成する。
加算器39は、再生予測残差画像に、動き補償回路37から出力される予測画像が第2の映像復号化部33を経て入力され、この予測画像を加算して、再生画像を生成する。なお、I-pictureの場合には、動き補償することなく、再生画像が生成される。
第2の映像復号化部33は、特定領域を除いた画像部分の場合には、動き補償回路37から出力される予測画像を加算器39に出力する。一方、特定領域部分の場合にはこの第2の映像復号化部33で生成した予測特定画像を加算器39に出力し、特定領域部分にこの予測特定画像を埋め込み、特定領域部分が予測特定画像で置換された再生画像が生成されるようにする。
このフレームメモリ40に格納された画像は、動き補償回路37に出力され、この動き補償回路37は、フレームメモリ40に格納されている画像を参照画像として動きベクトル再構成回路36から得られる動きベクトルの位置情報に基づいて動き補償し、予測画像を生成する。得られた予測画像は加算器39に出力され、次のフレームの再生画像の生成に利用される。
また、本実施形態においては、第2の映像復号化部33は、フレームメモリ40に格納された最初のI-pictureにおける煙等の特定画像部分を用いて、I-picture以外のフレームにおける特定領域部分に対応する予測画像(以下、予測特定画像という)を生成し、この予測特定画像で特定領域部分を置換して、再生画像を生成する処理を行う。
この予測特定画像生成回路41は、本実施形態においては予測特定画像としてシミュレーションによるシミュレーション画像を生成するシミュレーション画像生成回路41aを備えている。
シミュレーション画像による予測特定画像を生成するため、以下に示すようなNavier-Stokes方程式を利用する。I-picture以外のフレームにおける特定領域における元画像に相当する予測特定画像を生成するまでの手順の概略は以下のようになる。
(b)最初のI-pictureのフレームにおける煙等の特定画像の各位置に初期条件として速度ベクトルと圧力(及び必要に応じて外力)を与える。
(c)その初期条件の下で、離散化した2次元Navier-Stokes方程式を解いて次のフレームでの位置を予測し、予測特定画像を特定領域に埋め込み、合成して次のフレームを生成する。
(d)その予測特定画像を次のフレームを予測する画像として採用し、さらに速度ベクトルと圧力を初期条件として、(c)のように更に次のフレームを生成する。
(e)上記(c)(d)の操作を次のI-pictureが現れるまで繰り返し行い、I-pictureの間の各フレームにおける特定領域に対する予測特定画像を生成する。
これらの手順に関して以下、説明する。
第1の実施形態で述べたとおり、I-picture以外のフレームにおいては煙等の本来の特定画像部分に相当する特定領域は、別の所定画像で置換されており、従って元画像の動きの情報は、符号化された後の情報には含まれていない。
そこで、除去されている煙等、元画像部分の動きを、シミュレーションにより生成されるシミュレーション画像により予測特定画像とする。
本実施形態では、元画像部分が例えば煙とし、煙の場合には、この煙を流体と見なしてその流体の振る舞いを記述する2次元Navier-Stokes方程式[数式1]を採用する。
[数式1]
(∂/∂t+(w・∇))w=ν・∇2w−∇p−f(t,x,y) (1−1)
∇w=0 (1−2)
但し、∇2=∂2/∂x2+∂2/∂y2、w=w(u,v)
[数式2]
(∂/∂t+u∂/∂x+v∂/∂y)u=ν・∇2u−∂p/∂x−fx(t,x) (2−1)
(∂/∂t+u∂/∂x+v∂/∂y)v=ν・∇2v−∂p/∂y−fy(t,y) (2−2))
[数式3]
圧力項:
u=p/4+dUx 2+dUy 2+2・dUy/dUx-(dUx+dVy)+f(t,x,y)/(Δx・Δy) (3−1)
x成分:
ut+1=ut+{ν・(r(u)−4u)-dPx-u・dUx-v・dUy+fx(t,x)}・Δt
(3−2)
y成分:
vt+1=vt+{ν・(r(v)−4v)-dPy-u・dVx-v・dUy+fy(t,y)}・Δt
(3−3)
但し、r(u)=u(x+Δx,y)+u(x-Δx,y)+ u(x,y+Δy)+u(x,y-Δy)、
dUx=(ui+1-ui−1)/(2Δx),dUy=(uj+1-uj−1)/(2Δy),Δx=Δy=1,
Δtはフレーム間隔の時間などである。
なお、数式1における(1−1)が2次元Navier-Stokes方程式であり、(1−2)により、煙の湧き出しが無い条件を課している。また、数式1におけるwは速度ベクトル、νは粘性係数、pは圧力、fは外力を示す。
一般に、Navier-Stokes方程式は非線形偏微分方程式であり、一般解を具体的に求めることは困難である。そこでNavier-Stokes方程式を時間方向に離散化し、差分方程式にした上で積分することで解く。
そこで、数式2を差分方程式に直したものが数式3における(3−2)及び(3−3)となる。なお、(3−1)は、速度ベクトルのx成分を表す(3−2)及びy成分を表す(3−3)中における圧力項を表している。
このように差分化したNavier-Stokes方程式を解く際に重要になるのが初期条件の選び方である。初期条件を誤って選択すると、次々に求められる煙の画像が、次のI-pictureとの間で大きな乖離が生じかねない。そこで初期条件の設定は、例えば図5に示すように行う。
図5の最も左に示すフレームは、最初のI-pictureのフレームを示し、このフレームにおける煙の画像部分に初期条件を設定する。
初期条件としては、煙を形成する各粒子の速度ベクトル、圧力、外力ベクトル、粘性係数の4つであるが、粘性係数に関しては、全フレームで一定とする。まず最初のI-pictureのフレーム(1)において、煙の各粒子に適当な初期条件を与える。図5では速度ベクトルu1x,v1yと圧力pの初期値u1x 0,v1y 0、p0を設定した様子を示している。
なお、図5ではフレーム(1)での速度ベクトルu1x,v1yが、フレーム(2)に対応する予測特定画像、I-pictureのフレーム(n)に対応するフレーム(n)における予測特定画像ではそれぞれu2x,v2y、unx,vnyのように変化する。
図5の最も右における下側に示すフレーム(n)まで、煙の予測特定画像(或いはシミュレーション画像)を生成したところで、その上に示す実際のI-pictureのフレーム(n)における実際の煙の画像との比較を行う。
比較を行う具体的な方策としては、例えば煙の画像領域における対応する画素値の差の絶対値の2乗和を取るなどして比較を行う。
このようにして、初期条件を変更して複数組の煙の予測特定画像を生成する。そして、次のI-pictureの煙の画像領域との画素値の差の絶対値の2乗和が最も小さくなるときの初期条件を元のI-pictureの最適な初期条件として選ぶ。
さらに煙の各粒子の初期条件を摂動(小さく変動)させ、次のI-pictureの煙の画像領域との比較を行うことで各粒子の速度ベクトルと圧力を最適なものに選び、前の数フレームを(差分方程式を逆に解く、即ち微分することで)適宜修正しても良い。
但し、各フレームにおける煙の各粒子に働く外力に関しては、初期条件からNavier-Stokes方程式を解くことでは得られないので、各フレームの各粒子毎に外力を摂動させて、最適なものを選ぶようにしても良い。
このようにして、I-pictureとの差が最適になる煙の予測特定画像を生成できた場合には、時系列的に生成された煙の各予測特定画像を、各予測特定画像と最も近い関係になるフレームにおける所定領域に填め込むことにより、特定領域が特定画像で復号された再生画像を生成する。
図6は、本実施形態に係る映像復号化装置31による映像復号化方法の動作内容の概略を示す。
また、この復号化されたI-pictureは、フレームメモリ40に格納され、ステップS13に示すように第2の映像復号化部33は、その特定領域の画像を用いて、I-picture以外のフレームの特定領域の元画像に対応する予測特定画像(シミュレーション画像)を生成する。
一方、I-pictureでない場合には、ステップS14に示すように、第1の映像復号化部32は、フレーム間復号化により、特定領域以外の画像を復号化する。そして、ステップS15において、ステップS13とステップS14でそれぞれ生成された画像が合成されて再生画像が生成される。
図7は、第2の映像復号化部33により、図5で説明した処理を行う動作内容を示すフローチャートである。図7では図5の場合と同様に特定画像が煙の場合で説明する。最初のステップS21において予測特定画像生成回路41は、最初のI-pictureの煙の画像領域における各点に適当な初期条件を設定する。
そして、次のステップS22においてこの予測特定画像生成回路41におけるシミュレーション画像生成回路41aを構成する例えばCPUは、次のI-pictureに至るまでの時間、上述したシミュレーションを行う。
次のステップS23において、CPUは、シミュレーションにより得られた次のI-pictureの煙に対応する煙の予測特定画像としてのシミュレーション画像とを比較する。
このようにして、ステップS24の判定処理において、比較結果が閾値以下になった場合には、ステップS26に進む。
ステップS26において特定画像合成回路42は、両I-picture間のフレームにおける特定領域をシミュレーション結果で置換する。そして、この処理を終了する。
このようにして、本実施形態は、I-picture以外の(インター)フレームにおいても煙等の元画像を、符号量が小さいストリーム信号としての画像符号化信号から生成することができる。
このように本実施形態によれば、符号量が小さくされた(符号化された)映像から復号化を行うことができる。
また、本実施形態によれば、映像符号化装置側から伝送する符号化された映像情報の伝送量を低減できる効果を有する。
次に本発明の第3の実施形態を説明する。第2の実施形態は、符号化された画像に対して映像復号時に、フレーム間符号化が行われるフレームにおける特定領域部分に対して、I-pictureの特定画像からシミュレーションで生成したシミュレーション画像で置換等する処理を適用した。
本実施形態は、符号化時にシミュレーションで生成したシミュレーション画像を生成する。また、この場合、シミュレーション画像を、符号化時における煙等の実際の特定画像(元画像)と比較し、その比較結果に応じてシミュレーション画像と、実際の特定画像を符号化する。
図8は本発明の第3の実施形態に係る映像符号化装置1Bの構成を示す。入力画像2は、図1に示した特定領域検出部3に入力され、特定領域検出部3は入力画像に特定領域が存在するか否かの有無及び存在する場合における特定領域を検出する。
特定領域除去回路9Aは、特定領域検出部3により検出された特定領域を除去し、背景生成回路53に出力する。
背景生成回路53は、入力画像から特定領域を除去して、背景画像等で置換して背景合成画像を生成し、フレームバッファ51に出力すると共に、シミュレーション回路53に出力する。
フレームバッファ51には、入力画像2も入力される。そして、このフレームバッファ51は、入力画像から背景画像等で置換される特定領域を差し引いた特定領域部分の画像を画像比較回路54に出力する。
このシミュレーション回路53は、I-pictureのフレームからその特定領域における煙等の画像部分に対してシミュレーションを行い、I-picture以外の各フレームにおける特定領域に対応するシミュレーション画像を生成して画像比較回路54に出力する。
また、このシミュレーション回路53は、このシミュレーション画像を生成する情報を符号化してマルチプレクサ52の他方の入力端に出力する。
画像比較回路54は、シミュレーション回路53から出力されるシミュレーション画像と、フレームバッファ51から出力される煙等の実際の特定画像部分とを比較して、その比較結果によりマルチプレクサ52の切換(選択)を制御する。
一方、画像比較回路54は、閾値以下となる場合には、背景合成画像にシミュレーション画像を生成する情報が付加された状態で画像符号化部5に出力されるように切換を制御する。
従って、画像符号化部5は、シミュレーション画像と対応する特定画像部分とが閾値を超えるずれが検出された場合には、実際に煙等を含む入力画像2に対して、通常の画像符号化を行う。一方、閾値以下のずれの場合には、画像符号化部5は、特定領域が置換された背景合成画像とシミュレーション画像を生成する情報に対して符号化を行う。
また、上記特定領域検出部3により特定領域が検出されない場合には、入力画像2は、この画像符号化部5を構成する減算器11、フレームメモリ18、動き補償回路19、動き検出回路20に入力され、画像符号化部5は、通常の画像符号化を行う。
本実施形態に係る映像符号化装置1Bは、例えば図9に示すような動作を行う。
最初のステップS31において、入力画像2が煙等の特定画像を含むか否かを特定領域検出部3により検出する。
特定領域が検出されない場合には、ステップS37に進み、入力画像2を通常の方式で符号化する。つまり、特定領域が検出されない場合には、既存の方式と同様に画像符号化部5により符号化を行う。
一方、特定領域が検出された場合には、ステップS32に進み、I-picture以外の場合には、特定領域除去回路51は、入力画像2から特定領域を除外し、背景生成回路9Bは背景画像等を挿入し、背景合成画像を生成する。なお、I-pictureの場合には、このフレームと、その場合における特定領域の情報がシミュレーション回路53に入力される。
そして、次のステップS35において、画像比較回路54は、対応する画素値の差の2乗和の特定領域の1Macro Block当たりの平均値が閾値を超えるか否かを比較(判定)する。
この比較結果が閾値を超える画像のフレームに対しては、ステップS37に示すようにそのフレームを既存の方式と同様に画像符号化部5により通常の画像符号化を行う。つまり、I-picture以外のフレームにおいても煙等の元画像を含む状態のまま、そのフレームを画像符号化する。なお、この場合、閾値を超える場合には、初期条件を変更して同様の処理を繰り返すようにしても良い。
一方、比較結果が閾値を超えないフレームのものに対しては、ステップS36に示すように、そのフレームにおける特定領域を除いた背景画像部分を既存の方式と同様に画像符号化部5により符号化を行う。この場合、特定領域部分に対しては、画像符号化部5によりシミュレーション画像を生成する情報を符号化する。
このような処理を行うことにより、シミュレーションによるシミュレーション画像が適正に生成された場合には、従来例の場合よりも符号化した場合における符号量を小さくできる。つまり、符号量を低減できる。
この比較結果は、例えばフレーム単位(の短い時間間隔)で得ることができる。従って、シミュレーションをより適切に行い易くなる。
また、シミュレーションにより生成した情報を用いることにより、以下に説明する映像復号化装置31B側における映像復号化をより少ない処理で行うことを可能とする。
この映像復号化装置31Bは、図4の映像復号化装置31において、加算器39に入力される信号を切り換える切換手段(選択手段)として例えばマルチプレクサ59を設けた第1の映像復号化部32Bと、予測特定画像生成回路41をシミュレーション画像生成回路41aとした第2の映像復号化部33Bとにしている。
このマルチプレクサ59は、通常は動き補償回路37から出力される予測画像を加算器39に入力されるように選択しており、可変長復号化回路34の出力信号に、シミュレーション画像を生成する情報が存在するか否かを検出し、その情報が存在すると、第2の映像復号化部33Bの出力が加算器39に入力されるように切り換える。
そして、このシミュレーション画像は、特定画像合成回路42及び加算器39により特定領域部分に埋め込む等の合成処理がされて再生画像が生成される。なお、図10において、特定画像合成回路42は、シミュレーション画像とその周囲の背景画像とは混在するブロック部分では、動き補償回路37からの予測画像も入力され、特定画像合成回路42は、は両画像を合成する。
この映像復号化装置31Bにおいては、ステップS12の後のステップS13′において、I-picture以外のフレームにおける特定フレームにおけるその特定領域の元画像に対応するシミュレーション画像を生成する。ここで、特定フレームとは、I-picture以外のフレームにおけるシミュレーション画像を生成する情報が付加されているフレームを意味する。
そして、ステップS14′により生成された画像は、ステップS15′により特定フレームか否かが判定され、特定フレームでない場合にはステップS16に進み、ステップS14′で生成された画像が再生画像として出力される。ステップS16の処理は、図10において、動き補償回路37の予測画像がマルチプレクサ59を経て加算器39で加算されて生成される再生画像に相当する。
一方、ステップS15′において特定フレームと判定された場合には、ステップS174においてS14′で生成された画像における特定領域部分がステップS13′で生成されたシミュレーション画像で置換する合成により再生画像が生成される。
なお、シミュレーションによりシミュレーション画像を生成する例として、上述の数式2では2次元に簡略化しているが、3次元として扱い、その結果を2次元平面に投影するようにしても良い。また、上述した例では、煙に対してNavier-Stokes方程式を適用したシミュレーションの場合を説明したが、炎やその他の特定画像に対してもシミュレーションを適用することもできる。例えば、モンテカルロ法を用いたシミュレーションを利用しても良い。
また、上述した各実施形態等を組み合わせたり、変形などした実施形態等も本発明に属する。
2…入力画像
3…特定領域検出部
4…背景合成部
5…画像符号化部
31、31B…映像復号化装置
41a…シミュレーション画像生成回路
Claims (4)
- フレーム内符号化及びフレーム間符号化によって生成した符号化画像であって、前記フレーム間符号化に際して、色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を前記特定画像以外の背景画像又は置換画像で置換して生成された前記符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化手段と、
前記符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行い、復号結果の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションによってシミュレーション画像を生成し、生成したシミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成手段と、
を備えることを特徴とする映像復号化装置。 - 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、
前記特定領域検出手段により検出された特定領域部分の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションにより以後のフレームの特定領域部分のシミュレーション画像を生成するシミュレーション画像生成手段と、
前記入力される画像に対してフレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域についての前記フレーム内符号化及びフレーム間符号化のうち前記フレーム間符号化に代えて前記シミュレーション画像生成手段のシミュレーションに関する情報の符号化を行う符号化手段と、
を備えることを特徴とする映像符号化装置。 - 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、前記特定領域検出手段により検出された特定領域部分の画像を用い離散差分方程式に初期条件を設定して積分するシミュレーションにより以後のフレームの特定領域部分のシミュレーション画像を生成するシミュレーション画像生成手段と、前記入力される画像に対してフレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域についての前記フレーム内符号化及びフレーム間符号化のうち前記フレーム間符号化に代えて前記シミュレーション画像生成手段のシミュレーションに関する情報の符号化を行う符号化手段と、を備える映像符号化装置によって符号化された符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化手段と、
前記映像符号化装置によって符号化された符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行うと共に前記シミュレーションに関する情報の復号化を行い、復号結果の画像及びシミュレーションに関する情報を用いて、前記シミュレーション画像を復元し、復元した前記シミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成手段と、
を備えることを特徴とする映像復号化装置。 - 映像を構成する時系列で入力される画像から色相が特定画像の平均的な色相に対応する所定範囲内かつ異なるフレーム間における動き量が閾値以上となる特定領域を検出する特定領域検出手段と、フレーム内符号化及びフレーム間符号化を含む符号化処理を行うものであって、前記特定領域検出手段により検出された特定領域についてのフレーム間符号化に際して、前記特定画像以外の背景画像又は置換画像で置換したフレームの画像を符号化処理する符号化手段と、を備えた映像符号化装置によって符号化された符号化画像中のフレーム間符号化されたフレームについて、前記特定領域以外の画像部分をフレーム間復号化する復号化ステップと、
前記映像符号化装置によって符号化された符号化画像中のフレーム内符号化されたフレームについて前記特定領域の画像部分のフレーム内復号化を行い、復号結果の画像を用い離散差分方式的に初期条件を設定して積分するシミュレーションによってシミュレーション画像を生成し、生成したシミュレーション画像を前記フレーム間符号化されたフレームの前記特定領域の画像部分の復号画像とするシミュレーション画像生成ステップと、
を備えることを特徴とする映像復号化方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006271167A JP4939890B2 (ja) | 2006-10-02 | 2006-10-02 | 映像符号化装置、映像復号化装置及び映像復号化方法 |
US11/860,823 US8320691B2 (en) | 2006-10-02 | 2007-09-25 | Image coding apparatus, image decoding apparatus, and image decoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006271167A JP4939890B2 (ja) | 2006-10-02 | 2006-10-02 | 映像符号化装置、映像復号化装置及び映像復号化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008092301A JP2008092301A (ja) | 2008-04-17 |
JP4939890B2 true JP4939890B2 (ja) | 2012-05-30 |
Family
ID=39261277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006271167A Expired - Fee Related JP4939890B2 (ja) | 2006-10-02 | 2006-10-02 | 映像符号化装置、映像復号化装置及び映像復号化方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8320691B2 (ja) |
JP (1) | JP4939890B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7247825B2 (ja) | 2018-12-17 | 2023-03-29 | Agc株式会社 | ガラス組成物、複合粉末材料、複合粉末材料ペースト、レーザプリンタ用のプリンタヘッド、及びサーマルプリンタヘッド |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100987786B1 (ko) | 2008-07-23 | 2010-10-13 | (주)에이치엠씨 | 연기검출을 이용한 화재감지 시스템 |
US8958478B2 (en) * | 2010-12-03 | 2015-02-17 | Technische Universitaet Berlin | Method and device for processing pixels contained in a video sequence |
MX355319B (es) * | 2011-11-08 | 2018-04-16 | Kt Corp | Método y aparato para exploración de coeficientes con base en el modo de división de la unidad de predicción. |
KR102039688B1 (ko) | 2013-03-14 | 2019-11-01 | 삼성전자주식회사 | 사용자 기기 및 그 동작 방법 |
US9876964B2 (en) * | 2014-05-29 | 2018-01-23 | Apple Inc. | Video coding with composition and quality adaptation based on depth derivations |
JP2016066922A (ja) * | 2014-09-25 | 2016-04-28 | ソニー株式会社 | 信号処理装置、撮像装置、および、それらにおける信号処理方法。 |
US9940689B2 (en) | 2015-11-02 | 2018-04-10 | Nvidia Corporation | Latency-resistant sparse simulation technique, system and method |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4689671A (en) * | 1985-06-27 | 1987-08-25 | Nec Corporation | Coding apparatus for moving object image |
JPS6212286A (ja) * | 1985-07-09 | 1987-01-21 | Nec Corp | 動画像信号の符号化方式とその装置 |
JPS6212287A (ja) * | 1985-07-09 | 1987-01-21 | Nec Corp | 動画像信号の適応予測符号化装置 |
US4941193A (en) * | 1987-10-02 | 1990-07-10 | Iterated Systems, Inc. | Methods and apparatus for image compression by iterated function system |
EP0476603B1 (en) * | 1990-09-20 | 1997-06-18 | Nec Corporation | Method and apparatus for coding moving image signal |
US5592228A (en) * | 1993-03-04 | 1997-01-07 | Kabushiki Kaisha Toshiba | Video encoder using global motion estimation and polygonal patch motion estimation |
JPH07264597A (ja) * | 1994-03-18 | 1995-10-13 | Nippon Telegr & Teleph Corp <Ntt> | 動き補償方法 |
US6052414A (en) * | 1994-03-30 | 2000-04-18 | Samsung Electronics, Co. Ltd. | Moving picture coding method and apparatus for low bit rate systems using dynamic motion estimation |
KR0171120B1 (ko) * | 1995-04-29 | 1999-03-20 | 배순훈 | 특징점 기반 움직임 보상을 이용한 비디오 신호 부호화에서의 움직임 영역 설정방법 및 장치 |
JP3570863B2 (ja) * | 1997-08-05 | 2004-09-29 | 三菱電機株式会社 | 動画像復号化装置および動画像復号化方法 |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
JPH11308623A (ja) * | 1998-04-24 | 1999-11-05 | Sony Corp | 画像処理装置 |
JP4157234B2 (ja) * | 1999-09-02 | 2008-10-01 | 株式会社東芝 | 動画像内の移動物体検出装置 |
US6774908B2 (en) * | 2000-10-03 | 2004-08-10 | Creative Frontier Inc. | System and method for tracking an object in a video and linking information thereto |
JP4596216B2 (ja) * | 2001-06-20 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP3953350B2 (ja) * | 2002-03-28 | 2007-08-08 | 日本電信電話株式会社 | 映像シーン予測方法、装置、プログラム、および記録媒体 |
JP4049702B2 (ja) * | 2003-05-09 | 2008-02-20 | 日本電信電話株式会社 | 映像生成方法、装置、プログラム及び該プログラムを記録した記録媒体 |
JP2005277733A (ja) * | 2004-03-24 | 2005-10-06 | Seiko Epson Corp | 動画像処理装置 |
JP2007180808A (ja) * | 2005-12-27 | 2007-07-12 | Toshiba Corp | 映像符号化装置、映像復号化装置、及び映像符号化方法 |
US8018494B2 (en) * | 2006-01-10 | 2011-09-13 | Panasonic Corporation | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
JP2008042659A (ja) * | 2006-08-08 | 2008-02-21 | Sony Corp | 画像処理装置および方法、プログラム、並びにプログラム格納媒体 |
KR100803611B1 (ko) * | 2006-11-28 | 2008-02-15 | 삼성전자주식회사 | 영상의 부호화, 복호화 방법 및 장치 |
-
2006
- 2006-10-02 JP JP2006271167A patent/JP4939890B2/ja not_active Expired - Fee Related
-
2007
- 2007-09-25 US US11/860,823 patent/US8320691B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7247825B2 (ja) | 2018-12-17 | 2023-03-29 | Agc株式会社 | ガラス組成物、複合粉末材料、複合粉末材料ペースト、レーザプリンタ用のプリンタヘッド、及びサーマルプリンタヘッド |
Also Published As
Publication number | Publication date |
---|---|
US8320691B2 (en) | 2012-11-27 |
JP2008092301A (ja) | 2008-04-17 |
US20080080779A1 (en) | 2008-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4939890B2 (ja) | 映像符号化装置、映像復号化装置及び映像復号化方法 | |
US8326064B2 (en) | Image re-encoding method to decode image data which is orthogonally transformed per first block and encoded by a first encoding method | |
JP5423948B2 (ja) | 動画像符号化方法、およびこれを用いた装置とプログラム | |
JP4528694B2 (ja) | 動画像符号化装置 | |
JP2005532725A (ja) | ビデオ符号化における内挿フィルタタイプの選択方法および選択システム | |
JP2009218742A (ja) | 画像符号化装置 | |
EP2960855B1 (en) | Method and device for determining a set of modifiable elements in a group of pictures | |
JP2010263301A (ja) | 画像データの生成方法 | |
TW201524196A (zh) | 影像預測解碼裝置、影像預測解碼方法及影像預測解碼程式 | |
RU2734616C1 (ru) | Способ декодирования видео с предсказанием и устройство декодирования видео с предсказанием | |
KR101140269B1 (ko) | 영상신호 생성장치, 영상신호 생성방법, 영상신호 생성프로그램 및 그 프로그램을 기록한 컴퓨터 독취가능한 기록매체 | |
JP2010081498A (ja) | 画像圧縮符号化方法、及び装置 | |
JP3778208B2 (ja) | 画像符号化装置及び画像符号化方法 | |
JP5180887B2 (ja) | 符号化装置およびその方法 | |
CN100508615C (zh) | 运动图像的编码方法、解码方法、编码装置及解码装置 | |
JP4964689B2 (ja) | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体 | |
JP2009218965A (ja) | 画像処理装置、それを搭載した撮像装置、および画像再生装置 | |
US20210120245A1 (en) | Image coding apparatus, image coding method, and program, and image decoding apparatus, image decoding method, and program | |
JP2007214991A (ja) | 映像品質測定装置および映像品質測定方法ならびにそのプログラム | |
TWI755653B (zh) | 圖像編碼裝置、圖像編碼方法、圖像解碼裝置、圖像解碼方法 | |
KR20050098292A (ko) | 코딩된 잔류 모션 벡터 데이터의 존재를 통지하는 플래그를포함한 모션 벡터들의 예측 인코딩 | |
JP2007020216A (ja) | 符号化装置、符号化方法、フィルタ処理装置およびフィルタ処理方法 | |
Sowmyayani et al. | Frame differencing-based segmentation for low bit rate video codec using H. 264 | |
JP2015019319A (ja) | 符号化装置、符号化方法及びプログラム | |
JP2008227602A (ja) | 直交変換・量子化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120227 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |