JP2006121701A - 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置 - Google Patents

多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置 Download PDF

Info

Publication number
JP2006121701A
JP2006121701A JP2005306010A JP2005306010A JP2006121701A JP 2006121701 A JP2006121701 A JP 2006121701A JP 2005306010 A JP2005306010 A JP 2005306010A JP 2005306010 A JP2005306010 A JP 2005306010A JP 2006121701 A JP2006121701 A JP 2006121701A
Authority
JP
Japan
Prior art keywords
motion vector
frame
base layer
layer frame
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005306010A
Other languages
English (en)
Other versions
JP4294630B2 (ja
Inventor
Woo-Jin Han
宇 鎭 韓
Kyo-Hyuk Lee
教 ▲ひょく▼ 李
Jea-Young Lee
宰 榮 李
Sang-Chang Cha
尚 昌 車
Bae-Keun Lee
培 根 李
Ho Jin Ha
昊 振 河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020040103059A external-priority patent/KR100664929B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2006121701A publication Critical patent/JP2006121701A/ja
Application granted granted Critical
Publication of JP4294630B2 publication Critical patent/JP4294630B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】 多階層構造を使用するビデオコーディング方法において、基礎階層のモーションベクトルを用いて向上階層のモーションベクトルを効果的に予測して、モーションベクトルの圧縮効率を高める方法及び装置を提供する。
【解決手段】 入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階、入力フレームから第1フレーム率より大きな第2フレーム率を有する第1向上階層フレームのモーションベクトルを求める段階、第1向上階層フレームに対する予測モーションベクトルを生成する段階、及び第1向上階層フレームのモーションベクトルと生成された予測モーションベクトルとの差分、及び求めた基礎階層のモーションベクトルを符号化する段階を含む多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
【選択図】 図5

Description

本発明は、ビデオ圧縮方法に係り、より詳細には、多階層構造を使用するビデオコーディング方法において、基礎階層(base layer)のモーションベクトルを用いて向上階層(enhanced layer)のモーションベクトルを効率よく予測して、モーションベクトルの圧縮効率を高める方法及び装置に関する。
インターネットを含む情報通信技術が発達するにつれて文字、音声だけでなく画像通信が増加しつつある。既存の文字中心の通信方式では消費者の多様な欲求を満たすには足りなく、したがって、文字、映像、音楽など多様な形態の情報を収容できるマルチメディアサービスが増加しつつある。マルチメディアデータは、その量がぼう大で大容量の記録媒体を必要とし、伝送時に広い帯域幅を必要とする。したがって、文字、映像、オーディオを含むマルチメディアデータを伝送するには、圧縮コーディング技法を使用することが必須である。
データを圧縮する基本的な原理はデータの重複をなくす過程である。イメージで同じ色や客体が反復されるような空間的重複や、動映像フレームで隣接フレームがほとんど変化のない場合や、オーディオで同じ音が反復され続けるような時間的重複、または人間の視覚及び知覚能力が高い周波数に鈍感なことを考慮した心理視覚重複をなくすことによりデータを圧縮できる。一般的なビデオコーディング方法において、時間的重畳はモーション補償に基づいた時間的フィルタリング(temporal filtering)により除去して、空間的重畳は空間的変換(spatial transform)により除去する。
データの重畳を除去した後、生成されるマルチメディアを伝送するためには、伝送媒体が必要であるが、その速度は伝送媒体別に異なる。現在使われている伝送媒体は、秒当り数十mbitのデータを伝送しうる超高速通信網から秒当り384kbitの伝送速度を有する移動通信網のように多様な伝送速度を有する。このような環境で、多様な速度の伝送媒体を支援するために、または伝送環境によってこれに適した伝送率でマルチメディアを伝送可能にする、すなわち、スケーラビリティを有するデータコーディング方法がマルチメディア環境にさらに適していると言える。
このようなスケーラビリティとは、1つの圧縮されたビットストリームに対してビット率、エラー率、システム資源などの条件によってデコーダ端またはプリデコーダ端で部分的なデコーディングを可能にする符号化方式を意味する。デコーダまたはプリデコーダは、このようなスケーラビリティを有するコーディング方式で符号化されたビットストリームの一部だけを取って異なる画質、解像度、またはフレームレートを有するマルチメディアシーケンスを復元しうる。
図1は、一般的なスケーラブルビデオコーディングシステムの全体構成を示す図面である。まず、エンコーダ50は入力ビデオ10を符号化して1つのビットストリーム52を生成する。そして、プリデコーダ60は、デコーダ70との通信環境またはデコーダ70端での機器性能などを考慮した条件、例えば、ビット率、解像度またはフレームレートを抽出条件として、エンコーダ50から受信したビットストリーム52を切り取って多様なビットストリーム53を抽出しうる。通常、このようなプリデコーダ60は、可変ネットワーク環境で可変ビデオストリームをエンドユーザに提供するビデオストリームサーバに含まれる形として具現される。
デコーダ300は、抽出したビットストリーム53から出力ビデオ54を復元する。もちろん、前記抽出条件によるビットストリームの抽出は必ずしもプリデコーダ150で実行されるものではなく、デコーダ300で実行されうる。また、プリデコーダ150及びデコーダ300の両方で実行されうる。
このようなスケーラブルビデオコーディングに関わって、既にMPEG−21のPART−13でその標準化作業を進行している。この中でも、多階層基盤のビデオコーディング方法によってスケーラビリティを具現しようとする多くの試みらがあった。例えば、基礎階層、第1向上階層、第2向上階層の多階層をおいて、それぞれの階層は相異なる解像度QCIF、CIF、2CIF、または相異なるフレーム率を有するように構成されうる。
1つの階層にコーディングする場合と同様に、多階層にコーディングする場合に当って、各階層別に時間的重畳性を除去するためのモーションベクトル(MV)を求める必要がある。このようなモーションベクトルは、各階層ごとに別途に検索して使用する場合(前者)があり、1つの階層でモーションベクトル検索を行った後、それを他の階層でも使用(そのまままたはアップ/ダウンサンプリングして)する場合(後者)もある。前者の場合は、後者の場合に比べて正確なモーションベクトルを探すことによって得る利点と、階層別に生成されたモーションベクトルがオーバーヘッドとして作用する短所が同時に存在する。したがって、前者の場合には、各階層別モーションベクトルの間の重畳性をさらに効率よく除去することが非常に重要な課題となる。
図2は、多階層構造を用いたスケーラブルビデオコデックの一例を示す図面である。まず、基礎階層をQCIF(Quarter Common Intermediate Format)、15Hz(フレームレート)と定義し、第1向上階層をCIF(Common Intermediate Format)、30hzと、第2向上階層をSD(Standard Definition)、60hzと定義する。もし、CIF0.5Mストリームを所望するならば、第1向上階層のCIF_30Hz_0.7MでSNRが0.5Mになるようにビットストリームを切り取って送ればよい。このような方式で空間的、時間的、SNRスケーラビリティを具現できる。図2のように、モーションベクトルは、その数が増加して既存の1階層より構成されたものより約2倍程度のオーバーヘッドが発生するために、基礎階層を通じたモーション予測が重要である。もちろん、このようなモーションベクトルは、周辺のフレームを参照してエンコーディングされるインターフレームでのみ使われるので、周辺のフレームとは関係なくエンコーディングされるインターフレームでは使われない。
図2から分かるように、同じ時間的位置を有する各階層でのフレーム(例えば、10、20、及び30)はそのイメージが類似していると推定でき、それにより、モーションベクトルも類似していると推定できる。したがって、下位階層のモーションベクトルから現在階層のモーションベクトルを予測し、予測された値と実際に求めたモーションベクトルとの差をエンコーディングすることによって、効率よくモーションベクトルを表現する方法が既に使われている。
図3は、このようにモーション予測を通じてモーションベクトルを効率よく表現する方法を説明する図である。従来の技術によれば、現在階層のモーションベクトルの予測モーションベクトルとしては、同じ時間的位置を有する下位階層のモーションベクトルをそのまま利用する。
エンコーダは、それぞれの階層で所定の精度で各階層のモーションベクトルMV、MV、MVを求めた後、それを用いて各階層で時間的重畳を除去する時間的変換過程を行う。しかし、ビットストリームの提供時、エンコーダは基礎階層のモーションベクトルと、第1向上階層の成分D及び第2向上階層の差分Dだけをプリデコーダ(ないしビデオストリームサーバ)端に提供する。プリデコーダは、ネットワーク状況に合わせて基礎階層のモーションベクトルだけをデコーダ端に伝送するか、基礎階層のモーションベクトル及び第1向上階層のモーションベクトル成分Dをデコーダ端に伝送するか、または基礎階層のモーションベクトルと第1向上階層のモーションベクトル成分D、及び第2向上階層のモーションベクトル成分Dをデコーダ端に伝送しうる。
これにより、デコーダは伝送されたデータによって、該当階層のモーションベクトルを復元しうる。例えば、デコーダが基礎階層のモーションベクトル及び第1向上階層のモーションベクトル成分Dを受信した場合には、前記基礎階層のモーションベクトル及び第1向上階層のモーションベクトル成分Dを加算することによって、第1向上階層のモーションベクトルMVを復元でき、前記復元されたモーションベクトルMVを用いて第1向上階層のテクスチャデータを復元しうる。
しかし、図2のように、下位階層と現在階層とのフレーム率が異なる場合には、現在フレームと同じ時間的位置を有する下位階層フレームが存在していないこともある。例えば、あるフレーム40の下位階層は存在していないために、下位階層のモーションベクトルを通じたモーション予測は不可能である。したがって、フレーム40のモーションベクトルは、モーション予測を利用できない。よって、第1向上階層のモーションベクトルは重畳が除去されていないまま表現されるために非効率的である。
韓国特許公開第2003−0049469号公報
本発明は、前記問題点を考慮して創案されたものであって、基礎階層のモーションベクトルから向上階層のモーションベクトルを予測するのにさらに効率的な方法を提供することを目的とする。
また、本発明は、現在階層のフレームと同じ時間的位置を有する下位階層のフレームが存在していない場合にも、モーションベクトルを予測できる効率的な方案を提示することを他の目的とする。
前記目的を達成するために本発明による多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法は、(a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、(b)前記入力フレームから前記第1フレーム率より大きい第2フレーム率を有する第1向上階層フレームのモーションベクトルを求める段階と、(c)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在していないと、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから、少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、(d)前記第1向上階層フレームのモーションベクトルと前記生成された予測モーションベクトルとの差分、及び前記求めた基礎階層のモーションベクトルを符号化する段階とを含む。
前記目的を達成するために本発明による多階層基盤のビデオエンコーディング方法は、(a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、(b)前記入力フレームから前記第1フレーム率より大きい第2フレーム率を有する第1向上階層フレームのモーションベクトルを求める段階と、(c)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在しなければ、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、(d)前記基礎階層フレームのモーションベクトルを用いて前記基礎階層フレームのテクスチャデータを損失符号化する段階と、(e)前記第1向上階層フレームのモーションベクトルを用いて前記第1向上階層フレームのテクスチャデータを損失符号化する段階と、(f)前記第1向上階層フレームのモーションベクトルと前記生成された予測モーションベクトルとの差分、前記基礎階層のモーションベクトル、前記(d)段階で損失符号化された結果、及び前記(e)段階で損失符号化された結果を無損失符号化する段階とを含む。
前記目的を達成するために本発明による多階層基盤のビデオエンコーディング方法は、(a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、(b)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在しなければ、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて前記第1向上階層フレームのモーションベクトルを生成する段階と、(c)前記基礎階層フレームのモーションベクトルを用いて前記基礎階層フレームのテクスチャデータを損失符号化する段階と、(d)前記第1向上階層フレームのモーションベクトルを用いて前記第1向上階層フレームのテクスチャデータを損失符号化する段階と、(e)前記基礎階層フレームのモーションベクトル、前記(c)段階で損失符号化された結果、及び前記(d)段階で損失符号化された結果を無損失符号化する段階とを含む。
前記目的を達成するために本発明による多階層基盤のビデオデコーディング方法
は、(a)入力されたビットストリームから基礎階層のデータと向上階層のデータとを抽出する段階と、(b)前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在しない場合には、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームを参照して前記向上階層でのモーションベクトルを復元する段階と、(c)前記復元された向上階層のモーションベクトルを用いて前記向上階層のテクスチャデータからビデオシーケンスを復元する段階とを含む。
本発明によれば、多階層のモーションベクトルをさらに効率よく圧縮する効果がある。また本発明によれば、同じビットストリームを有する映像に対してさらに画質を高めることができる。
本発明の利点及び特徴、そしてこれを達成する方法は添付された図面に基づいて詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は以下で開示される実施例に限定されるものではなく、この実施例から外れて多様な形に具現でき、本明細書で説明する実施例は本発明の開示を完全にし、本発明が属する技術分野で当業者に発明の範ちゅうを完全に報せるために提供されるものであり、本発明は請求項及び発明の詳細な説明により定義されるだけである。一方、明細書全体に亙って同一な参照符号は同一な構成要素を示す。
モーション予測をさらに正確に行うほど、モーションベクトルによるオーバーヘッドは減少する。図4を参照すれば、下位階層のモーションベクトルMV、MVをそのまま予測モーションベクトルMV1p、MV2pとして利用せず、さらに正確なモーション予測方法を利用すれば、MV及びMVは、各々ベクトル11及びベクトル13ほど移動する効果を奏する。したがって、従来には現在階層のモーションベクトルとその下位階層のモーションベクトルとの差分値12、第2向上階層でモーションベクトルの差分値14を伝送せねばならないが、さらに正確にモーション予測を行って予測モーションベクトルMV1p、MV2pを利用するならば、さらに小さい値であるD及びDを保存すればよい。したがって、それほどモーションベクトルに必要なビット量を節約することになり、節約されたビット量をテクスチャに割り当てることによって画質の向上をもたらす。
このためには、予測モーションベクトルMV1p及びMV2pを生成する過程が、第1に、別途の付加情報なしに下位階層のモーション情報を読込むことによって実行されねばならず、第2に、前記参照モーションベクトルが現在階層のモーションベクトルと相当近い値に設定されねばならない。
図5は、本発明の基本概念を説明する概略図である。本例で、現在階層Lは、CIF解像度に、30Hzのフレーム率を有し、下位階層Ln−1はQCIF解像度に15Hzのフレーム率を有すると仮定する。
本発明は、現在階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する。しかし、そうでない場合には、前記時間的位置に最も近い基礎階層フレームのうち、少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する。図5において、現在階層のフレームA及びフレームAのモーションベクトルは、同じ時間的位置を有する下位階層のフレームB及びBのモーションベクトルからモーション予測される。ここで、モーション予測とは、実質的には予測モーションベクトルを生成することを意味する。
一方、同じ時間的位置で下位階層フレームが存在しないフレームAに対する予測モーションベクトルは、前記時間的位置に最も近いフレームB、Bでのモーションベクトルを用いて生成される。これは、まずB及びBでのモーションベクトルを補間してAと同じ時間的位置での仮想モーションベクトル(仮想フレームBのモーションベクトル)を生成し、前記生成された仮想モーションベクトルから予測モーションベクトルを生成する。
例えば、現在階層のフレームAがA及びAを参照フレームとして双方向予測を行うとする時、前記両方向予測で使われる順方向モーションベクトル(Aを参照フレームとする場合)と逆方向モーションベクトル(Aを参照フレームとする場合)は、下位階層のモーションベクトルを用いて効率よく予測されうる。
もし、下位階層のBが逆方向モーションベクトル(Bを参照フレームとする)を有するならば、前記Bの順方向モーションベクトルは現在階層のモーションベクトルに比べて参照距離が2倍である。したがって、参照距離と参照方向を考慮すれば、Aの順方向モーションベクトルに対する予測モーションベクトルは、Bの逆方向モーションベクトルに−1/2を乗算することによって計算され、Aの逆方向モーションベクトルに対する予測モーションベクトルは、Bの逆方向モーションベクトルに1/2を乗算することによって計算されうる。または、計算上の誤差を減らすために、Aの逆方向モーションベクトルに対する予測モーションベクトルとしては、Bの逆方向モーションベクトルで前記計算されたAの順方向モーションベクトルを加算した値を使用しても良い。
一方、下位階層のBが順方向モーションベクトル(Bを参照フレームとする)を有するならば、前記Bの順方向モーションベクトルも現在階層のモーションベクトルに比べて参照距離が2倍である。したがって、参照距離と参照方向とを考慮すれば、Aの順方向モーションベクトルに対する予測モーションベクトルはBの順方向モーションベクトルに1/2を乗算することによって計算され、Aの逆方向モーションベクトルに対する予測モーションベクトルは、Bの順方向モーションベクトルに−1/2を乗算することによって計算されうる。または、計算上の誤差を減らすために、Aの逆方向モーションベクトルに対する予測モーションベクトルとしては、前記計算されたAの順方向モーションベクトルからBの順方向モーションベクトルを差し引いた値を使用することもある。
図6は、本発明の一実施形態によるビデオエンコーダ100の構成を示すブロック図である。本実施形態は1つの基礎階層と1つの向上階層とを使用する場合を例としたが、さらに多くの向上階層を利用することもある。ビデオエンコーダ100は、ダウンサンプラ110と、モーション推定部121、131と、損失符号化部125、126と、モーションベクトル予測部140と、エントロピー符号化部150とを含んで構成されうる。
ダウンサンプラ110は、入力されたビデオを各階層に合う解像度とフレーム率にダウンサンプリングする。もし、図5のように、基礎階層をQCIF@15Hzに、向上階層をCIF@30Hzに使用するならば、元の入力されたビデオをCIF、及びQCIF解像度に各々ダウンサンプリングし、その結果を再びフレーム率面で再び15Hz及び30Hzにダウンサンプリングする。解像度面でのダウンサンプリングは、MPEGダウンサンプラやウェーブレットダウンサンプラを利用しうる。そして、フレーム率面でのダウンサンプリングはフレームスキップまたはフレーム補間などの方法を通じて実行しうる。
このように、基礎階層に比べて向上階層が常に高い解像度及び高いフレーム率を同時に有するものではなく、同じフレーム率に高い解像度を有するか、同じ解像度に高いフレーム率を有することができるということは当業者には周知の事実である。
モーション推定部121は、基礎階層フレームに対してモーション推定を行って基礎階層フレームのモーションベクトルを求める。このようなモーション推定は参照フレーム上で、現在フレームのブロックと最も類似した、すなわち最もエラーの少ないブロックを探す過程であって、固定サイズブロックマッチング方法、または階層的可変サイズブロックマッチング法(HVSBM)など多様な方法を使用しうる。同様に、モーション推定部131は、向上階層フレームに対してモーション推定を行って向上階層フレームのモーションベクトルを求める。
モーションベクトル予測部140は、前記基礎階層のモーションベクトルを用いて向上階層に対する予測モーションベクトルを生成し、前記求めた向上階層フレームのモーションベクトルと前記予測モーションベクトルとの差分(以下、“モーションベクトル成分”と称する)を求める。
モーションベクトル予測部140で実行される動作をさらに詳細に説明するために、図7のフローチャートを参照する。まず、向上階層に属する現在フレームと同じ時間的位置に基礎階層フレームが存在するか否かを判断する(S10)。前記判断の結果、存在する場合(S10のはい)、前記現在フレームと空間的関連性を有する基礎階層フレームのモーションベクトルをフィルタリングする(S20)。その結果、現在フレームの1つのモーションベクトルに対応する1つのフィルタリングされたモーションベクトルが生成される。S20段階は、後述する図9及び図10を参照して説明する。
次いで、前記向上階層と基礎階層との解像度が同一であるか否かを判断する(S30)。その結果、同じ場合には(S30のはい)現在フレームのモーションベクトルと前記フィルタリングの結果として生成されるモーションベクトルとを差分する(S40)。なぜなら、解像度が同じ場合には、前記フィルタリングされた結果として生成されるモーションベクトルが直ちに予測モーションベクトルになるためである。もし、S30の判断の結果、同一でない場合には(S30のいいえ)、前記フィルタリング結果として生成されるモーションベクトルを前記向上階層の解像度にアップサンプリングする(S45)。例えば、向上階層の解像度が基礎階層の2倍とすれば、前記アップサンプリングとは、前記フィルタリングの結果として生成されるモーションベクトルを2倍に拡大することを意味しうる。ここでは、アップサンプリングされたモーションベクトルが予測モーションベクトルになるので、現在フレームのモーションベクトルと前記アップサンプリングされたモーションベクトルとを差分する(S50)。
一方、S10段階の判断結果、現在フレームと同じ時間的位置に基礎階層フレームが存在していない場合(S10のいいえ)には、前記時間的位置の直前または直後に存在する基礎階層フレーム(すなわち、前記時間的位置の前後で最も近接したフレーム)のモーションベクトルをフィルタリングする(S55、S60)。例えば、図5のような場合には、現在フレームAと同じ時間的位置の直前または直後に存在するフレームはB及びBである。すなわち、前記時間的位置の直前に存在するフレーム(例えば、B)のモーションベクトルのうち、前記現在フレームのモーションベクトルと空間的関連性を有するモーションベクトルをフィルタリングして1つのフィルタリングされたモーションベクトルを生成する(S55)。そして、前記時間的位置の直後に存在するフレーム(例えば、B)のモーションベクトルのうち、前記現在フレームのモーションベクトルと空間的関連性を有するモーションベクトルとをフィルタリングして1つのフィルタリングされたモーションベクトルを生成する(S60)。このようなフィルタリング過程は、S20と同様な過程であって、図9及び図10を参照して後述する。
その後、S55段階のフィルタリング結果として生成されるフィルタリングされたモーションベクトルと、S60段階のフィルタリング結果として生成されるフィルタリングされたモーションベクトルを用いて現在フレームと同じ時間的位置での“仮想モーションベクトル”を補間(interpolation)する。このような補間過程で使われる補間アルゴリズムとして、単純に両者を平均する方法、バイリニア(bi−linear)補間方法、バイキュービック(bi−cubic)補間方法などを利用しうる。図5の例のように、直前及び直後のフレームの距離が同じ場合とは違って、前記距離が相異なるならば、距離に反比例して反映比重を高める方法で補間することが望ましい。但し、このように互いい距離が異なる場合には、近い位置にあるフレーム1つだけを利用することもできる。
一方、前述したような簡単な補間方法と違って、モーションベクトルフィールドの特徴を考慮して直前フレーム及び直後フレームの反映比重を決定する方法を考えられる。図8のように、直前フレーム及び直後フレームのモーションベクトルが表示されるとし(白いブロック部分はモーションベクトルが省略される)、現在フレームのあるモーションベクトルと同じ空間的位置を有するブロックを61、62とする。直前フレームの場合には、ブロック61の周辺(より拡張するか、狭くしうる)のモーションベクトルは、ブロック61のモーションベクトルとほぼ類似している。一方、直後フレームの場合には、ブロック62周辺のモーションモーションベクトルはブロック62のモーションベクトルとほとんど異なる。このような観点で、現在フレームのモーションベクトルに対する予測モーションベクトルを生成するに当って、直前フレームの反映比重をさらに高めるのが、さらに正確なモーション予測を行うのに役に立つ。これを定量化すれば、ブロック61のモーションベクトルとその周辺モーションベクトルとの差の和を計算し、ブロック62のモーションベクトルとその周辺モーションベクトルとの差の和を計算し、差の和に反比例して反映比率を決定しうる。デコーダ端でもエンコーダ端から求めたモーションベクトルを伝達されるので、エンコーダ端で決定された反映比率を伝達される必要なく、同様の計算過程を通じて反映比率を把握しうる。
次いで、向上階層と基礎階層との解像度が同一であれば(S70のはい)、前記補間された仮想モーションベクトルが直ちに予測モーションベクトルとなる。したがって、モーションベクトルを効率よく圧縮するためには、現在フレームのモーションベクトルと仮想モーションベクトルとを差分する(S75)。この差分結果が直ちに向上階層でのモーションベクトル成分となる。
一方、向上階層と基礎階層との解像度が同一でなければ(S70のいいえ)、前記補間された仮想モーションベクトルは前記向上階層でのモーションベクトルの大きさになるようにアップサンプリングされる(S80)。このようにアップサンプリングされたモーションベクトルが予測モーションベクトルとなるので、現在フレームのモーションベクトルと前記アップサンプリングされたモーションベクトルとを差分する(S85)。
図9は、フィルタリング過程を説明するための図である。ここで、フィルタリングとは、向上階層フレームに対する1つのモーションベクトルと空間的連関性があるモーションベクトルとを用いて1つのフィルタリングされたモーションベクトルを求める過程を意味する。ここで、“空間的連関性”がある位置は、“直接対応する位置”を意味するか(第1実施形態)、前記直接対応する位置及びそれから拡張された周辺を含む領域を意味する(第2実施形態)。
まず、第1実施形態を説明する。図9で基礎階層の解像度と向上階層の解像度とが同じ場合に、例えば、モーションベクトル65と空間的連関性がある(すなわち、直接対応する位置の)モーションベクトルは、モーションベクトル63を意味する。この場合には、モーションベクトル63が直接“フィルタリングされたモーションベクトル”を意味することとなる。
そして、基礎階層の解像度と向上階層の解像度とが異なる場合に、モーションベクトル65と空間的連関性があるモーションベクトルは、モーションベクトル64を意味する。この場合には、モーションベクトル64が直接“フィルタリングされたモーションベクトル”を意味する。もちろん、モーションベクトル64はモーションベクトル65だけでなく、モーションベクトル66、67、68とも空間的連関性を有する。
次いで、第2実施形態を説明する。第2実施形態は直接対応する位置のモーションベクトルだけでなく、その周辺のモーションベクトルを考慮してフィルタリングする場合である。この場合には、空間的連関性がある位置は、直接対応する位置及びその周辺の領域を含む意味として使われる。このように周辺まで拡張する理由は、モーションベクトルは空間的にも類似性を有するので、モーション予測のためには周辺のモーションベクトルまで考慮することがさらに良い結果をもたらすからである。
図9において、基礎階層の解像度と向上階層の解像度とが同じ場合に、モーションベクトル65と直接対応することはモーションベクトル63であるが、モーションベクトル63だけでなく、その周辺のモーションベクトルを共に考慮してフィルタリングするようになる。例えば、“周辺”をモーションベクトル63を取り囲んでいる8個のモーションベクトルを意味すると仮定すれば、モーションベクトル63を含む9個のモーションベクトルの線形結合でフィルタリングされたモーションベクトルを求めることができる。この場合、モーションベクトル63にはさらに大きな係数(すなわち、さらに大きな反映比率)を使用し、周辺のモーションベクトルには、さらに小さな係数を使用する。周辺のモーションベクトルの反映比率も辺の位置または角の位置によって相異なる反映比率を与えることもあるということは自明である。もちろん、複数のモーションベクトルから1つのフィルタリングされたモーションベクトルを求めるためには、それ以外にも中間値フィルター、バイキュービックフィルター、 クワドラティック (quadratic)フィルターなど多様なフィルターを利用することができる。
一方、基礎階層の解像度と向上階層の解像度とが同じ場合に、モーションベクトル65と直接対応するのはモーションベクトル64であるが、モーションベクトル64及びその周辺のモーションベクトルを共に考慮してフィルタリングする。図10を参照して基礎階層の解像度と向上階層の解像度とが異なる場合に、フィルタリングされたモーションベクトルを求める過程を説明する。
まず、基礎階層で1つのブロックは、第1向上階層で4個の固定ブロックと対応すると仮定する。例えば、ブロックfは、ブロックf5、f6、f7、及びf8よりなる領域に対応する。参照モーションベクトルを求めるための所定の補間方法を使用するためには、まず、基礎階層で空間的連関性がある領域範囲を定め、その範囲内のモーションベクトル各々に対する反映比率を決定せねばならない。
例えば、ブロックf5のモーションベクトルは、ブロックb、e、fと空間的連関性が大きいと見なしうる。ブロックf5は、地域的に見る時、ブロックfに対応する領域で左上1/4部分を占めているので、基礎階層でブロックb、ブロックe、ブロックfと相当な関連があると推測できるものである。
このように、空間的連関性がある領域範囲を定めた後には、その領域に存在するモーションベクトルをフィルタリングする。この場合、ブロックb、eに比べてブロックfの反映比率を大きくすることが妥当である。その他にも、中間値フィルター、バイキュービックフィルター、 クワドラティックフィルターなど多様なフィルターを利用しても良い。
一方、参照ブロックの範囲にブロックb、ブロックe、ブロックfだけでなく、ブロックaも含め、各ブロックの反映比率も異ならせる(例えば、ブロックbは25%、ブロックeは25%、ブロックaは10%、ブロックfは40%)ことができる。また、参照ブロックの領域を直ちに隣接したブロックだけでなく、1ブロックおきのブロックまで含んで指定するなど、多様な方法で指定できるということを当業者ならば容易に分かる。基礎階層と向上階層との解像度が異なる場合は、フィルタリングされたモーションベクトルのスケールは向上階層のモーションベクトルスケールと異なる。前記フィルタリングされたモーションベクトルは、基礎階層のモーションベクトルを用いてフィルタリングを行うだけで、アップサンプリングまで行うものではないためである。もちろん、フィルタリング時にアップサンプリングを同時に行うこととすることもできるが、本発明においてアップサンプリングは以後に別途の過程で行うと説明する。
以上、第2実施形態は固定ブロックを利用するものと説明したが、可変ブロックを利用する場合にも、空間的連関性の程度によって各々適切な割合でフィルタリングすることも十分に可能である。
また図6を参照するに、損失符号化部125は、モーション推定部121で求めたモーションベクトルを用いて基礎階層フレームを損失符号化する。このような損失符号化部125は時間的変換部122と、空間的変換部123と、量子化部124とを備えて構成できる。
時間的変換部122は、モーション推定部121で求めた前記モーションベクトル、及び現在フレームと時間的に異なる位置にあるフレームを用いて予測フレームを構成して、現在フレームと予測フレームとを差分することによって、時間的重畳性を減少させる。その結果、残余フレームが生成される。もちろん、現在フレームが他のフレームを参照せずに、エンコーディングされるフレーム、すなわちインターフレームである場合には、モーションベクトルを必要せず、予測フレームを用いた時間的変換過程も省略される。このような時間的変換方法のうちから時間的スケーラビリティを支援する方法として、例えばMCTF(Motion Compensated Temporal Filtering)、またはUMCTF(Unconstrained MCTF)などを使用しうる。
空間的変換部123は、時間的変換モジュール110によって生成された残余フレームまたは原入力フレームに対して、空間的変換を行って変換係数を生成する。このような空間的変換方法としては、DCT(Discrete Cosine Transform)、ウェーブレット変換などの方法が使われる。DCTを使用する場合、前記変換係数はDCT係数で、ウェーブレット変換を使用する場合、前記変換係数はウェーブレット係数である。
量子化部124は、空間的変換部123によって生成される変換係数を量子化する。量子化とは、任意の実数値で表現される前記DCT係数を一定区間に分けて不連続的な値(discrete value)で表し、それを所定の量子化テーブルによるインデックスでマッチングさせる作業を意味する。
一方、損失符号化部135は、モーション推定部131で求めた向上階層フレームのモーションベクトルを用いて向上階層フレームを損失符号化する。このような損失符号化部135は時間的変換部132と、空間的変換部133と、量子化部134を含んで構成されうる。損失符号化部135は、向上階層フレームを損失符号化する他に、その動作は損失符号化部125と同様であるために、重畳的な説明は省略する。
エントロピー符号化部150は、基礎階層の量子化部124及び向上階層の量子化部134によって生成された量子化係数、基礎階層のモーション推定部121で生成された基礎階層のモーションベクトル、及びモーションベクトル予測部140で生成される向上階層のモーションベクトル成分を無損失符号化(ないしエントロピー符号化)して出力ビットストリームを生成する。このような無損失符号化方法としては、ハフマン符号化、算術符号化、可変長符号化などの多様な符号化方法を使用しうる。
図6では、基礎階層に対する損失符号化部125と、向上階層に対する損失符号化部135を概念的に区分して説明したが、これに限らず、1つの損失符号化部で基礎階層及び向上階層を何れも処理することと構成して説明できるということは当業者には自明である。
図11は、本発明の一実施形態によるビデオデコーダ200の構成を示すブロック図である。ビデオデコーダ200は、エントロピー復号化部210と、損失復号化部225、235と、モーションベクトル復元部240を含んで構成されうる。
エントロピー復号化部210は、エントロピー符号化方式の逆であって、入力されたビットストリームから基礎階層フレームのモーションベクトル、向上階層のモーションベクトル成分、前記基礎階層フレームのテクスチャデータ、及び前記向上階層フレームのテクスチャデータを抽出する。
モーションベクトル復元部240は、前記基礎階層のモーションベクトル及び向上階層のモーションベクトル成分を用いて向上階層でのモーションベクトルを復元する。その過程をさらに詳細に説明すれば、前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する段階と、そうでない場合には、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、前記生成された予測モーションベクトルと前記向上階層のモーションベクトル成分とを加算して向上階層でのモーションベクトルを復元する段階とよりなることができる。
このようなモーションベクトル復元過程は、前述したエンコーダ端でのモーションベクトル予測過程(図7参照)と同じ過程を経る。但し、図7でS40、S50、S75、及びS85の過程は、何れも予測モーションベクトルと現在フレームのモーションベクトルとを差分する段階であるが、その代りにデコーダ200端ではそれと違って前記予測モーションベクトルと、現在フレーム(向上階層フレーム)のモーションベクトル成分とを加算する段階を含むという点で差があるだけで、予測モーションベクトルを生成する方法においては同様であるために、重複される説明は省略する。
損失復号化部235は、損失符号化部135の逆であって、前記復元された向上階層でのモーションベクトルを用いて前記向上階層フレームのテクスチャデータからビデオシーケンスを復元する。このような、損失復号化部235は逆量子化部231と、逆空間的変換部232と、逆時間的変換部233とを備えて構成されうる。
逆量子化部231は、前記抽出された向上階層のテクスチャデータを逆量子化する。このような逆量子化過程は、量子化過程で使われた量子化テーブルをそのまま用いて量子化過程で生成されたインデックスからそれにマッチングされる値を復元する過程である。前記量子化テーブルは、エンコーダ端から伝達されたものでもあり、あらかじめエンコーダとデコーダとの間に約束されたものでもあり得る。
逆空間的変換部232は、前記逆量子化された結果に対して逆空間的変換を行う。このような逆空間的変換は、エンコーダ端の空間的変換部133に対応する方式として実行され、具体的に逆DCT変換、逆ウェーブレット変換などが使われうる。
逆時間的変換部233は、前記逆空間的変換された結果からビデオシーケンスを復元する。この場合、モーションベクトル復元部240で復元されたモーションベクトルを用いて予測フレームを生成し、前記逆空間的変換された結果と前記生成された予測フレームとを加算することによって、ビデオシーケンスを復元する。もちろん、エンコーダで時間的変換されていないイントラフレームは、ここでも逆時間的変換過程を経る必要はない。
ところが、エンコーダによっては、エンコーディング時に基礎階層を用いて向上階層のテクスチャの重畳を除去することもある。この場合、デコーダ200は基礎階層フレームを復元し、復元された基礎階層フレーム及びエントロピー復号化部210から伝えられる向上階層のテクスチャデータを用いて向上階層のフレームを復元するので、基礎階層に対する損失復号化部225を必要とする。
この場合に、逆時間的変換部232は、前記復元された向上階層のモーションベクトルを用いて、向上階層のテクスチャデータ(逆空間的変換結果)及び前記復元された基礎階層フレームからビデオシーケンスを復元する。
図11では、基礎階層に対する損失復号化部225と、向上階層に対する損失符号化部235を概念的に区分して説明したが、これに限らず、1つの損失符号化部で基礎階層及び向上階層をいずれも処理することと構成して説明できるということは当業者には自明である。
以上、各階層でモーションベクトルを求めることを前提に、求められたモーションベクトルをさらに効率的に圧縮して伝送する方法について説明した。しかし、これと違って、多階層のうち、1つの階層でモーションベクトルを求めた後、これを必要時にアップ/ダウンサンプリングして他の階層でのモーションベクトルとしてそのまま使用する実施形態も考えることができる。このような実施形態は、モーションベクトルは節減するが、向上階層でのモーションベクトルが多少不正確である短所もある。
この場合、ビデオエンコーディング過程は、入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、前記基礎階層フレームのモーションベクトルを用いて前記第1フレーム率と異なる第2フレーム率を有する向上階層フレームのモーションベクトルを求める段階と、前記基礎階層フレームのモーションベクトルを用いて前記基礎階層フレームのテクスチャデータを損失符号化する段階と、前記第1向上階層フレームのモーションベクトルを用いて前記第1向上階層フレームのテクスチャデータを損失符号化する段階と、前記基礎階層フレームのモーションベクトル、前記損失符号化された結果を無損失符号化する段階とを含んで構成されうる。
ここで、前記向上階層フレームのモーションベクトルを求める段階は、前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームのモーションベクトルに基づいて前記向上階層フレームのモーションベクトルを生成する第1段階と、そうでない場合には、前記時間的位置の直前または直後に存在する基礎階層フレームらのうち、少なくとも1つのフレームに対するモーションベクトルに基づいて前記向上階層フレームのモーションベクトルを生成する第2段階よりなりうる。
前記第1段階は、前記向上階層フレームのモーションベクトルと空間的関連性を有する前記基礎階層フレームのモーションベクトルとを所定のフィルターを用いてフィルタリングする段階と、前記基礎階層フレームの解像度が前記向上階層の解像度と同一でない場合に、前記フィルタリングされた結果として生成されるモーションベクトルを前記向上階層のモーションベクトルの大きさになるようにアップサンプリングする段階と、を含む。その結果、生成されるモーションベクトルは、予測モーションベクトルでなく、直ちに向上階層のモーションベクトルとして使われる。
前記第2段階は、前記直前または直後に存在する基礎階層フレームのモーションベクトルに基づいて前記基礎階層フレームの仮想モーションベクトルを補間する段階と、前記基礎階層フレームの解像度が前記向上階層の解像度と同一でない場合に、前記補間された仮想モーションベクトルを前記向上階層のモーションベクトルの大きさになるようにアップサンプリングする段階を含む。その結果、生成されるモーションベクトルも予測モーションベクトルでなく、直ちに向上階層のモーションベクトルとして使われる。
前記フィルタリング、アップサンプリング、または補間などの過程が、前述した過程と同じであるために、重複される説明は省略する。
前述したように、多階層のうち1つの階層でモーションベクトルを求めた後、これを必要時にアップ/ダウンサンプリングして他の階層でのモーションベクトルとしてそのまま使用する実施形態によるビデオデコーディング方法は、次のような段階より構成される。前記ビデオデコーディング方法は、入力されたビットストリームから基礎階層フレームのモーションベクトル及び向上階層フレームのテクスチャデータを抽出する段階と、前記抽出された基礎階層フレームのモーションベクトルを用いて前記向上階層でのモーションベクトルを復元する段階と、前記復元された向上階層のモーションベクトルを用いて前記基礎階層フレームのテクスチャデータ及び前記第1向上階層フレームのテクスチャデータからビデオシーケンスを復元する段階と、を含む。
前記向上階層でのモーションベクトルを復元する段階は、前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームを参照して前記向上階層でのモーションベクトルを復元する段階と、そうでない場合には、前記時間的位置の直前または直後に存在する基礎階層フレームのうち、少なくとも1つのフレームを参照して前記向上階層でのモーションベクトルを復元する段階とを含む。
このように、基礎階層のモーションベクトルだけを用いて向上階層フレームのモーションベクトルを復元する過程は、前記ビデオエンコーディング過程で基礎階層のモーションベクトルを用いて向上階層フレームのモーションベクトルを生成する過程と同一である。
前述したあらゆる実施形態は、1つの基礎階層と1つの向上階層とを有する場合を例として説明したものである。しかし、当業者ならば以上の説明から、さらに多くの向上階層が追加される例も十分に実施できるであろう。もし、多階層が基礎階層と、第1向上階層、及び第2向上階層よりなるならば、基礎階層と第1向上階層との間に使われたアルゴリズムは、第1向上階層と第2向上階層との間にも同様に適用されうる。
前述した図6と図9において、‘モジュール’は、ソフトウェアまたはFPGA(Field Programmable Gate Array)または注文型半導体(Application Specific Integrated Circuit;ASIC)のようなハードウェア構成要素を意味し、モジュールは所定の役割を行う。しかし、モジュールはソフトウェアまたはハードウェアに限定されるものではない。モジュールは、アドレッシング可能な保存媒体に存在すべく構成されても良く、1つまたはそれ以上のプロセッサーを実行させるように構成されても良い。したがって、一例としてモジュールは、ソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、及び変数を含む。構成要素とモジュールから提供される機能は、より少数の構成要素及びモジュールで結合されるか、追加的な構成要素とモジュールにさらに分離されうる。のみならず、構成要素及びモジュールは通信システム内の1つまたはそれ以上のコンピュータを再生させるように具現されることもある。
以上、添付図を参照して本発明の実施例を説明したが、 本発明が属する技術分野で当業者ならば本発明がその技術的思想や必須特徴を変更せずとも他の具体的な形に実施されうるということが理解できるであろう。したがって、前述した実施例は全ての面で例示的なものであって、限定的なものではないと理解せねばならない。
本発明は、多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置に関連した技術分野に好適に適用されうる。
一般的なスケーラブルビデオコーディングシステムの全体構成を示す図である。 多階層基盤のビデオコーディング構造を説明する図である。 従来のモーション予測を通じてモーションベクトルを効率よく表現する方法を説明する図である。 本発明によるモーション予測を通じてモーションベクトルを効率よく表現する方法を説明する図である。 本発明の基本概念を説明する概略図である。 本発明の一実施形態によるビデオのコーダ100の構成ブロック図である。 モーションベクトル予測部140で実行される動作をさらに詳細に示すフローチャートである。 直前フレーム及び直後フレームのモーションフィールドの例を示す図である。 フィルタリング過程を説明するための図である。 基礎階層の解像度と向上階層の解像度とが異なる場合にフィルタリングされたモーションベクトルを求める方法を説明する図である。 本発明の一実施形態によるビデオデコーダ200の構成ブロック図である。
符号の説明
100 ビデオエンコーダ
110 ダウンサンプラ
121、131 モーション推定部
125、135 損失符号化部
140 モーションベクトル予測部
150 エントロピー符号化部
200 ビデオデコーダ
210 エントロピー復号化部
225、235 損失復号化部
240 モーションベクトル復元部

Claims (21)

  1. (a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、
    (b)前記入力フレームから前記第1フレーム率より大きな第2フレーム率を有する第1向上階層フレームのモーションベクトルを求める段階と、
    (c)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在しなければ、前記時間的位置の直前または直後に存在する基礎階層フレームのうち、少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、
    (d)前記第1向上階層フレームのモーションベクトルと前記生成された予測モーションベクトルとの差分、及び前記求めた基礎階層のモーションベクトルを符号化する段階とを含む多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  2. 前記(c)段階は、
    (c1)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在すれば、前記基礎階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する段階を含む請求項1に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  3. (e)前記入力フレームから前記第2フレーム率より大きな第3フレーム率を有する第2向上階層フレームのモーションベクトルを求める段階と、
    (f)前記第2向上階層フレームに対する予測モーションベクトルを生成する段階であって、
    前記第2向上階層フレームと同じ時間的位置に第1向上階層フレームが存在する場合には、前記同じ時間的位置の第1向上階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する(f1)段階と、
    そうでない場合には、前記時間的位置の直前または直後に存在する第1向上階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて前記第2向上階層フレームに対する予測モーションベクトルを生成する(f2)段階とを含む前記(f)段階と、
    (g)前記第2向上階層フレームのモーションベクトルと前記生成された第2向上階層フレームに対する予測モーションベクトルとの差分を符号化する段階と、をさらに含む請求項2に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  4. 前記(c1)段階は、
    (c11)前記第1向上階層フレームのモーションベクトルと空間的関連性を有する前記基礎階層フレームのモーションベクトルとを所定のフィルターを用いてフィルタリングする段階と、
    (c12)前記基礎階層フレームの解像度が前記第1向上階層の解像度と同一でない場合には、前記フィルタリングされた結果として生成されるモーションベクトルを前記第1向上階層のモーションベクトルの大きさになるようにアップサンプリングする段階と、を含む請求項2に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  5. 前記フィルタリングは、前記空間的関連性の程度に比例して反映比率を異ならせて適用してなる請求項4に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  6. 前記(c)段階は、
    (c21)前記直前または直後に存在する基礎階層フレームのモーションベクトルに基づいて前記基礎階層フレームの仮想モーションベクトルを補間する段階と、
    (c22)前記基礎階層フレームの解像度が前記第1向上階層の解像度と同一でない場合には、前記補間された仮想モーションベクトルを前記第1向上階層のモーションベクトルの大きさになるようにアップサンプリングして前記予測モーションベクトルを生成する段階と、を含む請求項1に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  7. 前記(c21)段階は、前記直前または直後に存在する基礎階層フレームのうちからモーションベクトルの均一性が相対的に大きい基礎階層フレームの参照比率を高めて前記基礎階層フレームの仮想モーションベクトルを補間する段階を含む請求項6に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  8. 前記(c21)段階は、
    (c211)前記直前に存在する基礎階層フレームのモーションベクトルのうち、前記第1向上階層フレームのモーションベクトルと空間的関連性を有するモーションベクトルとを所定のフィルターを用いてフィルタリングする段階と、
    (c212)前記直後に存在する基礎階層フレームのモーションベクトルのうち、前記第1向上階層フレームのモーションベクトルと空間的関連性を有するモーションベクトルを前記フィルターを用いてフィルタリングする段階と、
    (c213)前記(c211)段階でフィルタリングされた結果、及び前記(c212)段階でフィルタリングされた結果に対して所定の補間アルゴリズムを適用して仮想モーションベクトルを補間する段階と、を含む請求項6に記載の多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法。
  9. (a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、
    (b)前記入力フレームから前記第1フレーム率より大きい第2フレーム率を有する第1向上階層フレームのモーションベクトルを求める段階と、
    (c)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在しなければ、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、
    (d)前記基礎階層フレームのモーションベクトルを用いて前記基礎階層フレームのテクスチャデータを損失符号化する段階と、
    (e)前記第1向上階層フレームのモーションベクトルを用いて前記第1向上階層フレームのテクスチャデータを損失符号化する段階と、
    (f)前記第1向上階層フレームのモーションベクトルと前記生成された予測モーションベクトルとの差分、前記基礎階層のモーションベクトル、前記(d)段階で損失符号化された結果、及び前記(e)段階で損失符号化された結果を無損失符号化する段階とを含む多階層基盤のビデオエンコーディング方法。
  10. 前記(c)段階は、(c1)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在すれば、前記基礎階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する段階を含む請求項6に記載の多階層基盤のビデオエンコーディング方法。
  11. (a)入力フレームから第1フレーム率を有する基礎階層フレームのモーションベクトルを求める段階と、
    (b)前記第1向上階層フレームと同じ時間的位置に基礎階層フレームが存在しなければ、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームに対するモーションベクトルに基づいて前記第1向上階層フレームのモーションベクトルを生成する段階と、
    (c)前記基礎階層フレームのモーションベクトルを用いて前記基礎階層フレームのテクスチャデータを損失符号化する段階と、
    (d)前記第1向上階層フレームのモーションベクトルを用いて前記第1向上階層フレームのテクスチャデータを損失符号化する段階と、
    (e)前記基礎階層フレームのモーションベクトル、前記(c)段階で損失符号化された結果、及び前記(d)段階で損失符号化された結果を無損失符号化する段階とを含む多階層基盤のビデオエンコーディング方法。
  12. (a)入力されたビットストリームから基礎階層のデータと向上階層のデータとを抽出する段階と、
    (b)前記向上階層のあるフレームと同じ時間的位置に基礎階層のフレームが存在していない場合には、前記時間的位置の直前または直後に存在する基礎階層のフレームのうち、少なくとも1つのフレームに対するモーションベクトルに基づいて予測モーションベクトルを生成する段階と、
    (c)前記生成された予測モーションベクトルを用いて前記向上階層のモーションベクトルを復元する段階と、
    (d)前記復元された向上階層のモーションベクトルを用いて前記向上階層のテクスチャデータからビデオシーケンスを復元する段階とを含む多階層基盤のビデオデコーディング方法。
  13. 前記(b)段階は、
    (b1)前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームのモーションベクトルに基づいて予測モーションベクトルを生成する段階を含む請求項12に記載の多階層基盤のビデオデコーディング方法。
  14. 前記(b1)段階は、
    (b11)前記向上階層フレームのモーションベクトルと空間的関連性を有する前記基礎階層フレームのモーションベクトルとを所定のフィルターを用いてフィルタリングする段階と、
    (b12)前記基礎階層フレームの解像度が前記向上階層の解像度と同一でない場合には、前記フィルタリングされた結果として生成されるモーションベクトルを前記向上階層のモーションベクトルの大きさになるようにアップサンプリングして前記予測モーションベクトルを生成する段階とを含む請求項13に記載の多階層基盤のビデオデコーディング方法。
  15. 前記フィルタリングは、前記空間的関連性の程度に比例して反映比率を異ならせて適用してなる、請求項12に記載の多階層基盤のビデオデコーディング方法。
  16. 前記(b)段階は、
    (b21)前記直前または直後に存在する基礎階層フレームのモーションベクトルに基づいて前記基礎階層フレームの仮想モーションベクトルを補間する段階と、
    (b22)前記基礎階層フレームの解像度が前記向上階層の解像度と同一でない場合には、前記補間された仮想モーションベクトルを前記向上階層のモーションベクトルの大きさになるようにアップサンプリングして前記予測モーションベクトルを生成する段階とを含む請求項12に記載の多階層基盤のビデオデコーディング方法。
  17. 前記(b21)段階は、
    前記直前または直後に存在する基礎階層フレームのうち、モーションベクトルの均一性が相対的に大きい基礎階層フレームの参照比率を高めて前記基礎階層フレームの仮想モーションベクトルを補間する段階を含む請求項16に記載の多階層基盤のビデオデコーディング方法。
  18. 前記(b21)段階は、
    (b211)前記直前に存在する基礎階層フレームのモーションベクトルのうち、前記向上階層フレームのモーションベクトルと空間的関連性を有するモーションベクトルとを所定のフィルターを用いてフィルタリングする段階と、
    (b212)前記直後に存在する基礎階層フレームのモーションベクトルのうち、前記向上階層フレームのモーションベクトルと空間的関連性を有するモーションベクトルとを前記フィルターを用いてフィルタリングする段階と、
    (b213)前記(b211)段階でフィルタリングされた結果及び前記(b212)段階でフィルタリングされた結果に対して所定の補間アルゴリズムを適用して仮想モーションベクトルを補間する段階と、を含む請求項16に記載の多階層基盤のビデオデコーディング方法。
  19. (a)入力されたビットストリームから基礎階層のデータと向上階層のデータとを抽出する段階と、
    (b)前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在しない場合には、前記時間的位置の直前または直後に存在する基礎階層フレームのうちから少なくとも1つのフレームを参照して前記向上階層でのモーションベクトルを復元する段階と、
    (c)前記復元された向上階層のモーションベクトルを用いて前記向上階層のテクスチャデータからビデオシーケンスを復元する段階とを含む多階層基盤のビデオデコーディング方法。
  20. 前記(b)段階は、前記向上階層フレームと同じ時間的位置に基礎階層フレームが存在する場合には、前記基礎階層フレームを参照して前記向上階層でのモーションベクトルを復元する段階を含む請求項19に記載の多階層基盤のビデオデコーディング方法。
  21. 請求項1による方法を実行するためのコンピュータ可読プログラムを記録した記録媒体。
JP2005306010A 2004-10-21 2005-10-20 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置 Expired - Fee Related JP4294630B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US62032804P 2004-10-21 2004-10-21
KR1020040103059A KR100664929B1 (ko) 2004-10-21 2004-12-08 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2006121701A true JP2006121701A (ja) 2006-05-11
JP4294630B2 JP4294630B2 (ja) 2009-07-15

Family

ID=36061495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005306010A Expired - Fee Related JP4294630B2 (ja) 2004-10-21 2005-10-20 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置

Country Status (3)

Country Link
EP (1) EP1659797A3 (ja)
JP (1) JP4294630B2 (ja)
WO (1) WO2006080662A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089356A (ja) * 2007-09-10 2009-04-23 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2010504010A (ja) * 2006-09-18 2010-02-04 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング ビデオシーケンスにおけるデータ圧縮方法
WO2013008538A1 (ja) * 2011-07-14 2013-01-17 ソニー株式会社 画像処理装置及び画像処理方法
JP2013102296A (ja) * 2011-11-07 2013-05-23 Canon Inc 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
WO2013161689A1 (ja) * 2012-04-27 2013-10-31 シャープ株式会社 動画像復号装置、および動画像符号化装置
WO2014038330A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 画像処理装置及び画像処理方法
JP2015512216A (ja) * 2012-02-29 2015-04-23 エルジー エレクトロニクス インコーポレイティド インタレイヤ予測方法及びそれを利用する装置
JP2015536119A (ja) * 2012-10-09 2015-12-17 インテレクチュアル ディスカバリー カンパニー リミテッド マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置
JP2016042717A (ja) * 2015-10-29 2016-03-31 ソニー株式会社 画像処理装置及び画像処理方法
JP2017060184A (ja) * 2016-11-22 2017-03-23 ソニー株式会社 画像処理装置及び画像処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896279B1 (ko) 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP4529874B2 (ja) * 2005-11-07 2010-08-25 ソニー株式会社 記録再生装置および記録再生方法、記録装置および記録方法、再生装置および再生方法、並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6148026A (en) * 1997-01-08 2000-11-14 At&T Corp. Mesh node coding to enable object based functionalities within a motion compensated transform video coder
JP2000209580A (ja) * 1999-01-13 2000-07-28 Canon Inc 画像処理装置およびその方法
US6510177B1 (en) * 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
US6940905B2 (en) * 2000-09-22 2005-09-06 Koninklijke Philips Electronics N.V. Double-loop motion-compensation fine granular scalability
US6907070B2 (en) * 2000-12-15 2005-06-14 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
WO2004056121A1 (en) * 2002-12-17 2004-07-01 Koninklijke Philips Electronics N.V. Method of coding video streams for low-cost multiple description at gateways
US7194035B2 (en) * 2003-01-08 2007-03-20 Apple Computer, Inc. Method and apparatus for improved coding mode selection
WO2004073312A1 (en) * 2003-02-17 2004-08-26 Koninklijke Philips Electronics N.V. Video coding

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010504010A (ja) * 2006-09-18 2010-02-04 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング ビデオシーケンスにおけるデータ圧縮方法
US8498483B2 (en) 2007-09-10 2013-07-30 Fujifilm Corporation Image processing apparatus, image processing method, and computer readable medium
JP2009089356A (ja) * 2007-09-10 2009-04-23 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
WO2013008538A1 (ja) * 2011-07-14 2013-01-17 ソニー株式会社 画像処理装置及び画像処理方法
JP2013021629A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置及び画像処理方法
US10623761B2 (en) 2011-07-14 2020-04-14 Sony Corporation Image processing apparatus and image processing method
US9749625B2 (en) 2011-07-14 2017-08-29 Sony Corporation Image processing apparatus and image processing method utilizing a correlation of motion between layers for encoding an image
JP2013102296A (ja) * 2011-11-07 2013-05-23 Canon Inc 動きベクトル符号化装置、動きベクトル符号化方法及びプログラム、動きベクトル復号装置、動きベクトル復号方法及びプログラム
US9554149B2 (en) 2012-02-29 2017-01-24 Lg Electronics, Inc. Inter-layer prediction method and apparatus using same
JP2015512216A (ja) * 2012-02-29 2015-04-23 エルジー エレクトロニクス インコーポレイティド インタレイヤ予測方法及びそれを利用する装置
WO2013161689A1 (ja) * 2012-04-27 2013-10-31 シャープ株式会社 動画像復号装置、および動画像符号化装置
WO2014038330A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 画像処理装置及び画像処理方法
JP2015536119A (ja) * 2012-10-09 2015-12-17 インテレクチュアル ディスカバリー カンパニー リミテッド マルチレイヤ動画のレイヤ間予測方法およびレイヤ間予測装置
JP2016042717A (ja) * 2015-10-29 2016-03-31 ソニー株式会社 画像処理装置及び画像処理方法
JP2017060184A (ja) * 2016-11-22 2017-03-23 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP4294630B2 (ja) 2009-07-15
EP1659797A2 (en) 2006-05-24
EP1659797A3 (en) 2006-06-07
WO2006080662A1 (en) 2006-08-03

Similar Documents

Publication Publication Date Title
JP4294630B2 (ja) 多階層基盤のビデオコーダでモーションベクトルを効率よく圧縮する方法及び装置
KR100664929B1 (ko) 다 계층 기반의 비디오 코더에서 모션 벡터를 효율적으로압축하는 방법 및 장치
RU2341035C1 (ru) Способ кодирования и декодирования видеосигнала с использованием взвешенного предсказания и устройство для его осуществления
JP5026965B2 (ja) ベースレイヤを含むビットストリームをプリデコーディング、デコーディングする方法及び装置
KR100631777B1 (ko) 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
JP5014989B2 (ja) 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体
KR100704626B1 (ko) 다 계층 기반의 모션 벡터를 압축하는 방법 및 장치
JP5170786B2 (ja) マルチビュービデオのスケーラブルコーディングおよびデコーディング方法、ならびにコーディングおよびデコーディング装置
KR101033548B1 (ko) 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR100703734B1 (ko) Dct 업샘플링을 이용한 다 계층 비디오 인코딩/디코딩방법 및 장치
KR100703740B1 (ko) 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
TWI436286B (zh) 畫像解碼方法及裝置
US20060233250A1 (en) Method and apparatus for encoding and decoding video signals in intra-base-layer prediction mode by selectively applying intra-coding
JP4844741B2 (ja) 動画像符号化装置及び動画像復号装置と、その方法及びプログラム
WO2006109985A1 (en) Method and apparatus for encoding and decoding video signals in intra-base-layer prediction mode by selectively applying intra-coding
KR100621584B1 (ko) 스무딩 필터를 이용하는 비디오 디코딩 방법 또는 비디오디코더
JP2005304005A (ja) ビデオフレームに対する動き推定方法及びビデオエンコーダ
JP4835855B2 (ja) 動画像符号化の装置、方法及びプログラムと、動画像復号の装置方法及びプログラム
KR100703751B1 (ko) 가상 영역의 영상을 참조하여 인코딩 및 디코딩 하는 방법및 장치
JP2008011009A (ja) 映像信号符号化装置、映像信号復号化装置、映像信号符号化プログラム及び映像信号復号化プログラム
JP2004201350A (ja) 画像符号化装置および画像復号化装置
EP1847129A1 (en) Method and apparatus for compressing multi-layered motion vector

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4294630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140417

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees