JP2007300678A - Information processing apparatus and method, recording medium, and program - Google Patents
Information processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP2007300678A JP2007300678A JP2007191595A JP2007191595A JP2007300678A JP 2007300678 A JP2007300678 A JP 2007300678A JP 2007191595 A JP2007191595 A JP 2007191595A JP 2007191595 A JP2007191595 A JP 2007191595A JP 2007300678 A JP2007300678 A JP 2007300678A
- Authority
- JP
- Japan
- Prior art keywords
- content data
- prediction
- motion vector
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、情報処理装置および方法、記録媒体、並びにプログラムに関し、特に、効率よく符号化を行うことができるようにした情報処理装置および方法、記録媒体、並びにプログラムに関する。 The present invention relates to an information processing apparatus and method, a recording medium, and a program, and more particularly, to an information processing apparatus and method, a recording medium, and a program that enable efficient encoding.
最近、MPEG(Moving Picture Experts Group)に代表される圧縮方式が普及し、ビデオデータやオーディオデータは、MPEG方式で圧縮された上で、ハードディスク、磁気テープ、光ディスクといった記録媒体に記録されたり、ネットワークを介して伝送されたり、衛星を介して放送される。 Recently, compression methods represented by MPEG (Moving Picture Experts Group) have become widespread, and video data and audio data are compressed by the MPEG method and then recorded on a recording medium such as a hard disk, magnetic tape, or optical disk, or network Or transmitted via satellite.
MPEG方式では、例えば、図1に示されるように、現在フレームの前後に、前フレームと後フレームが存在するような場合、現在フレームが、例えば、8×8画素のブロックに分割される。そして、前フレームの所定の探索範囲内において、8×8画素のブロックが抽出され、現在フレームのブロック1と前フレームのブロック2が、画素毎に絶対差分和、自乗誤差和、または代表点マッチング処理により比較される。前フレームのブロック2は、探索範囲内でその位置が順次移動される。
In the MPEG system, for example, as shown in FIG. 1, when a previous frame and a subsequent frame exist before and after the current frame, the current frame is divided into, for example, blocks of 8 × 8 pixels. Then, a block of 8 × 8 pixels is extracted within a predetermined search range of the previous frame, and
そして、探索範囲の中で、絶対差分和、自乗誤差和、または代表点マッチングの値が最も小さかった相対座標位置が動きベクトルとして推定される。 Then, the relative coordinate position having the smallest absolute difference sum, square error sum, or representative point matching value in the search range is estimated as a motion vector.
さらに、クラス分類適応処理が用いられる場合、動きベクトルに対応するブロック2の画素から、クラス分類適応処理に基づいて、ブロック位置の画素が予測され、動きベクトルと予測値とが伝送される。
Further, when the class classification adaptive process is used, the pixel at the block position is predicted from the pixel of the
しかしながら、このような、従来のブロックマッチングとクラス分類適応処理を用いる予測符号化方式は、伝送効率、圧縮効率、および符号化効率が悪いという課題があった。 However, such a conventional predictive coding method using block matching and class classification adaptive processing has a problem that transmission efficiency, compression efficiency, and coding efficiency are poor.
本発明は、このような状況に鑑みてなされたものであり、伝送効率、圧縮効率、および符号化効率を向上させるようにするものである。 The present invention has been made in view of such a situation, and is intended to improve transmission efficiency, compression efficiency, and encoding efficiency.
本発明の一側面の情報処理装置は、生成する第1のコンテンツデータの動きベクトルを抽出する動きベクトル抽出手段と、基準となる第2のコンテンツデータを保持する保持手段と、前記動きベクトル抽出手段により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出手段と、前記予測タップ抽出手段により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算手段と、前記演算手段により演算された前記予測値を前記第1のコンテンツデータとして合成する合成手段とを備える。 An information processing apparatus according to an aspect of the present invention includes a motion vector extraction unit that extracts a motion vector of first content data to be generated, a holding unit that holds second content data serving as a reference, and the motion vector extraction unit Based on the motion vector extracted by the above, a prediction tap extraction means for extracting a prediction tap from the second content data, and a classification classification adaptation process is performed on the prediction tap extracted by the prediction tap extraction means. , Calculating means for calculating a predicted value, and combining means for combining the predicted value calculated by the calculating means as the first content data.
前記第1のコンテンツデータに関連するデータを取得する取得手段と、前記取得手段により取得された前記第1のコンテンツデータに関連するデータから、前記第1のコンテンツデータに関連するデータから、前記第2のコンテンツデータにクラス分類適応処理を施して生成された前記第1のコンテンツデータに対応する予測値と前記第1のコンテンツデータとの差に対応する予測残差を表すフラグを抽出するフラグ抽出手段とさらに設けることができる。 From the acquisition means for acquiring data related to the first content data, the data related to the first content data acquired by the acquisition means, from the data related to the first content data, the first Flag extraction for extracting a flag representing a prediction residual corresponding to a difference between a predicted value corresponding to the first content data generated by performing class classification adaptation processing on the second content data and the first content data Means can further be provided.
前記フラグ抽出手段が、前記予測残差を表す前記フラグを抽出した場合、前記第1のコンテンツデータに関連するデータから、前記予測残差を抽出するデータ抽出手段と、前記データ抽出手段により抽出されたデータを復号する復号手段とをさらに設けることができる。 When the flag extraction unit extracts the flag representing the prediction residual, the flag extraction unit extracts the prediction residual from data related to the first content data, and the data extraction unit extracts the prediction residual. Decoding means for decoding the received data can be further provided.
前記第1のコンテンツデータと前記第2のコンテンツデータは、画像データであり、前記第1のコンテンツデータは、前記画像データの第1のフレームであり、前記第2のコンテンツデータは、前記第1のフレームより時間的に前の第2のフレームであるようにすることができる。 The first content data and the second content data are image data, the first content data is a first frame of the image data, and the second content data is the first content data. The second frame may be a temporally previous frame.
前記演算手段には、1画素単位で、前記予測値を演算させることができる。 The computing means can compute the predicted value on a pixel-by-pixel basis.
前記第2のコンテンツデータを更新する更新手段をさらに設けることができる。 Update means for updating the second content data can be further provided.
本発明の一側面の情報処理方法、記録媒体、およびプログラムは、上述した本発明の一側面の情報処理装置に対応する、方法、記録媒体、およびプログラムである。 An information processing method, a recording medium, and a program according to one aspect of the present invention are a method, a recording medium, and a program corresponding to the information processing apparatus according to one aspect of the present invention described above.
本発明の一側面の情報処理装置および方法、記録媒体、並びにプログラムにおいては、生成する第1のコンテンツデータの動きベクトルが抽出され、基準となる第2のコンテンツデータが保持され、抽出された動きベクトルに基づいて、第2のコンテンツデータから、予測タップが抽出され、抽出された予測タップにクラス分類適応処理を施して、予測値が演算され、演算された予測値が第1のコンテンツデータとして合成される。 In the information processing apparatus and method, the recording medium, and the program according to one aspect of the present invention, the motion vector of the first content data to be generated is extracted, the second content data serving as a reference is held, and the extracted motion Based on the vector, a prediction tap is extracted from the second content data, a class classification adaptive process is performed on the extracted prediction tap, a prediction value is calculated, and the calculated prediction value is used as the first content data. Synthesized.
以上の如く、本発明によれば、伝送効率、圧縮効率、および符号化効率を向上させることが可能となる。 As described above, according to the present invention, transmission efficiency, compression efficiency, and encoding efficiency can be improved.
また、本発明によれば、伝送効率、圧縮効率、または符号化効率を向上させた伝送データを、簡単かつ確実に、受信し、復号することが可能となる。 Furthermore, according to the present invention, it is possible to easily and reliably receive and decode transmission data with improved transmission efficiency, compression efficiency, or encoding efficiency.
図2は、本発明を適用した画像処理システムのうちの送信装置の構成例を表している。この送信装置11においては、基準フレームメモリ22に、予測の基準とされる基準フレームの画像データが記憶される。予測フレームメモリ21には、基準フレームの画像に基づいて予測される予測フレームの画像データが、順次、記憶される。
FIG. 2 shows a configuration example of a transmission apparatus in an image processing system to which the present invention is applied. In this
アドレス設定部23−1は、フレームメモリ22に記憶されている画素データのうち、所定の探索範囲(フレームメモリ21に記憶されている予測フレームの注目画像に対応する探索範囲)内の第1の位置(動きベクトルv0に対応する位置)の予測タップとクラスタップを構成する任意の数の画素のアドレスを設定し、そのアドレスに対応する画素データ、すなわち、予測タップとクラスタップを構成する画素データを読み出し、クラス分類適応処理部24−1に供給する。クラス分類適応処理部24−1は、アドレス設定部23−1より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、予測フレームメモリ21に記憶されている予測フレームの対応する画素(注目画素)の予測値を演算する。
The address setting unit 23-1 has a first search range (a search range corresponding to the target image of the predicted frame stored in the frame memory 21) in the pixel data stored in the
アドレス設定部23−2は、探索範囲内の第2の位置(第2の動きベクトルv1に対応する位置)の予測タップとクラスタップの画素データを抽出し、クラス分類適応処理部24−2に供給する。クラス分類適応処理部24−2は、アドレス設定部23−2より供給された予測タップとクラスタップの画素データに基づいて、クラス分類適応処理を行い、注目画素に対する予測値を演算する。 The address setting unit 23-2 extracts the pixel data of the prediction tap and the class tap at the second position (position corresponding to the second motion vector v1) within the search range, and sends it to the class classification adaptation processing unit 24-2. Supply. The class classification adaptation processing unit 24-2 performs class classification adaptation processing based on the prediction tap and class tap pixel data supplied from the address setting unit 23-2, and calculates a prediction value for the pixel of interest.
同様の構成が探索範囲内を探索して得られる動きベクトルの数(n個)だけ設けられている。すなわち、アドレス設定部とクラス分類適応処理部の組み合わせがn組用意されている。例えば、探索範囲が水平、垂直ともに、マイナス8からプラス8までであるとすると、nの数は、289(=17×17)となる。
Similar configurations are provided for the number of motion vectors (n) obtained by searching the search range. That is, n combinations of address setting units and class classification adaptive processing units are prepared. For example, assuming that the search range is from
比較器25は、クラス分類適応処理部24−1乃至24−nから供給されるn個の予測値を、予測フレームメモリ21から供給される注目画素と比較し、その差を予測残差として検出するとともに、予測残差のうちの、最小の予測残差を評価値として選択する。閾値判定部26は、比較器25より供給される最小の予測残差(評価値)を閾値と比較する。評価値が閾値と等しいか、それより小さい場合には、閾値判定部26は、動きベクトルを後処理部27に供給する。閾値判定部26は、予測残差が閾値より大きい場合には、動きベクトルと予測残差を後処理部27に出力する。
The
後処理部27は、閾値判定部26より動きベクトルが供給されてきたとき、それをそのまま出力する。後処理部27は、閾値判定部26より動きベクトルと予測残差が供給されてきた場合には、予測残差に、それが予測残差であることを表すフラグを付加する。
When the motion vector is supplied from the
後処理部27より出力された動きベクトル、または動きベクトルと、フラグが付加された予測残差は、量子化器28に供給される。量子化器28は、このうちの予測残差については、例えば、ロイドマックス、ランレングス等の符号により量子化し、所定の伝送路に伝送する。この伝送路には、各種の通信路の他、記録再生によりデータを伝送する記録媒体も含まれる。
The motion vector output from the
例えば、マイクロプロセッサなどによりなる制御部30は、送信装置11の各部を制御する。制御部30には、必要に応じて、インタフェース31を介して、磁気ディスク41、光ディスク42、光磁気ディスク43、または半導体メモリ44などが適宜装着される。
For example, the
図3は、クラス分類適応処理部24−1乃至24−n(以下、これらを個々に区別する必要がない場合、単に、クラス分類適応処理部24と称する)の構成を表している。クラスタップ抽出部61は、アドレス設定部23−1乃至23−n(以下、これらを個々に区別する必要がない場合、単に、アドレス設定部23と称する)のうち対応するものより供給された画素データから、クラスタップを抽出し、ADRC(Adaptive Dynamic Range Coding)部62に供給する。ADRC部62は、クラスタップ抽出部61より供給された画素データに対して、例えば、1ビットADRC処理を施す。
FIG. 3 shows the configuration of the class classification adaptive processing units 24-1 to 24-n (hereinafter, simply referred to as the class classification
すなわち、クラスタップを構成する複数の画素データの最大値と最小値が検出され、その最大値と最小値の差が、さらにダイナミックレンジとして算出される。各画素データは、最小値が減算され、さらに、ダイナミックレンジで割算することで正規化される。 That is, the maximum value and the minimum value of the plurality of pixel data constituting the class tap are detected, and the difference between the maximum value and the minimum value is further calculated as a dynamic range. Each pixel data is normalized by subtracting the minimum value and further dividing by the dynamic range.
正規化されたデータは、所定の基準値(例えば、0.5)と比較され、基準値より大きい場合には、例えば1、基準値より小さい場合には、例えば0、とされる。 The normalized data is compared with a predetermined reference value (for example, 0.5), and is set to 1 when it is larger than the reference value, for example, 0 when it is smaller than the reference value.
すなわち、例えばクラスタップを構成する画素の数が9個である場合、ADRC部62から、9ビットのデータがクラスコード決定部63に供給されることになる。クラスコード決定部63は、この9ビットのデータに基づいて、そのクラスタップのクラスコードを決定し、予測係数メモリ64に出力する。
That is, for example, when the number of pixels constituting the class tap is nine, 9-bit data is supplied from the ADRC
予測係数メモリ64には、クラスコードに対応する予測係数が予め記憶されており、クラスコード決定部63より供給されたクラスコードに対応する予測係数を、予測値算出部66に出力する。
A prediction coefficient corresponding to the class code is stored in the
予測タップ抽出部65は、アドレス設定部23より供給された画素データから予測タップを構成する画素データを抽出し、予測値算出部66に出力する。予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する画素データに、予測係数メモリ64より供給される予測係数を乗算し、その和から(すなわち、線形1次結合から)、予測値を算出する。
The prediction
次に、図4と図5のフローチャートを参照して、送信装置11の処理について説明する。
Next, processing of the
最初に、ステップS11において、制御部30は、閾値判定部26に対して、伝送判定閾値をセットする。この伝送判定閾値は、後述するステップS26の処理で利用される。
First, in step S <b> 11, the
ステップS12において、前フレームデータを蓄積する処理が実行され、ステップS13において、現在フレームデータを蓄積する処理が実行される。すなわち、例えば、1フレーム分の画像データが、予測フレームメモリ21に記憶された後、再びそこから読み出され、基準フレームメモリ22に伝送され、記憶される。そして、予測フレームメモリ21には、それに続く新たな1フレーム分の画像データが記憶される。このようにして、基準フレームメモリ22には、前フレームの画素データが記憶され、予測フレームメモリ21には、現在フレーム(基準フレームより時間的に後のフレーム)の画像データが蓄積される。
In step S12, processing for accumulating previous frame data is executed, and in step S13, processing for accumulating current frame data is executed. That is, for example, image data for one frame is stored in the
ステップS14において、予測フレームメモリ21は、制御部30の制御に基づいて、記憶している1フレーム分の画像データの中から注目画素のデータを抽出し、比較器25に供給する。
In step S <b> 14, the
ステップS15において、制御部30は、比較器25に比較値をセットする。この比較値は、最小の予測残差としての評価値を求めるために、ステップS24の処理で、より小さい予測残差の値に更新されるものであり、初期値としては、最大値がセットされる。この比較値は、ステップS23の処理で利用される。
In step S <b> 15, the
次に、ステップS16において、アドレス設定部23−1乃至23−nに対して、それぞれステップS14の処理で抽出された注目画素に対応するアドレスが設定される。これにより、アドレス設定部23−1乃至23−nから、注目画素に対応する探索範囲内における、各探索位置(動きベクトル)に対応するクラスタップと予測タップを含む画素データが、対応するクラス分類適応処理部24−1乃至24−nに取り込み可能となる。 Next, in step S16, addresses corresponding to the target pixel extracted in the process of step S14 are set for the address setting units 23-1 to 23-n, respectively. As a result, the pixel data including the class tap and the prediction tap corresponding to each search position (motion vector) in the search range corresponding to the target pixel from the address setting units 23-1 to 23-n is converted into the corresponding class classification. The data can be taken into the adaptive processing units 24-1 to 24-n.
そこで、ステップS17において、クラスタップ抽出部61は、供給された画素データの中からクラスタップを抽出する。クラスタップは、例えば、図6に示されるように、予測フレームの注目画素を中心とする7×7個の画素のうちの図中黒く示される3×3個の画素とされる。
Therefore, in step S17, the class
ADRC部62は、ステップS18において、クラスタップを構成する9個の画素データに対して、1ビットADRC処理を施す。これにより、9個の画素データがそれぞれ0または1の値に変換されて、9ビットのデータがクラスコード決定部63に供給される。クラスコード決定部63は、ADRC部62より供給される9ビットのデータに基づいて、その9個の画素データで構成されるクラスタップに対応するクラスコードを決定し、予測係数メモリ64に出力する。
In step S18, the
予測係数メモリ64は、ステップS19において、クラスコード決定部63より供給されたクラスコードに対する予測係数を読み出し、予測値算出部66に出力する。
In step S <b> 19, the
ステップS20において、予測タップ抽出部65は、アドレス設定部23より供給される画素データから、クラスタップを構成する画素データを取得する。図7は、クラスタップの例を表している。この例においては、予測フレームの注目画素を中心とする7×7個の画素のうち、中央に黒く示される13個の画素がクラスタップとされている。
In step S <b> 20, the prediction
予測値算出部66は、ステップS21において、予測値計算処理を実行する。すなわち、予測値算出部66は、予測タップ抽出部65より供給された予測タップを構成する13個の画素データと、予測係数メモリ64より供給される13個の予測係数の線形1次結合を演算して、予測値を算出し、比較器25に出力する。
In step S21, the predicted
比較器25は、ステップS22において、予測残差計算処理を実行する。すなわち、比較器25は、クラス分類適応処理部24(いまの場合、クラス分類適応処理部24−1)より供給される予測値と、予測フレームメモリ21より供給される注目画素(真値)との差を演算することで、予測残差を計算する。
In step S22, the
ステップS23において、比較器25は、ステップS22の処理で求めた予測残差(評価値)を比較値と比較する。この比較値は、いまの場合、ステップS15の処理で最大値に設定されている。従って、評価値は、比較値より小さいと判定され、ステップS24に進み、比較器25は、ステップS15の処理で最大値にセットされた比較値の値を、ステップS22の処理で計算された予測残差(評価値)に更新する。すなわち、比較値として、より小さい値が設定される。
In step S23, the
ステップS25において、閾値判定部26は、ステップS22の処理で求められた評価値に対応する動きベクトルを内蔵するメモリに保持する(既に保持されている動きベクトルがある場合には、更新される)。いまの場合、クラス分類適応処理部24−1の出力が処理されているので、この動きベクトルは、v0となる。
In step S25, the
ステップS26において、閾値判定部26は、ステップS22の処理で得られた予測残差(評価値)と、ステップS11の処理でセットされた伝送判定閾値とを比較する。予測残差(評価値)が伝送判定閾値と等しいか、それより大きいと判定された場合、ステップS27において、閾値判定部26は、ステップS22の処理で計算された予測残差を評価値として保持する。
In step S26, the
予測残差(評価値)が伝送判定閾値より小さいと判定された場合には、ステップS27の処理はスキップされる。 When it is determined that the prediction residual (evaluation value) is smaller than the transmission determination threshold, the process of step S27 is skipped.
ステップS23において、予測残差(評価値)が比較値と等しいか、それより大きいと判定された場合には、ステップS24乃至ステップS27の処理はスキップされる。 If it is determined in step S23 that the prediction residual (evaluation value) is equal to or greater than the comparison value, the processes in steps S24 to S27 are skipped.
ステップS28において、閾値判定部26は、探索範囲内の全ての位置の処理を終了したか否かを判定する。すなわち、クラス分類適応処理部24−1乃至24−nの全ての出力に対する処理を完了したか否かがここで判定される。クラス分類適応処理部24−1乃至24−nの出力のうち、まだ処理していないものが残っている場合には、ステップS16に戻り、それ以降の処理が繰り返し実行される。
In step S28, the
以上のようにして、ステップS16乃至ステップS28の処理がクラス分類適応処理部24−1乃至24−nが出力するn個の予測値の全てに対して実行される。 As described above, the processes in steps S16 to S28 are executed for all n predicted values output from the class classification adaptive processing units 24-1 to 24-n.
ステップS28で探索範囲内の全ての位置の処理が終了したと判定された場合、ステップS29に進み、閾値判定部26は、伝送判定閾値より小さい予測残差(評価値)が保存されているか否かを判定する。すなわち、探索範囲内の全ての位置の処理により、n個の予測残差(評価値)が得られることになるが、そのn個の予測残差のうち、少なくとも1つ伝送判定閾値より小さいものがある場合には、その中で最小のものに対応する動きベクトルがステップS25の処理で保持されている。そこで、その場合には、ステップS30において、閾値判定部26は、ステップS25の処理で保持した動きベクトルを読み出し、後処理部27に出力する。
If it is determined in step S28 that the processing of all positions within the search range has been completed, the process proceeds to step S29, and the
ステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合、閾値判定部26、ステップS31において、ステップS27の処理により保持されている予測残差(評価値)を後処理部27に出力する処理を実行する。
If it is determined in step S29 that there is no evaluation value smaller than the transmission determination threshold value, the prediction residual (evaluation value) held by the process in step S27 in the threshold
すなわち、n個の予測残差(評価値)が全て伝送判定閾値と等しいか、それより大きい場合には、そのうちの最小の値に対応する予測残差がステップS27の処理で保持されている。そこで、閾値判定部26は、その予測残差を、いま対象とされている検索範囲の評価値(最小の予測残差)として、後処理部27に出力する。
That is, if all n prediction residuals (evaluation values) are equal to or larger than the transmission determination threshold, the prediction residual corresponding to the smallest value among them is held in the process of step S27. Therefore, the
ステップS30,S31の処理の後、ステップS32において、閾値判定部26は、1フレーム内の全ての探索範囲の処理が終了したか否かを判定し、まだ終了していない探索範囲が残っている場合には、ステップS14に戻り、それ以降の処理が繰り返し実行される。
After the processes of steps S30 and S31, in step S32, the
ステップS32において、全ての探索範囲の処理が終了したと判定された場合、ステップS33において、後処理部27は、閾値判定部26より動きベクトルだけが供給されてきた場合には、その動きベクトルをそのまま出力し、閾値判定部26より供給されてきたのが、動きベクトルと予測残差(評価値)である場合には、予測残差に、それが予測残差であることを表すフラグを付加する。
If it is determined in step S32 that the processing for all the search ranges has been completed, in step S33, the
ステップS34において、量子化器28は、後処理部27より供給された動きベクトルをそのまま出力する。動きベクトルと予測残差(評価値)が供給されてきた場合には、量子化器28は、予測残差を量子化し、伝送路に伝送する。
In step S34, the
以上のようにして、図8に示されるように、予測フレームメモリ21に記憶されている予測フレーム90において、所定の画素が注目画素91として選択される。そして、基準フレームメモリ22に記憶されている基準フレーム80の注目画素91に対応する画素が注目対応画素83として選択され、注目対応画素83を中心とする所定の範囲が、探索範囲81として設定される。
As described above, as shown in FIG. 8, a predetermined pixel is selected as the
探索範囲81内において、所定の範囲の画素が予測タップ82として選択され、予測タップ82を構成する画素に基づいて、上述したように、予測値が演算される。そして、その予測値と注目画素91との差が予測残差として算出される。
Within the
予測タップ82は、探索範囲81内を、予測タップ82−1乃至82−nとして示されるように、n個の位置に、順次移動される。そして、n個の予測タップのそれぞれに対応して得られるn個の予測残差の中から最小のものがその探索範囲81の評価値として選択される。
The
以上のような処理が、予測フレーム90の中の全ての画素を注目画素91として順次選択することで実行される。
The above process is executed by sequentially selecting all the pixels in the
以上のようにして、伝送路に伝送された画像データは、図9に示されるような受信装置により受信され、復号される。 As described above, the image data transmitted to the transmission path is received and decoded by a receiving apparatus as shown in FIG.
この受信装置111においては、逆量子化器121が送信装置11により符号化され、伝送路を伝送されてきたデータを取得し、逆量子化する。伝送判定部122は、逆量子化器121より供給されたデータからフラグを読み取り、伝送されてきたデータのうち動きベクトルをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている、既に復調して得られている基準フレームの画素データから、動きベクトルに対応する範囲の画素データを抽出し、クラス分類適応処理部125に供給する。
In this receiving apparatus 111, the
クラス分類適応処理部125は、アドレス設定部123より供給された画素データに対して、クラス分類適応処理を施し、画素データを生成する。
The class classification
このクラス分類適応処理部125は、図2の送信装置11のクラス分類適応処理部24と基本的に同様の構成とされる。そこで、図3は、以下の説明で、クラス分類適応処理部125としても、引用される。
The class classification
伝送判定部122は、逆量子化器121より入力されたデータに予測残差のデータが含まれていると判定した場合、これを復号部126に供給する。復号部126は、この予測残差を復号する。
When the
合成部127は、クラス分類適応処理部125と復号部126より供給された画素データを、メモリ上で適宜合成し、1フレーム分の画素データとし、出力する。合成部127より出力された画素データの一部は、必要に応じて、基準フレームメモリ124に供給され、後続するフレームの処理に対する基準フレームとして記憶される。
The synthesizing
例えば、マイクロプロセッサなどにより構成される制御部128は、受信装置111の各部の動作を制御する。
For example, the
制御部128には、インタフェース131を介して、必要に応じて磁気ディスク141、光ディスク142、光磁気ディスク143、または半導体メモリ144が装着され、そこに記憶されているプログラムやデータなどが適宜インストールされる。
The
次に、図10のフローチャートを参照して、受信装置111における復号処理について説明する。 Next, the decoding process in the receiving apparatus 111 will be described with reference to the flowchart of FIG.
ステップS51において、逆量子化器121は、伝送路を介して伝送されてきた量子化されている画像データを受信し、逆量子化して伝送判定部122に供給する。伝送判定部122は、ステップS52において、いま伝送されてきたデータに含まれているのは、動きベクトルのデータであるのか否かを判定する。入力されたデータに含まれているのが動きベクトルのデータであると判定された場合、伝送判定部122は、ステップS53において、その動きベクトルのデータをアドレス設定部123に出力する。アドレス設定部123は、基準フレームメモリ124に記憶されている画素データから探索範囲の画素データを抽出し、クラス分類適応処理部125に出力する。
In step S <b> 51, the
クラス分類適応処理部125は、ステップS54において、クラス分類適応処理を実行する。すなわち、クラスタップ抽出部61と、予測タップ抽出部65は、アドレス設定部123より供給される動きベクトルに基づいて、探索範囲の画素データから、それぞれクラスタップと予測タップの画素データを抽出する。ADRC部62は、クラスタップを1ビットADRC処理し、その結果得られたデータに基づいて、クラスコード決定部63は、クラスコードを決定する。予測係数メモリ64は、クラスコードに対応する予測係数を予測値算出部66に出力する。予測値算出部66は、予測タップと予測係数の線形1次結合から予測値を演算する。
In step S54, the class classification
生成された予測値は、合成部127に供給される。ステップS57において、合成部127は、クラス分類適応処理部125より供給された予測値をフレームの対応する位置の画素データとして合成する。
The generated predicted value is supplied to the
ステップS52において、伝送されてきたデータのうち動きベクトルではないと判定されたデータ(予測誤差のデータ)は、伝送判定部122から復号部126に出力される。復号部126は、ステップS56において、予測残差の復号処理を実行する。すなわち、復号部126は、伝送判定部122より供給された予測残差を復号する。復号部126により復号された予測残差は、合成部127に供給され、ステップS57の処理で、クラス分類適応処理部125で復号された対応する位置の画素データと合成される。
In step S <b> 52, data (prediction error data) determined not to be a motion vector among the transmitted data is output from the
予測係数メモリ64に記憶される予測係数は、学習により取得することができる。図11は、この学習を行う学習装置の構成例を表している。この学習装置160においては、生徒データ生成部161が、入力された教師データとしての画像データの画素値を適宜変更処理するなどして、生徒データを生成する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップを抽出し、ADRC部163に出力する。ADRC部163は、クラスタップ抽出部162より供給されたクラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果をクラスコード決定部164に出力する。
The prediction coefficient stored in the
クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、そのクラスコードを正規方程式生成部166に出力する。
The class
予測タップ抽出部165は、生徒データ生成部161より供給された生徒データから予測タップを抽出し、正規方程式生成部166に出力する。正規方程式生成部166には、また、生徒データ生成部161において、生徒データを生成する元になった親データとしての教師データが供給されている。正規方程式生成部166は、予測係数(未知数)と生徒データの積和を教師データの値と等しいとする線形1次結合の正規方程式を生成する。
The prediction
予測係数決定部167は、正規方程式生成部166により生成された正規方程式を、掃き出し法などの一般的な行列解法を用いて、未知数とされている予測係数を求め、予測係数メモリ64に記憶させる。
The prediction
次に、学習装置160の動作について説明する。クラスタップ抽出部162は、生徒データ生成部161より供給された生徒データからクラスタップの画素データ(図6の例では、3×3個の画素データ)を抽出し、ADRC部163に出力する。ADRC部163は、クラスタップの画素データに対して、1ビットADRC処理を施し、得られた結果を、クラスコード決定部164に出力する。クラスコード決定部164は、ADRC部163より入力されたデータに基づいて、クラスコードを決定し、正規方程式生成部166に出力する。
Next, the operation of the learning device 160 will be described. The class
生徒データ生成部161により生成された生徒データからは、予測タップ抽出部165により予測タップを構成する画素データ(図6の例では、13個の画素データ)が抽出され、正規方程式生成部166に供給される。正規方程式生成部166は、予測タップの画素データと予測係数の積和が教師データに等しいとする線形1次結合の正規方程式をクラスコード毎に生成し、予測係数決定部167に出力する。予測係数決定部167は、掃き出し法に基づいて、未知数としての予測係数を決定し、予測係数メモリ64に記憶させる。
From the student data generated by the student
なお、以上においては、図4のステップS29において、伝送判定閾値より小さい評価値が存在しないと判定された場合には、ステップS31の処理で、動きベクトルと予測残差を送出するようにしたが、予測残差に代えて、ステップS21で計算された予測値を送出したり、注目画素の画素データの値そのものを送出するようにすることも可能である。 In the above, when it is determined in step S29 in FIG. 4 that there is no evaluation value smaller than the transmission determination threshold, the motion vector and the prediction residual are transmitted in the process of step S31. Instead of the prediction residual, it is also possible to send the predicted value calculated in step S21 or send the pixel data value of the target pixel itself.
また、画素単位ではなく、ブロック単位で処理することも可能である。この場合には、ブロック内での予測値と入力値とで、絶対誤差和を取得し、その誤差和が所定の閾値よりも小さい場合には、動きベクトルを伝送し、閾値より大きい場合には、ブロック内の画素データを伝送するようにすればよい。 It is also possible to perform processing in units of blocks instead of in units of pixels. In this case, an absolute error sum is obtained from the predicted value and input value in the block, and if the error sum is smaller than a predetermined threshold, a motion vector is transmitted. The pixel data in the block may be transmitted.
このようにした場合、フラグがブロック内に1ビット付加されるだけの構成となるため、余分な情報量が減り、効率よく圧縮することが可能になる。 In this case, since only one bit is added to the flag in the block, the amount of extra information is reduced, and compression can be performed efficiently.
さらに、図12に示されるように、閾値判定部26(そこにおける閾値判定処理)を省略し、常に動きベクトルを送出するようにしてもよい。そのようにすれば、より圧縮効率、伝送効率、符号化効率を向上させることが可能となる。 Furthermore, as shown in FIG. 12, the threshold value determination unit 26 (threshold value determination process) may be omitted and a motion vector may be always transmitted. By doing so, it is possible to further improve the compression efficiency, transmission efficiency, and encoding efficiency.
なお、一番最初のフレームのデータに関しては、量子化を行ってもよいし、行わなくてもよい。また、前フレーム毎に、あるいは数フレーム毎に、基準フレームを更新してもよい。あるいは、また、基準フレームを全く更新しないようにすることも可能である。 Note that the quantization of the first frame data may or may not be performed. Further, the reference frame may be updated every previous frame or every several frames. Alternatively, it is also possible not to update the reference frame at all.
基準フレームを更新するようにした場合には、画像の劣化も少なく、復調側で、より品質の高い画像を再現することが可能なるばかりでなく、雑音による影響が後々まで伝播しないため、よりロバストな画像伝送方式を実現することができる。 When the reference frame is updated, image degradation is small, and not only the demodulation side can reproduce a higher quality image, but also the influence of noise does not propagate to the later stage, so it is more robust. A simple image transmission method can be realized.
このように、本発明によれば、予測誤差が、絶対差分和や自乗誤差和に比べて同じか、それより小さくなるため、絶対差分和、または自乗誤差和を用いる方式に比べて、データの圧縮効率をより高めることができ、また、高画質の画像を伝送することが可能となる。 As described above, according to the present invention, the prediction error is the same as or smaller than the absolute difference sum or the square error sum. Therefore, compared with the method using the absolute difference sum or the square error sum, The compression efficiency can be further increased, and a high-quality image can be transmitted.
以上においては、送信装置11と受信装置111は、独立する構成としたが、1つの装置内に、これらを一体化することも可能である。特に、伝送路が記録媒体により構成される場合には、その記録媒体に対して、データを記録再生する装置においては、送信装置と受信装置の両方が、1つの装置内に配置される。
In the above description, the
また、以上においては、画像データを例として説明したが、画像データ以外のコンテンツデータを伝送する場合にも、本発明を適用することが可能である。 In the above description, image data has been described as an example. However, the present invention can also be applied to the case of transmitting content data other than image data.
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer is installed from a network or a recording medium.
この記録媒体は、図2と図9に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク41,141(フロッピディスクを含む)、光ディスク42,142(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク43,143(MD(Mini-Disk)を含む)、もしくは半導体メモリ44,144などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや、記憶部に含まれるハードディスクなどで構成される。
As shown in FIGS. 2 and 9, the recording medium is distributed to provide a program to the user separately from the apparatus main body, and includes
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
21 予測フレームメモリ, 22 基準フレームメモリ, 23−1乃至23−n アドレス設定部, 24−1乃至24−n クラス分類適応処理部, 25 比較器, 26 閾値判定部, 27 後処理部, 28 量子化器 21 prediction frame memory, 22 reference frame memory, 23-1 to 23-n address setting unit, 24-1 to 24-n class classification adaptive processing unit, 25 comparator, 26 threshold value determination unit, 27 post-processing unit, 28 quantum Generator
Claims (9)
基準となる第2のコンテンツデータを保持する保持手段と、
前記動きベクトル抽出手段により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出手段と、
前記予測タップ抽出手段により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算手段と、
前記演算手段により演算された前記予測値を前記第1のコンテンツデータとして合成する合成手段と
を備えることを特徴とする情報処理装置。 Motion vector extraction means for extracting a motion vector of the first content data to be generated;
Holding means for holding second content data as a reference;
Prediction tap extraction means for extracting a prediction tap from the second content data based on the motion vector extracted by the motion vector extraction means;
A calculation unit that performs a class classification adaptive process on the prediction tap extracted by the prediction tap extraction unit, and calculates a prediction value;
An information processing apparatus comprising: combining means for combining the predicted value calculated by the calculating means as the first content data.
前記取得手段により取得された前記第1のコンテンツデータに関連するデータから、前記第1のコンテンツデータに関連するデータから、前記第2のコンテンツデータにクラス分類適応処理を施して生成された前記第1のコンテンツデータに対応する予測値と前記第1のコンテンツデータとの差に対応する予測残差を表すフラグを抽出するフラグ抽出手段と
さらに備えることを特徴とする請求項1に記載の情報処理装置。 Obtaining means for obtaining data related to the first content data;
From the data related to the first content data acquired by the acquiring means, from the data related to the first content data, the second content data generated by subjecting the second content data to class classification adaptation processing 2. The information processing according to claim 1, further comprising: a flag extracting unit that extracts a flag representing a prediction residual corresponding to a difference between a predicted value corresponding to one content data and the first content data. apparatus.
前記データ抽出手段により抽出されたデータを復号する復号手段と
をさらに備えることを特徴とする請求項2に記載の情報処理装置。 Data extracting means for extracting the prediction residual from data related to the first content data when the flag extracting means extracts the flag representing the prediction residual;
The information processing apparatus according to claim 2, further comprising: a decoding unit that decodes the data extracted by the data extraction unit.
前記第1のコンテンツデータは、前記画像データの第1のフレームであり、
前記第2のコンテンツデータは、前記第1のフレームより時間的に前の第2のフレームである
ことを特徴とする請求項1に記載の情報処理装置。 The first content data and the second content data are image data,
The first content data is a first frame of the image data;
The information processing apparatus according to claim 1, wherein the second content data is a second frame that is temporally prior to the first frame.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the calculation unit calculates the predicted value in units of one pixel.
さらに備えることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising updating means for updating the second content data.
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
を含むことを特徴とする情報処理方法。 A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
A synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data.
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。 A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
And a synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data. A recording medium on which a computer-readable program is recorded.
基準となる第2のコンテンツデータの保持を制御する保持制御ステップと、
前記動きベクトル抽出ステップの処理により抽出された前記動きベクトルに基づいて、前記第2のコンテンツデータから、予測タップを抽出する予測タップ抽出ステップと、
前記予測タップ抽出ステップの処理により抽出された前記予測タップにクラス分類適応処理を施して、予測値を演算する演算ステップと、
前記演算ステップの処理により演算された前記予測値を前記第1のコンテンツデータとして合成する合成ステップと
をコンピュータに実行させるプログラム。 A motion vector extraction step of extracting a motion vector of the first content data to be generated;
A holding control step for controlling holding of the second content data as a reference;
A prediction tap extraction step of extracting a prediction tap from the second content data based on the motion vector extracted by the processing of the motion vector extraction step;
A calculation step of performing a class classification adaptation process on the prediction tap extracted by the processing of the prediction tap extraction step and calculating a prediction value;
A program that causes a computer to execute a synthesis step of synthesizing the predicted value calculated by the processing of the calculation step as the first content data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007191595A JP4748127B2 (en) | 2007-07-24 | 2007-07-24 | Information processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007191595A JP4748127B2 (en) | 2007-07-24 | 2007-07-24 | Information processing apparatus and method, recording medium, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002008251A Division JP4120916B2 (en) | 2002-01-17 | 2002-01-17 | Information processing apparatus and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007300678A true JP2007300678A (en) | 2007-11-15 |
JP4748127B2 JP4748127B2 (en) | 2011-08-17 |
Family
ID=38769707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007191595A Expired - Fee Related JP4748127B2 (en) | 2007-07-24 | 2007-07-24 | Information processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4748127B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07203448A (en) * | 1993-12-28 | 1995-08-04 | Canon Inc | Dynamic image coding device and method therefor |
JPH09168155A (en) * | 1995-12-15 | 1997-06-24 | Kokusai Denshin Denwa Co Ltd <Kdd> | Variable frame rate dynamic image coding method |
JP2000324495A (en) * | 1999-05-07 | 2000-11-24 | Sony Corp | Device and method for converting field frequency |
JP2001285882A (en) * | 2000-04-03 | 2001-10-12 | Sony Corp | Device and method for reducing noise |
-
2007
- 2007-07-24 JP JP2007191595A patent/JP4748127B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07203448A (en) * | 1993-12-28 | 1995-08-04 | Canon Inc | Dynamic image coding device and method therefor |
JPH09168155A (en) * | 1995-12-15 | 1997-06-24 | Kokusai Denshin Denwa Co Ltd <Kdd> | Variable frame rate dynamic image coding method |
JP2000324495A (en) * | 1999-05-07 | 2000-11-24 | Sony Corp | Device and method for converting field frequency |
JP2001285882A (en) * | 2000-04-03 | 2001-10-12 | Sony Corp | Device and method for reducing noise |
Also Published As
Publication number | Publication date |
---|---|
JP4748127B2 (en) | 2011-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101512324B1 (en) | Method of estimating motion vector using multiple motion vector predictors, apparatus, encoder, decoder and decoding method | |
CN101595735B (en) | Method and apparatus for encoding video and method and apparatus for decoding video | |
KR100803611B1 (en) | Method and apparatus for encoding video, method and apparatus for decoding video | |
JP2018152878A (en) | Decoding method, apparatus, program, and storage medium | |
US8229233B2 (en) | Method and apparatus for estimating and compensating spatiotemporal motion of image | |
TWI736186B (en) | Image predictive decoding device and image predictive decoding method | |
JP4994767B2 (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
RU2012102341A (en) | IMAGE PREDICTION CODING DEVICE, IMAGE PREDICTION CODING CODING DEVICE, IMAGE PREDICTION CODING PROGRAM, IMAGE PRECORDING CODECODING DEVICE, SCREDICING SCRIPTING | |
WO2013069384A1 (en) | Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program | |
JP2009201112A (en) | Coding and decoding methods for direct mode | |
JP4462823B2 (en) | Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method | |
KR20170141276A (en) | Encoding apparatus and method, decoding apparatus and method, and recording medium | |
JP4445463B2 (en) | Video re-encoding method and apparatus | |
JP2012235407A (en) | Image processing apparatus and image processing method | |
JP4552261B2 (en) | Digital information conversion apparatus and method, and image information conversion apparatus and method | |
JP4120916B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP4748127B2 (en) | Information processing apparatus and method, recording medium, and program | |
US11589038B2 (en) | Methods for video encoding and video decoding | |
JP2016536859A (en) | Media signal encoding and decoding method and apparatus using the same | |
JP4552262B2 (en) | Noise reduction apparatus and method | |
JP4554138B2 (en) | Image encoding apparatus and method, image decoding apparatus and method, image processing system, recording medium, and program | |
JP4518727B2 (en) | Image encoding apparatus and method, recording medium, and program | |
JP4505729B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4140662B2 (en) | Coefficient seed data generation apparatus and coefficient data generation apparatus | |
JP4552264B2 (en) | Error correction apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110322 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110502 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140527 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |