JP6312312B2 - Context model generation device, encoding device, and decoding device - Google Patents

Context model generation device, encoding device, and decoding device Download PDF

Info

Publication number
JP6312312B2
JP6312312B2 JP2014083729A JP2014083729A JP6312312B2 JP 6312312 B2 JP6312312 B2 JP 6312312B2 JP 2014083729 A JP2014083729 A JP 2014083729A JP 2014083729 A JP2014083729 A JP 2014083729A JP 6312312 B2 JP6312312 B2 JP 6312312B2
Authority
JP
Japan
Prior art keywords
model
context
data
unit
data value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014083729A
Other languages
Japanese (ja)
Other versions
JP2015204556A (en
Inventor
俊枝 三須
俊枝 三須
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014083729A priority Critical patent/JP6312312B2/en
Publication of JP2015204556A publication Critical patent/JP2015204556A/en
Application granted granted Critical
Publication of JP6312312B2 publication Critical patent/JP6312312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、コンテキストモデル生成装置、符号化装置、および復号装置に関する。   The present invention relates to a context model generation device, an encoding device, and a decoding device.

情報源符号化におけるエントロピー符号化には、符号化対象のシンボルの生起確率に応じて、数直線を区間分割する算術符号や、符号化対象のシンボルの生起確率に応じて可変長の符号語を割り当てるハフマン符号がある。このようなエントロピー符号化では、固定長の符号化方式よりも効率的な符号化が可能である。   For entropy coding in source coding, an arithmetic code that divides the number line into sections according to the occurrence probability of the symbol to be encoded, or a variable-length code word according to the occurrence probability of the symbol to be encoded is used. There is a Huffman code to assign. Such entropy coding enables more efficient coding than a fixed-length coding method.

また、符号化対象のデータ(以降、対象データという)とは別のデータ(以降、参照データという)から符号化対象のデータの出現傾向が予測できる場合がある。この場合には、符号化の際に、参照データに応じて対象データの生起確率モデルを適応的に変化させることで、固定的な生起確率モデルを用いる符号化方式よりも効率的な符号化が可能である。参照データに応じた対象データの出現の傾向は、コンテキストと呼ばれ、参照データから対象データの生起確率モデルを生成する仕組みは、コンテキストモデルと呼ばれる。   In some cases, the appearance tendency of data to be encoded can be predicted from data (hereinafter referred to as reference data) different from data to be encoded (hereinafter referred to as target data). In this case, when encoding, adaptively changing the occurrence probability model of the target data according to the reference data, the encoding can be performed more efficiently than the encoding method using the fixed occurrence probability model. Is possible. The tendency of appearance of the target data according to the reference data is called a context, and the mechanism for generating the occurrence probability model of the target data from the reference data is called a context model.

映像符号化方式であるAVC/H.264や、HEVC/H.265においては、CABAC(Context-based Adaptive Binary Arithmetic Coding)というコンテキスト適応型の算術符号化が採用されている。CABACでは、以前の入力シンボルの統計に基づきコンテキストが更新される。このCABACを実装する具体的な方法が、特許文献1で開示されている。   AVC / H. H.264, HEVC / H. In H.265, context adaptive arithmetic coding called CABAC (Context-based Adaptive Binary Arithmetic Coding) is employed. In CABAC, the context is updated based on statistics of previous input symbols. A specific method for mounting the CABAC is disclosed in Patent Document 1.

また、以前の入力シンボルの統計に基づくコンテキストの選択に加えて、現在の入力シンボルを用いたコンテキスト選択を行うことで符号化効率を向上させる方法も提案されている(例えば、特許文献2)。   In addition to the context selection based on the statistics of the previous input symbol, a method for improving the coding efficiency by performing context selection using the current input symbol has also been proposed (for example, Patent Document 2).

特許第4886755号公報Japanese Patent No. 4886755 特許第5221047号公報Japanese Patent No. 5221047

しかしながら、上述の符号化方法においては、予め用意された複数のコンテキストモデルの中からコンテキストモデルを選択している。このため、対象データのコンテキストに近いコンテキストモデルがないことがあるという問題がある。   However, in the above encoding method, a context model is selected from a plurality of context models prepared in advance. For this reason, there is a problem that there may be no context model close to the context of the target data.

本発明は、このような事情に鑑みてなされたもので、対象データのコンテキストに、より近いコンテキストを提供することができるコンテキスト生成装置、符号化装置、および復号装置を提供する。   The present invention has been made in view of such circumstances, and provides a context generation device, an encoding device, and a decoding device capable of providing a context closer to the context of target data.

この発明は上述した課題を解決するためになされたもので、本発明の一態様は、参照データ値が与えられたときの、対象データの各データ値の生起確率を示すコンテキストモデルを生成するコンテキストモデル生成装置であって、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部とを備えることを特徴とするコンテキストモデル生成装置である。   The present invention has been made to solve the above-described problem, and one aspect of the present invention provides a context that generates a context model that indicates the occurrence probability of each data value of target data when a reference data value is given. A model generation device, a prior probability estimation unit for calculating a first model composed of occurrence probabilities of data values in first learning data representing the target data, and second learning data representing the target data , A context estimation unit for calculating a second model composed of the occurrence probability of each data value when a reference data value is given, the first model, and the occurrence of each data value when a reference data value is given A mixture ratio determining unit that is a candidate model composed of probabilities and determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model , And the said first model candidate model, a context model generating device characterized by comprising a context model generator for generating a context model mixed in the mixing ratio.

また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記コンテキストモデル生成部は、前記第1モデルと前記候補モデルとを、前記混合比にて線形結合して前記コンテキストモデルを生成することを備えることを特徴とする。   Another aspect of the present invention is the context model generation device described above, wherein the context model generation unit linearly combines the first model and the candidate model with the mixing ratio and the context model. Generating.

また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記候補モデルは、クロネッカーのデルタ関数であることを特徴とする。   Another aspect of the present invention is the context model generation apparatus described above, wherein the candidate model is a Kronecker delta function.

また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部とを備えることを特徴とする符号化装置である。   According to another aspect of the present invention, a prior probability estimation unit that calculates a first model composed of occurrence probabilities of data values in first learning data representing target data, and second learning representing the target data. Context estimation unit for calculating a second model composed of the occurrence probabilities of each data value when a reference data value is given, the first model, and each data value when the reference data value is given A mixture ratio determining unit that determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model, and the first model. Using a context model generation unit that generates a context model in which the candidate models are mixed at the mixing ratio, and a context model generated by the context model generation unit By encoding the target data, an encoding device, characterized in that it comprises an encoding unit that generates encoded data.

また、この発明の他の態様は、上述の符号化装置であって、前記符号化部が生成した符号化データと、前記混合比決定部が決定した混合比を示す情報とを多重する多重部を備えることを特徴とする。   According to another aspect of the present invention, there is provided the above-described encoding device, a multiplexing unit that multiplexes encoded data generated by the encoding unit and information indicating a mixing ratio determined by the mixing ratio determining unit It is characterized by providing.

また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。   According to another aspect of the present invention, a prior probability estimation unit that calculates a first model composed of occurrence probabilities of data values in first learning data representing target data, and second learning representing the target data. Context estimation unit for calculating a second model composed of the occurrence probabilities of each data value when a reference data value is given, the first model, and each data value when the reference data value is given A mixture ratio determining unit that determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model, and the first model. A context model generation unit that generates a context model in which the candidate model is mixed at the mixing ratio, and encoded data in which the target data is encoded is converted into the context model. A decoding apparatus characterized by using a context model generator has generated and a decoder for decoding.

また、この発明の他の態様は、入力されたデータを、対象データを符号化した符号化データと、前記符号化データの符号化に用いた混合比を示す情報とに分離する分離部と、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。   According to another aspect of the present invention, a separation unit that separates input data into encoded data obtained by encoding target data and information indicating a mixing ratio used for encoding the encoded data; Prior probability estimation unit for calculating a first model composed of the occurrence probability of each data value in the first learning data representing the target data, the first model, and each data value when a reference data value is given A context model generation unit that generates a context model obtained by mixing a predetermined candidate model with the mixture ratio, and encoded data obtained by encoding the target data. And a decoding unit that performs decoding using the context model generated by the context model generation unit.

この発明によれば、対象データのコンテキストにより近いコンテキストを提供することができる。   According to the present invention, a context closer to the context of the target data can be provided.

この発明の第1の実施形態による情報源符号化復号システム10の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the information source encoding / decoding system 10 by 1st Embodiment of this invention. 同実施形態における符号化装置100の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the encoding apparatus 100 in the embodiment. 同実施形態における復号装置200の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the decoding apparatus 200 in the embodiment. この発明の第2の実施形態による符号化装置100aの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the encoding apparatus 100a by 2nd Embodiment of this invention. 同実施形態における復号装置200aの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the decoding apparatus 200a in the same embodiment. 各実施形態の変形例における候補モデルQを定義するLUTの例(その1)を示すテーブルである。It is a table which shows the example (the 1) of LUT which defines the candidate model Q in the modification of each embodiment. 各実施形態の変形例における候補モデルQを定義するLUTの例(その2)を示すテーブルである。It is a table which shows the example (the 2) of LUT which defines the candidate model Q in the modification of each embodiment.

(第1の実施形態)
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、この発明の第1の実施形態による情報源符号化復号システム10の構成を示す概略ブロック図である。情報源符号化復号システム10は、符号化装置100と、復号装置200とを含む。符号化装置100は、対象データSを、エントロピー符号化して符号化データEを生成する。符号化装置100は、エントロピー符号化を行う際に、コンテキストモデルを生成し、使用する。復号装置200は、符号化データEを復号して、情報原Sを復元した復号データDを生成する。なお、符号化データEは、通信路などを介して、復号装置200に入力されてもよいし、DVD(Digital Versatile Disc)、HDD(Hard Disk Drive)などの記録媒体から、復号装置200に入力されてもよい。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of an information source coding / decoding system 10 according to the first embodiment of the present invention. The information source encoding / decoding system 10 includes an encoding device 100 and a decoding device 200. The encoding apparatus 100 generates encoded data E by entropy encoding the target data S. The encoding device 100 generates and uses a context model when performing entropy encoding. The decoding device 200 decodes the encoded data E, and generates decoded data D obtained by restoring the information source S. The encoded data E may be input to the decoding device 200 via a communication path or the like, or input to the decoding device 200 from a recording medium such as a DVD (Digital Versatile Disc) or an HDD (Hard Disk Drive). May be.

図2は、符号化装置100の構成を示す概略ブロック図である。符号化装置100は、生起確率生成装置111、バッファ部101、エントロピー符号化部108を含む。生起確率生成装置111は、コンテキストモデル生成装置110、参照データ取得部106、生起確率モデル選択部107を含む。コンテキストモデル生成装置110は、事前確率推定部102、コンテキスト推定部103、混合係数決定部104、コンテキストモデル生成部105を含む。   FIG. 2 is a schematic block diagram showing the configuration of the encoding apparatus 100. The encoding apparatus 100 includes an occurrence probability generation apparatus 111, a buffer unit 101, and an entropy encoding unit 108. The occurrence probability generation device 111 includes a context model generation device 110, a reference data acquisition unit 106, and an occurrence probability model selection unit 107. The context model generation device 110 includes a prior probability estimation unit 102, a context estimation unit 103, a mixing coefficient determination unit 104, and a context model generation unit 105.

バッファ部101は、対象データSを蓄積する。バッファ部101に蓄積された対象データSは、コンテキストモデルを生成するための学習用データとして利用される。事前確率推定部102は、バッファ部101に蓄積された対象データSから、対象データSにおけるXの事前確率を推定する。本実施形態において、Xは、対象データSを4ビットずつに区切ったものである。事前確率推定部102は、具体的には、バッファ部101に蓄積された対象データSを、学習用データL1として読出す。そして、事前確率推定部102は、読み出した学習用データL1を4ビットずつに区切った数列XにおけるXが採り得る値各々の生起確率を、事前確率Pr(X)として、式(1)を用いて算出する。 The buffer unit 101 accumulates the target data S. The target data S accumulated in the buffer unit 101 is used as learning data for generating a context model. The prior probability estimation unit 102 estimates the prior probability of X in the target data S from the target data S accumulated in the buffer unit 101. In the present embodiment, X is the target data S divided into 4 bits. Specifically, the prior probability estimation unit 102 reads the target data S stored in the buffer unit 101 as learning data L1. Then, the prior probability estimation unit 102 sets Expression (1) as the prior probability Pr (X), where the occurrence probability of each value that X can take in the sequence X n obtained by dividing the read learning data L1 into 4 bits each. Use to calculate.

Figure 0006312312
Figure 0006312312

コンテキスト推定部103は、バッファ部101に蓄積された対象データSを、学習用データL2として読出し、学習用データL2から、対象データSにおけるコンテキストを推定する。具体的には、コンテキスト推定部103は、学習用データL2として、バッファ部101からN個の値X(n∈{1、2、…、N})と、値Xの各々の参照データY(n∈{1、2、…、N})とを読み出す。コンテキスト推定部103は、読み出した学習用データL2におけるコンテキストPr(X|Y)を、式(2)を用いて算出する。 The context estimation unit 103 reads the target data S stored in the buffer unit 101 as learning data L2, and estimates the context in the target data S from the learning data L2. Specifically, the context estimation unit 103 uses N values X n (nε {1, 2,..., N}) from the buffer unit 101 and reference data for each value X n as the learning data L2. Read Y n (n∈ {1, 2,..., N}). The context estimation unit 103 calculates the context Pr (X | Y) in the read learning data L2 using Expression (2).

Figure 0006312312
Figure 0006312312

なお、本実施形態では、Xは、それぞれ、対象データSを4ビットずつ区切ったものである。Yは、それぞれ、対象データSにおけるXの直前の4ビットである。例えば、Yは、Xの直前の4ビットである。しかし、Xのビット長は、4ビットより短くても良いし、長くてもよい。また、Yのビット長は、4ビットより短くても良いし、長くてもよいし、Xと異なっていても良い。 In this embodiment, Xn is obtained by dividing the target data S by 4 bits. Y n is the 4 bits immediately before X n in the target data S, respectively. For example, Y 3 is a 4-bit immediately before the X 3. However, the bit length of Xn may be shorter or longer than 4 bits. Also, the bit length of Y n may be less than 4 bits may be long, may be different from the X n.

また、Yは、例えば、Xの10ビット前など、Xの直前でなくてもよいし、さらには、Xが対象データS中で何番目かなどの情報であってもよい。例えば、対象データSが、画像に関するラスタスキャン順に並んだパラメータ列であれば、YがXの直前であれば、YはXが対象とする部分の左隣の部分に関するパラメータである。しかし、YをXのラスタスキャンにおける1ライン分前とすると、YはXが対象とする部分の上隣の部分に関するパラメータとなる。 Further, Y n, for example, such as 10-bit previous X n, may not be immediately before the X n, furthermore, X n may be information such as what number in the target data S. For example, if the target data S is a parameter string arranged in the order of raster scans related to an image, if Y n is immediately before X n , Y n is a parameter related to the left adjacent portion of the target portion of X n. . However, when the Y n and one line before in the raster scan of X n, Y n is the X n is a parameter related to neighboring portion on the portion of interest.

混合係数決定部104は、参照データ値Yが与えられたときの各データ値Xの生起確率からなる候補モデルQ(X|Y)を、予め記憶している。混合係数決定部104は、この候補モデルQ(X|Y)と、事前確率推定部102が推定した事前確率Pr(X)との混合係数を決定する。このとき、混合係数決定部104は、混合係数aを用いたモデル同士の線形結合、すなわち式(3)で表される混合を行った結果のモデルP(X|Y)が、コンテキスト推定部103が推定したコンテキストPr(X|Y)にできるだけ近くなるように混合係数aの値を決定する。   The mixing coefficient determination unit 104 stores in advance a candidate model Q (X | Y) including the occurrence probability of each data value X when the reference data value Y is given. The mixing coefficient determination unit 104 determines a mixing coefficient between the candidate model Q (X | Y) and the prior probability Pr (X) estimated by the prior probability estimation unit 102. At this time, the mixing coefficient determination unit 104 determines that the model P (X | Y) resulting from the linear combination of the models using the mixing coefficient a, that is, the mixing represented by Expression (3), is the context estimation unit 103. Is determined as close as possible to the estimated context Pr (X | Y).

Figure 0006312312
Figure 0006312312

具体的には、混合係数決定部104は、式(4)をaにて偏微分したときに0となるaハットを、式(5)により算出し、混合係数とする。   Specifically, the mixing coefficient determination unit 104 calculates a hat that becomes 0 when the partial differentiation of the expression (4) with respect to a is performed by the expression (5) and sets it as the mixing coefficient.

Figure 0006312312
Figure 0006312312

Figure 0006312312
Figure 0006312312

なお、式(4)、(5)において、シグマに付された(X,Y)は、学習用データL2に含まれるX、Yの組合せのみについて、総和を取ることを示す。このようにすることで、学習用データL2におけるコンテキストPr(X|Y)を、全てのX,Yの組合せについて求めておかくなくてもよくなる。
本実施形態では、Q(X|Y)として、式(6)に示す、X、Yを引数とするクロネッカーのデルタδX,Yを用いる。
In equations (4) and (5), (X, Y) given to sigma indicates that only the combination of X and Y included in the learning data L2 is to be summed. In this way, the context Pr (X | Y) in the learning data L2 need not be obtained for all combinations of X and Y.
In the present embodiment, as K (X | Y), Kronecker delta δ X, Y having arguments X and Y shown in Expression (6) is used.

Figure 0006312312
Figure 0006312312

コンテキストモデル生成部105は、事前確率推定部102が推定した事前確率Pr(X)と、候補モデルQ(X|Y)とを、混合係数決定部104が決定した混合係数aハットを用いて、式(7)のように混合したコンテキストモデルP(X|Y)を生成する。   The context model generation unit 105 uses the mixing coefficient a hat determined by the mixing coefficient determination unit 104 for the prior probability Pr (X) estimated by the prior probability estimation unit 102 and the candidate model Q (X | Y). A mixed context model P (X | Y) is generated as in Expression (7).

Figure 0006312312
Figure 0006312312

このように、コンテキストモデルP(X|Y)を、事前確率Pr(X)と、候補モデルQ(X|Y)とを混合したものとするので、学習用データの量が少ないときに、確率分布が極端に偏ってしまうようなコンテキストモデルとなってしまうのを避けつつ、対象データのコンテキストに、より近いコンテキストを提供することができる。   Thus, since the context model P (X | Y) is a mixture of the prior probability Pr (X) and the candidate model Q (X | Y), the probability is reduced when the amount of learning data is small. A context closer to the context of the target data can be provided while avoiding a context model in which the distribution is extremely biased.

生起確率モデル選択部107は、コンテキストモデルP(X|Y)のうち、参照データYが参照データ取得部106から入力された参照データYinであるときの生起確率モデルP(X|Yin)を選択し、エントロピー符号化部108に入力する。 The occurrence probability model selection unit 107 generates the occurrence probability model P (X | Y in ) when the reference data Y is the reference data Y in input from the reference data acquisition unit 106 among the context models P (X | Y). Is input to the entropy encoding unit 108.

参照データ取得部106は、対象データSを4ビット分遅延させものを、参照データYinとして生起確率モデル選択部107に入力する。エントロピー符号化部108は、対象データSを4ビットずつ区切った値Xinを、生起確率モデル選択部107から入力された生起確率モデルP(X|Yin)を用いて、エントロピー符号化する。エントロピー符号化部18は、エントロピー符号化した結果を、符号化データEとして出力する。なお、エントロピー符号化には、算術符号、ハフマン符号など、生起確率を用いるものであれば、どのようなものを使ってもよい。なお、参照データ取得部106にて対象データSを4ビット分遅延させているため、Xinをエントロピー符号化する際の生起確率モデルP(X|Yin)のYinは、対象データSにおけるXinの直前の4ビットである。 The reference data acquisition unit 106 inputs the target data S delayed by 4 bits to the occurrence probability model selection unit 107 as reference data Y in . The entropy encoding unit 108 performs entropy encoding on the value X in obtained by dividing the target data S by 4 bits using the occurrence probability model P (X | Y in ) input from the occurrence probability model selection unit 107. The entropy encoding unit 18 outputs the result of entropy encoding as encoded data E. For entropy coding, any code such as an arithmetic code or a Huffman code may be used as long as it uses an occurrence probability. Incidentally, since the delayed target data S 4 bits in the reference data acquisition unit 106, probability model P when entropy coding the X in | Y in the (X Y in) is in the target data S 4 bits immediately before X in .

図3は、復号装置200の構成を示す概略ブロック図である。図3において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。復号装置200は、エントロピー復号部208、生起確率生成装置211を含む。生起確率生成装置211は、生起確率モデル選択部107、コンテキストモデル生成装置110を含む。   FIG. 3 is a schematic block diagram illustrating the configuration of the decoding device 200. 3, parts corresponding to those in FIG. 2 are denoted by the same reference numerals and description thereof is omitted. The decoding device 200 includes an entropy decoding unit 208 and an occurrence probability generation device 211. The occurrence probability generation device 211 includes an occurrence probability model selection unit 107 and a context model generation device 110.

エントロピー復号部208は、符号化データEを復号することで、復号データDを生成する。エントロピー復号部208は、復号する際に、生起確率モデル選択部107が選択した生起確率モデルP(X|Yin)を用いる。復号装置200において、参照データYinは、エントロピー復号部208が、直前に復号した復号データDの4ビットである。 The entropy decoding unit 208 generates decoded data D by decoding the encoded data E. The entropy decoding unit 208 uses the occurrence probability model P (X | Y in ) selected by the occurrence probability model selection unit 107 when decoding. In the decoding device 200, the reference data Y in is 4 bits of the decoded data D decoded immediately before by the entropy decoding unit 208.

このように、コンテキストモデル生成装置110は、学習用データにおける各データ値の生起確率と、予め決められた候補モデルとの混合比を、学習用データにおける、参照データ値が与えられたときの各データ値の生起確率を参照して決定する。
これにより、対象データのコンテキストに、より近いコンテキストを提供することができる。
As described above, the context model generation device 110 calculates the occurrence ratio of each data value in the learning data and the mixture ratio between the predetermined candidate models and the respective reference data values in the learning data. Determined by referring to the occurrence probability of the data value.
Thereby, a context closer to the context of the target data can be provided.

(第2の実施形態)
第1の実施形態では、符号化装置100と復号装置200との間では、符号化データEを出力したが、本実施形態における符号化装置100aと復号装置200aとの間では、符号化データEに、混合係数aハットを多重して伝送する。図4は、符号化装置100aの構成を示す概略ブロック図である。同図において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。符号化装置100aは、図2の符号化装置100とほぼ同様の構成であるが、多重部109をさらに有する点が異なる。多重部109は、エントロピー符号化部108が生成した符号化データEと、混合係数決定部104が決定した混合係数aハットとを多重して出力する。
(Second Embodiment)
In the first embodiment, the encoded data E is output between the encoding device 100 and the decoding device 200, but the encoded data E is output between the encoding device 100a and the decoding device 200a in the present embodiment. In addition, the mixing coefficient a hat is multiplexed and transmitted. FIG. 4 is a schematic block diagram showing the configuration of the encoding device 100a. In the figure, portions corresponding to the respective portions in FIG. 2 are denoted by the same reference numerals and description thereof is omitted. The encoding apparatus 100a has substantially the same configuration as that of the encoding apparatus 100 in FIG. 2 except that it further includes a multiplexing unit 109. The multiplexing unit 109 multiplexes the encoded data E generated by the entropy encoding unit 108 and the mixing coefficient a hat determined by the mixing coefficient determination unit 104 and outputs the multiplexed data.

図5は、復号装置200aの構成を示す概略ブロック図である。図5において、図3の各部に対応する部分には同一の符号を付し、説明を省略する。復号装置200aは、バッファ部101、エントロピー復号部208、分離部209、生起確率生成装置211aを含む。生起確率生成装置211aは、生起確率モデル選択部107、コンテキストモデル生成装置110aを含む。コンテキストモデル生成装置110aは、事前確率推定部102、コンテキストモデル生成105を含む。   FIG. 5 is a schematic block diagram showing the configuration of the decoding device 200a. In FIG. 5, parts corresponding to those in FIG. The decoding device 200a includes a buffer unit 101, an entropy decoding unit 208, a separation unit 209, and an occurrence probability generation device 211a. The occurrence probability generation device 211a includes an occurrence probability model selection unit 107 and a context model generation device 110a. The context model generation device 110a includes a prior probability estimation unit 102 and a context model generation 105.

分離部209は、符号化装置100aから伝送されたデータを、符号化データEと、混合係数aハットとに分離する。分離部209は、分離した符号化データEを、エントロピー復号部208に入力する。分離部209は、混合係数aハットを、コンテキストモデル生成部105に入力する。   Separating section 209 separates the data transmitted from encoding apparatus 100a into encoded data E and mixing coefficient a hat. The separation unit 209 inputs the separated encoded data E to the entropy decoding unit 208. The separation unit 209 inputs the mixing coefficient a hat to the context model generation unit 105.

なお、本実施形態では、混合係数aハットを復号装置200aに伝送している。このため、復号装置200aは、復号装置200ようにして、復号した対象データから混合係数aを求める必要がなくなる。したがって、符号化装置100aのコンテキスト推定部103は、対象データを符号化する前に、対象データ全体を学習用データL2として、混合係数aを求めるなど、学習用データL2として、符号化未済みの対象データを含むようにしてもよい。   In the present embodiment, the mixing coefficient a hat is transmitted to the decoding device 200a. For this reason, the decoding apparatus 200a does not need to obtain the mixing coefficient a from the decoded target data like the decoding apparatus 200. Therefore, before encoding the target data, the context estimation unit 103 of the encoding device 100a determines that the entire target data is the learning data L2 and obtains the mixing coefficient a, and has not been encoded as the learning data L2. You may make it include object data.

このように、多重部109は、符号化データEと、混合係数aハットとを多重する。また、分離部209は、入力されたデータを、符号化データEと、混合係数aハットとに分離する。
これにより、復号装置200aは、コンテキストモデルを生成する際に、対象データのコンテキストの推定と、混合係数の算出とを行わずに、符号化データを復号することができる。
Thus, the multiplexing unit 109 multiplexes the encoded data E and the mixing coefficient a hat. The separation unit 209 separates the input data into encoded data E and a mixing coefficient a hat.
Accordingly, the decoding device 200a can decode the encoded data without generating the context of the target data and calculating the mixing coefficient when generating the context model.

なお、上述の各実施形態では、バッファ部101に蓄積された対象データSを学習用データとして利用したが、符号化装置100、100aは、学習用データを、対象データSとは、別に取得してもよい。
また、上述の各実施形態では、候補モデルQ(X|Y)としてクロネッカーのデルタ関数を用いたが、候補モデルQ(X|Y)をLUTなどで定義し、コンテキストモデル生成装置110は、そのLUTを記憶していてもよい。
In each of the above-described embodiments, the target data S stored in the buffer unit 101 is used as learning data. However, the encoding devices 100 and 100a acquire the learning data separately from the target data S. May be.
In each of the above-described embodiments, the Kronecker delta function is used as the candidate model Q (X | Y). However, the candidate model Q (X | Y) is defined by an LUT or the like, and the context model generation apparatus 110 An LUT may be stored.

図6、図7は、候補モデルQを定義するLUTの例を示すテーブルである。図6に示す例では、Xの値と、Yの値が一致するときは、確率が「0.7」であり、一致しないときは、「0.1」となっている。図7に示す例では、Xの値がYの値よりも1大きいときは、確率が「0.7」であり、その他のときは、「0.1」となっている。ただし、Yが「3」のときは、Xが「0」のときの確率が「0.7」であり、Xがその他の値であるときの確率が「0.1」である。   6 and 7 are tables showing examples of LUTs that define the candidate model Q. FIG. In the example shown in FIG. 6, when the X value and the Y value match, the probability is “0.7”, and when they do not match, the probability is “0.1”. In the example shown in FIG. 7, the probability is “0.7” when the value of X is one greater than the value of Y, and “0.1” otherwise. However, when Y is “3”, the probability when X is “0” is “0.7”, and the probability when X is another value is “0.1”.

また、上述の各実施形態では、コンテキストモデル生成部105は、コンテキストモデルを生成する際に、Pr(X)と、Q(X|Y)とを線形結合しているが、(1−a−b)Pr(X)+a×Q(X|Y)+b×Q(X|Y)というように複数の候補モデルを線形結合するようにしてもよい。この場合、式(4)をaについて偏微分したものが0になる式と、式(4)をbについて偏微分したものが0になる式とを、a、bについて解いた式を用いれば、混合係数決定104は、a、bを決定することができる。同様にして、線形結合する候補モデルは、3つ以上であってもよい。 In each embodiment described above, the context model generation unit 105 linearly combines Pr (X) and Q (X | Y) when generating the context model. b) A plurality of candidate models may be linearly combined as Pr (X) + a × Q 1 (X | Y) + b × Q 2 (X | Y). In this case, if an equation in which the partial differentiation of equation (4) with respect to a is 0 and an equation in which the partial differentiation of equation (4) with respect to b is 0 are used as equations solved for a and b. The mixing coefficient determination 104 can determine a and b. Similarly, there may be three or more candidate models for linear combination.

また、候補モデルを複数用いる場合は、候補モデルによって、YとXとの関係が異なっていてもよい。例えば、1つ目の候補モデルでは、YはXの直前の4ビットであり、2つ目の候補モデルでは、YはXの40ビット前の4ビットであってもよい。さらに、候補モデルによって、Yのビット長が異なっていてもよい。 When a plurality of candidate models are used, the relationship between Y n and X n may be different depending on the candidate model. For example, in the first candidate models, Y n is 4 bits immediately before the X n, the second candidate models, Y n may be 4 bits before 40-bit X n. Furthermore, the candidate model may have different bit length of Y n.

また、複数の候補モデルを用意しておき、それらの中から一つを選択して用いるようにしてもよい。例えば、混合係数決定104が、複数の候補モデルについて式(4)の値を算出し、その値が最も小さくなった候補モデルを選択するようにしてもよい。   A plurality of candidate models may be prepared and one of them may be selected and used. For example, the mixing coefficient determination 104 may calculate the value of the formula (4) for a plurality of candidate models and select the candidate model having the smallest value.

また、図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各装置を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Also, the encoding device 100, the context model generation device 110, the occurrence probability generation device 111 in FIG. 2, the decoding device 200 in FIG. 3, the encoding device 100a in FIG. 4, the decoding device 200a in FIG. 5, the context model generation device 110a, A program for realizing the function of the occurrence probability generation device 211a is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to implement each device. Also good. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず、専用回路、または汎用プロセッサで実現しても良い。ハイブリッド、モノリシックのいずれでも良い。一部は、ハードウェアにより、一部はソフトウェアにより機能を実現させても良い。
また、半導体技術の進歩により、LSIに代替する集積回路化等の技術が出現した場合、当該技術による集積回路を用いることも可能である。
2 described above, the context model generation device 110, the occurrence probability generation device 111, the decoding device 200 in FIG. 3, the encoding device 100a in FIG. 4, the decoding device 200a in FIG. 5, and the context model generation device. Each functional block of 110a and the occurrence probability generation device 211a may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of circuit integration is not limited to LSI, and implementation using a dedicated circuit or a general-purpose processor is also possible. Either hybrid or monolithic may be used. Some of the functions may be realized by hardware and some by software.
In addition, when a technology such as an integrated circuit that replaces an LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology can be used.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

10…情報源符号化復号システム
100、100a…符号化装置
101…バッファ部
102…事前確率推定部
103…コンテキスト推定部
104…混合係数決定部
105…コンテキストモデル生成部
106…参照データ取得部
107…生起確率モデル選択部
108…エントロピー符号化部
109…多重部
110、110a…コンテキストモデル生成装置
111…生起確率生成装置
200、200a…復号装置
208…エントロピー復号部
209…分離部
211、211a…生起確率生成装置
DESCRIPTION OF SYMBOLS 10 ... Information source encoding / decoding system 100, 100a ... Encoding apparatus 101 ... Buffer part 102 ... Prior probability estimation part 103 ... Context estimation part 104 ... Mixed coefficient determination part 105 ... Context model generation part 106 ... Reference data acquisition part 107 ... Occurrence probability model selection unit 108 ... entropy coding unit 109 ... multiplexing unit 110, 110a ... context model generation device 111 ... occurrence probability generation device 200, 200a ... decoding device 208 ... entropy decoding unit 209 ... separation unit 211, 211a ... occurrence probability Generator

Claims (7)

参照データ値が与えられたときの、対象データの各データ値の生起確率を示すコンテキストモデルを生成するコンテキストモデル生成装置であって、
前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と
を備えることを特徴とするコンテキストモデル生成装置。
A context model generation device that generates a context model indicating an occurrence probability of each data value of target data when a reference data value is given,
A prior probability estimator for calculating a first model composed of the occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generation device comprising: a context model generation unit configured to generate a context model in which the first model and the candidate model are mixed at the mixing ratio.
前記コンテキストモデル生成部は、前記第1モデルと前記候補モデルとを、前記混合比にて線形結合して前記コンテキストモデルを生成すること
を備えることを特徴とする請求項1に記載のコンテキストモデル生成装置。
The context model generation unit according to claim 1, wherein the context model generation unit includes generating the context model by linearly combining the first model and the candidate model with the mixture ratio. apparatus.
前記候補モデルは、クロネッカーのデルタ関数であることを特徴とする請求項1に記載のコンテキストモデル生成装置。   The context model generation apparatus according to claim 1, wherein the candidate model is a Kronecker delta function. 対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部と
を備えることを特徴とする符号化装置。
A prior probability estimator for calculating a first model composed of occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generating unit that generates a context model in which the first model and the candidate model are mixed at the mixing ratio;
An encoding apparatus comprising: an encoding unit that generates encoded data by encoding the target data using the context model generated by the context model generation unit.
前記符号化部が生成した符号化データと、前記混合比決定部が決定した混合比を示す情報とを多重する多重部を備えることを特徴とする請求項4に記載の符号化装置。   The encoding apparatus according to claim 4, further comprising a multiplexing unit that multiplexes the encoded data generated by the encoding unit and information indicating the mixing ratio determined by the mixing ratio determination unit. 対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
を備えることを特徴とする復号装置。
A prior probability estimator for calculating a first model composed of occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generating unit that generates a context model in which the first model and the candidate model are mixed at the mixing ratio;
A decoding unit comprising: a decoding unit that decodes encoded data obtained by encoding the target data using a context model generated by the context model generation unit.
入力されたデータを、対象データを符号化した符号化データと、前記符号化データの符号化に用いた混合比を示す情報とに分離する分離部と、
前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
を備えることを特徴とする復号装置。
A separator that separates input data into encoded data obtained by encoding the target data and information indicating a mixing ratio used for encoding the encoded data;
A prior probability estimator for calculating a first model composed of the occurrence probabilities of each data value in the first learning data representing the target data;
A context model that is a candidate model composed of the occurrence probability of each data value when a reference data value is given and is mixed with a predetermined candidate model at the mixing ratio is generated. A context model generation unit;
A decoding unit comprising: a decoding unit that decodes encoded data obtained by encoding the target data using a context model generated by the context model generation unit.
JP2014083729A 2014-04-15 2014-04-15 Context model generation device, encoding device, and decoding device Active JP6312312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014083729A JP6312312B2 (en) 2014-04-15 2014-04-15 Context model generation device, encoding device, and decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014083729A JP6312312B2 (en) 2014-04-15 2014-04-15 Context model generation device, encoding device, and decoding device

Publications (2)

Publication Number Publication Date
JP2015204556A JP2015204556A (en) 2015-11-16
JP6312312B2 true JP6312312B2 (en) 2018-04-18

Family

ID=54597770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014083729A Active JP6312312B2 (en) 2014-04-15 2014-04-15 Context model generation device, encoding device, and decoding device

Country Status (1)

Country Link
JP (1) JP6312312B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735736B2 (en) * 2017-08-29 2020-08-04 Google Llc Selective mixing for entropy coding in video compression

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9812518A (en) * 1997-07-11 2000-08-01 Sarnoff Corp Apparatus and method for encoding multiscale zero tree entropy
BR122015017701B1 (en) * 2009-05-29 2021-06-01 Mitsubishi Electric Corporation IMAGE DECODING METHOD
JP5592246B2 (en) * 2010-12-21 2014-09-17 日本電信電話株式会社 Context adaptive entropy encoding method, context adaptive entropy decoding method, context adaptive entropy encoding device, context adaptive entropy decoding device, and programs thereof
JP2013168913A (en) * 2012-01-19 2013-08-29 Mitsubishi Electric Corp Video encoder, video decoder, video encoding method and video decoding method

Also Published As

Publication number Publication date
JP2015204556A (en) 2015-11-16

Similar Documents

Publication Publication Date Title
JP6352452B2 (en) Method and apparatus for syntactic binarization and context adaptive coding in video coding
JP6706357B2 (en) Method, coding device and corresponding computer program for coding a current block of a first image component with respect to a reference block of at least one second image component
JP2024003161A (en) Image decoding method
KR102363426B1 (en) Method and apparatus for parallel entropy encoding/decoding
JP2022520408A (en) Methods, devices, and computer programs for video decoding
JP5270592B2 (en) Image coding apparatus, image coding method, and image coding program
KR101696589B1 (en) Method for decoding video quantization parameter
Jalali et al. A universal scheme for Wyner–Ziv coding of discrete sources
JP6312312B2 (en) Context model generation device, encoding device, and decoding device
JP6614935B2 (en) Video encoding apparatus and program
CN106851278B (en) Image quantization parameter decoding method and decoder
CN113678378B (en) Video decoding method, video decoder, and non-volatile computer readable medium
JP5878792B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program
JP6280266B2 (en) Decoding device and decoding method
JP2005176169A (en) Video coding method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6312312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150