JP5908914B2 - 運動行列を用いた映像の符号化および復号のための方法および装置 - Google Patents
運動行列を用いた映像の符号化および復号のための方法および装置 Download PDFInfo
- Publication number
- JP5908914B2 JP5908914B2 JP2013533907A JP2013533907A JP5908914B2 JP 5908914 B2 JP5908914 B2 JP 5908914B2 JP 2013533907 A JP2013533907 A JP 2013533907A JP 2013533907 A JP2013533907 A JP 2013533907A JP 5908914 B2 JP5908914 B2 JP 5908914B2
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- motion
- embedding
- representation
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011159 matrix material Substances 0.000 title claims description 383
- 230000033001 locomotion Effects 0.000 title claims description 178
- 238000000034 method Methods 0.000 title claims description 73
- 239000013598 vector Substances 0.000 claims description 48
- 230000002123 temporal effect Effects 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 46
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000007906 compression Methods 0.000 description 23
- 230000006835 compression Effects 0.000 description 23
- 230000008901 benefit Effects 0.000 description 12
- 238000013459 approach Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 9
- 239000000243 solution Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000005184 irreversible process Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/97—Matching pursuit coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本出願は、2010年10月14日に出願した米国仮出願第61/393,186号の利益を主張するものであり、この仮出願は、参照によりその全体が本明細書に組み込まれる。
(a)時間的相関、または連続するフレームの間の相関、および
(b)空間的相関、つまりフレームおよび/またはピクチャ内の隣接するピクセル(もしくはそれ以外の状態で近くにあるピクセル)の間の相関
を利用する。
本原理によって、発明者は、映像コンテンツを符号化および復号するためのシステムを説明する。説明を明瞭にするために特定の文脈および実施形態で説明されるが、本明細書に記載の同じ原理のうちの1つまたは複数を利用し、したがって本原理の範疇に入ることから除外されてはならないその他の実施形態は、当業者に明らかであろう。例えば、デコーダの圧縮センシングモジュールは、「基底追跡(basis pursuit)」アルゴリズムを用いて実現され得るが、同じ目的を達成することができる文献中のその他のよくあるアルゴリズム(およびその他の将来開発されたアルゴリズム)が存在し、それらのアルゴリズムは、本発明の包括的原理および範囲に含まれるように意図される。発明者は、基底追跡(BP)アルゴリズムが凸最適化問題を解くことを伴うことを強調する。より具体的には、BPは、一次方程式の劣決定系y=Pxに対する最小のL1ノルム(絶対値の総和)を用いて解を発見し、ここで、yの値および係数Pの行列が与えられており、xは未知のベクトルである。さらに、一次方程式の劣決定系によって、発明者は、式の数(ここではPの行列の行の数)が未知数の数(未知のベクトルxの長さ)未満であることを意味する。数学的形式で、BPは以下の最適化問題を解く。
y=PxであるようなArgmin||x||1=Σ|xi|
特定の条件の下で、BPによって発見される解は最も疎な解、すなわち、最小数の非ゼロの数を有する解であることが証明されている。
f2=X(f1)+R
ここで、X(.)は基本関数(basic function)であり、Rは何らかの残差である。例えば、図1の例に関して、X(.)は、画像(f1)を入力として受け取り、次いで、出力のためにその画像(f1)を右に1ピクセルだけシフトする関数であり、Rは残差である。圧縮は、X(.)およびRを効率的に符号化することによって達せられる。例に戻ると、X(.)は、動きベクトルとして符号化される可能性があり、Rは、離散コサイン変換(DCT)などの変換領域でRを表すことによって効率的に圧縮され得る。この符号化の包括的な枠組み、すなわち、参照フレームにおける何らかの動きおよび何らかの残差に関して画像を分解することは、時間的相関を広く利用して圧縮を行うことに留意されたい。空間的相関は、残差の変換符号化によっても利用される。一方、DCT、ウェーブレットなどの利用可能な変換は、残差の代わりに、相関性の高い画像を希薄化する(疎にする)ように設計されている。言い換えると、変換を利用して残差を符号化することは過去うまくいっていたが、映像データを圧縮する能力をよりいっそう高めるために、将来開発される方式においては空間的相関が使用される可能性がある。
符号化されるべきフレーム(例えば、図1のf2)に関する運動行列は、行列Yである。デコーダは、運動行列および参照フレーム(例えば、f1)を用いて符号化されたフレームを一意的に再構築することができる。さらに、運動行列は、以下の2つの追加的な重要な性質を有する。
・運動行列は、低い階数を有する。言い換えると、Yの成分は相関性が高い。
・運動行列は、符号化されるべきフレームの知識を必要とせずにデコーダにおいて導出され得る辞書ψ、すなわち、アトム/基底ベクトルの組(例えば、離散コサイン変換は画像を表現するための辞書である)に対する疎な表現αを有し、つまり、Vec(Y)=ψαであり、ここで、Vec(.)は、行列の列を積み上げることによって形成される行列のベクトル化された形態(図4参照)を表し、αは、要素のほとんどがゼロである疎なベクトルである。
・変位行列および従来の運動行列は、主として2値行列を利用する。一方、提案される運動行列の成分は、負数および浮動小数点数を含む任意の数を取り得る。
・従来の研究の変位行列および運動行列の成分は、一部のブロックおよび/またはピクセルにおけるいくつかの種類の動きの存在を示す。一方、提案される運動行列の成分は、一部のブロックにおける動きを示すタスクに制限されない。例えば、提案される運動行列の成分は、フレーム全体におけるいくつかの全体的な動き(フレームにおけるすべての動きに応じて決まる値)を知らせる可能性がある。
・従来の研究においては、参照フレームが与えられたとして、運動および/または変位行列は、通常、フレームを再構築するために十分でない。例えば、残差行列、またはデコーダ側での望ましい再構築のためのその他のシグナリングなどのオーバーヘッドデータを送信する必要がある可能性がある。発明者の方法は、単独で機能する運動行列を対象としており、参照フレームが与えられるとすれば、運動行列さえあれば、既に符号化されたフレームを妥当な誤差で近似するために十分である。
・従来の運動行列および/または変位行列は、発明者の定義におけるすべての必要条件に(通常)反するので、それらの従来の運動行列および/または変位行列は、発明者の提案する運動行列の枠組みに入らない。例えば、斜線が数ピクセルだけ右または左にシフトするフレームまたはブロックを考える。そのとき、対応する変位行列はフルランク(最大のあり得る階数)の対角行列になることは容易に理解できる。さらに、そのような対角行列(つまり画像)は、DCT、ウェーブレットなどの従来の変換の下では疎でない(これらの種類の行列に適した何らかの方向変換(directional transform)が存在する可能性があるが、しかし、我々は、それらの変換/辞書のパラメータをデコーダに送信する必要があり、これは余計なオーバーヘッドを生じる)。したがって、従来の変位/運動行列は、運動行列に関する2つの必要条件(すなわち、低階数であることおよび希薄化領域(sparsifying domain)の存在)に容易に違反し得る。
・別の違いが復号段階に現れる。より具体的には、従来の符号化の方法は、予測および残差の符号化を利用して圧縮を行う。一方、発明者は、行列の完成および(圧縮センシングを用いて)一次方程式の劣決定系を解くことなどの最近生み出された/解かれたアルゴリズム/問題を利用して同様の目的を達成する。
本節では、運動行列の一実施形態の例が示される。また、そのような運動行列を符号化および復号するための必要とされるステップが、より詳細に与えられる。
我々は、参照フレームf1を利用することによってフレームf2を符号化したいものとする。上述のように、提案されるエンコーダの第1の段階は、運動行列Yを見つけることである。単純な形態の運動行列は、f2(すなわち、符号化されるべきフレーム)の修正されたバージョンであり、したがって、
出力:運動行列Y
初期化Y=f2
do{
・ψに対するYの表現αを見つける:
Vec(Y)=ψα
・
・Yを
・Yの大きい方からr個の固有値を残し、残りの固有値をゼロに設定する
}収束するか、または誤差が十分に小さくなるまで繰り返す
・kおよびrを調整することにより、圧縮の量を制御する。具体的には、rおよびkが増加するにつれて、デコーダで再構築される運動行列の品質が高くなり、その代償として圧縮幅は少なくなり、その逆も同様である。
・高い空間的相関は、運動行列
・高い時間的相関は、符号化されるべきフレームf2が辞書ψのほんの数個(k個)のアトムを用いて近似されることを可能にする。
修正されたフレーム(つまり運動行列)
埋め込み行列Zの比較的小さなランダムなサブセット(S)のみを残し、残りの成分を破棄することによって、レベルの違う圧縮が実現される。図8に目を向けると、運動行列からのサンプリングおよび行列の完成のための例示的な方法が、全体的に参照番号800によって示されている。方法800は、低階数で密な埋め込み行列805および低階数で密な埋め込み行列810を含む。デコーダおよびエンコーダが同じ乱数のシードおよび乱数生成器を使用する場合、成分の値Sのみが送信され、デコーダとエンコーダの両方はこれらの成分の位置が分かり、このことは(インデックスが送信されないので)さらなる圧縮をもたらす。
前の段階からの埋め込み行列Zの成分のランダムなサブセット(S)は、量子化され、最終的な圧縮されたシンボルCを得るためにエントロピーコーダに通される。
デコーダのさまざまなコンポーネントが、本明細書において既に導入された基本的な運動行列の場合について示され、説明される。
最も古典的な映像符号化方式と同様に、デコーダの第1の段階は、圧縮されたシンボルCを復号し、復号されたシンボルを逆量子化して、埋め込み行列Zの成分のランダムなサブセットの近似値
最近、非常に関心の高い問題、具体的には、「低階数の行列の完成」が、いくつかの条件の下である程度まで解かれた。大まかに言って、この問題は、我々は、低階数の行列があり、その行列の成分のサブセットのみを見ることができるとして、見えない成分を近似することができるのかという疑問に対応する。もちろん、この疑問に対応する答えは、その行列による。図9に目を向けると、対応する固有ベクトルが十分にランダムであるときの低階数の行列の完成の例が、全体的に参照番号900によって示されている。図10に目を向けると、対応する固有ベクトルが十分にはランダムでないことが原因で失敗する低階数の行列の例が、全体的に参照番号1000によって示されている。したがって、例えば、例900に関して、我々が基礎となる行列が低階数であると確信している場合、欠けている成分は、第2列が第1列の3倍であるので6である。一方、例1000に関しては、欠けている成分は、任意の数である可能性があり、推定し得ない。いくつかの条件が満たされる場合、例えば、低階数の行列の固有ベクトルが十分にランダムである場合、低階数の行列の完成は容易に解くことができることが示されており、特異値閾値法(Singular Value Thresholding)(SVT)、不動点連続法(Fixed Point Continuation)(FPC)などのいくつかのアルゴリズムが、この問題を解くために提案されている。
運動行列
Vec(Y)=ψα
運動行列のベクトル化された形態を再整形することにより、我々は運動行列を得る。しかし、この例において、我々は、運動行列が符号化されたフレームの優れた近似であると仮定した。したがって、運動行列および参照フレームから符号化されたフレームを推定する必要はなく、我々は、導出された運動行列をそのまま表示することができる。
(付記1)
運動行列を用いて映像シーケンスのピクチャを符号化するための映像エンコーダを備え、
前記運動行列は、所与の閾値未満の階数と、辞書に対する疎な表現とを有し、前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを対応するデコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、前記映像シーケンスの参照ピクチャの組から形成される、装置。
(付記2)
前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、付記1に記載の装置。
(付記3)
前記映像エンコーダは、埋め込み行列に前記運動行列を埋め込むための埋め込みデバイスと、前記埋め込み行列をサンプリングして前記埋め込み行列からのサンプルのサブセットを提供するためのサンプラと、前記サンプルのサブセットを量子化して量子化されたサンプルのサブセットを提供するための量子化器と、前記量子化されたサンプルのサブセットを圧縮されたシンボルにエントロピー符号化するためのエントロピーコーダとを備える、付記1に記載の装置。
(付記4)
前記埋め込み行列は、前記運動行列を乗じた2つの行列を用いて決定され、前記2つの行列は、前記埋め込み行列のランダムな固有ベクトルの閾値の量を与えるように選択される、付記3に記載の装置。
(付記5)
前記サンプルのサブセットは、前記埋め込み行列からランダムに選択される、付記3に記載の装置。
(付記6)
前記埋め込み行列からの前記サンプルのサブセットのサンプルが前記映像エンコーダおよび対応する映像デコーダにおいて同じそれぞれの位置にあることを保証するために、同じ乱数のシードおよび同じ乱数生成器が前記映像エンコーダおよび前記対応する映像デコーダによって使用される、付記5に記載の装置。
(付記7)
前記サンプラは、前記サンプルのサブセットのサンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の部分を破棄する、付記3に記載の装置。
(付記8)
運動行列を用いて映像シーケンスのピクチャを符号化するステップを含み、
前記運動行列は、所与の閾値未満の階数と、辞書に対する疎な表現とを有し、前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを対応するデコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、前記映像シーケンスの参照ピクチャの組から形成される、映像エンコーダにおける方法。
(付記9)
前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、付記8に記載の方法。
(付記10)
前記符号化するステップは、埋め込み行列に前記運動行列を埋め込むステップと、
前記埋め込み行列をサンプリングして前記埋め込み行列からのサンプルのサブセットを提供するステップと、前記サンプルのサブセットを量子化して量子化されたサンプルのサブセットを提供するステップと、前記量子化されたサンプルのサブセットを圧縮されたシンボルにエントロピー符号化するステップとを含む、付記8に記載の方法。
(付記11)
前記埋め込み行列は、前記運動行列を乗じた2つの行列を用いて決定され、前記2つの行列は、前記埋め込み行列のランダムな固有ベクトルの閾値の量を与えるように選択される、付記10に記載の方法。
(付記12)
前記サンプルのサブセットは、前記埋め込み行列からランダムに選択される、付記10に記載の方法。
(付記13)
前記埋め込み行列からの前記サンプルのサブセットのサンプルが前記映像エンコーダおよび対応する映像デコーダにおいて同じそれぞれの位置にあることを保証するために、同じ乱数のシードおよび同じ乱数生成器が前記映像エンコーダおよび前記対応する映像デコーダによって使用される、付記12に記載の方法。
(付記14)
前記サンプリングするステップは、前記サンプルのサブセットのサンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の部分を破棄するステップを含む、付記10に記載の方法。
(付記15)
運動行列の近似値を用いて映像シーケンスのピクチャを復号するための映像デコーダを備え、前記運動行列の前記近似値は、所与の閾値未満の階数と、辞書に対する疎な表現とを有し、前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを前記映像デコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、前記映像シーケンスの参照ピクチャの組から形成される、装置。
(付記16)
前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、付記15に記載の装置。
(付記17)
前記映像デコーダは、圧縮されたシンボルをエントロピー復号して、埋め込み行列からの量子化されたサンプルのサブセットを提供するためのエントロピーデコーダと、前記量子化されたサンプルのサブセットを逆量子化して、前記埋め込み行列の復元されたバージョンからのサンプルのサブセットの近似値を提供するための逆量子化器と、前記埋め込み行列の前記復元されたバージョンの欠落した部分を決定して、前記埋め込み行列の完成した復元されたバージョンを提供するための行列完成デバイスと、前記埋め込み行列の前記完成した復元されたバージョンから前記運動行列の前記近似値を再構築するための再構築デバイスとを備える、付記15に記載の装置。
(付記18)
前記埋め込み行列の前記復元されたバージョンの前記欠落した部分は、前記サンプルのサブセットのサンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の以前に破棄された部分に対応する、付記17に記載の装置。
(付記19)
前記運動行列の前記近似値は、前記埋め込み行列と、前記埋め込み行列の行列を乗じた2つの行列とを用いて決定される、付記17に記載の装置。
(付記20)
前記埋め込み行列からの前記サンプルのサブセットのサンプルが前記映像デコーダおよび対応する映像エンコーダにおいて同じそれぞれの位置にあることを保証するために、同じ乱数のシードおよび同じ乱数生成器が前記映像デコーダおよび前記対応する映像エンコーダによって使用される、付記17に記載の装置。
(付記21)
前記運動行列の疎な表現が、前記埋め込み行列の前記復元されたバージョンに対して決定され、前記ピクチャのベクトル化された形態が、前記疎な表現および前記辞書に応じて決定され、前記ベクトル化された形態は、前記ピクチャの再構築されたバージョンを得るために再整形される、付記15に記載の装置。
(付記22)
運動行列の近似値を用いて映像シーケンスのピクチャを復号するステップを含み、
前記運動行列の前記近似値は、所与の閾値未満の階数と、辞書に対する疎な表現とを有し、前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを映像デコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、前記映像シーケンスの参照ピクチャの組から形成される、前記映像デコーダにおける方法。
(付記23)
前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、付記22に記載の方法。
(付記24)
圧縮されたシンボルをエントロピー復号して、埋め込み行列からの量子化されたサンプルのサブセットを提供するステップと、
前記量子化されたサンプルのサブセットを逆量子化して、前記埋め込み行列の復元されたバージョンからのサンプルのサブセットの近似値を提供するステップと、
前記埋め込み行列の前記復元されたバージョンの欠落した部分を決定して、前記埋め込み行列の完成した復元されたバージョンを提供するステップと、
前記埋め込み行列の前記完成した復元されたバージョンから前記運動行列の前記近似値を再構築するステップと
をさらに含む、付記22に記載の方法。
(付記25)
前記埋め込み行列の前記復元されたバージョンの前記欠落した部分は、前記サンプルのサブセットのサンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の以前に破棄された部分に対応する、付記24に記載の方法。
(付記26)
前記運動行列の前記近似値は、前記埋め込み行列と、前記埋め込み行列を乗じた2つの行列とを用いて決定される、付記24に記載の方法。
(付記27)
前記埋め込み行列からの前記サンプルのサブセットのサンプルが前記映像デコーダおよび対応する映像エンコーダにおいて同じそれぞれの位置にあることを保証するために、同じ乱数のシードおよび同じ乱数生成器が前記映像デコーダおよび前記対応する映像エンコーダによって使用される、付記24に記載の方法。
(付記28)
前記運動行列の疎な表現が、前記埋め込み行列の前記復元されたバージョンに対して決定され、前記ピクチャのベクトル化された形態が、前記疎な表現および前記辞書に応じて決定され、前記ベクトル化された形態は、前記ピクチャの再構築されたバージョンを得るために再整形される、付記22に記載の方法。
(付記29)
符号化された映像信号データをその中に有するコンピュータ可読ストレージ媒体であって、
運動行列を用いて符号化された、映像シーケンスのピクチャを含み、
前記運動行列は、所与の閾値未満の階数と、辞書に対する疎な表現とを有し、前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを対応するデコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、前記映像シーケンスの参照ピクチャの組から形成される、コンピュータ可読ストレージ媒体。
Claims (21)
- 運動行列を用いて映像シーケンスのピクチャを符号化するための映像エンコーダを備え、前記運動行列はデコーダに前記運動行列および参照フレームを用いて前記ピクチャを一意的に再構築させることができるデータを有し、
前記運動行列は、所与の階数を有し、前記運動行列の列を積み上げることにより形成されるベクトルは、辞書と疎な表現との積からなり、
前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを対応するデコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、非ゼロの残差値の数を最小化するために前記映像シーケンスの参照ピクチャの組から形成され、
前記運動行列は、
第1の表現を見出す第1のステップであって、前記辞書と前記第1の表現との積が、初期値が前記ピクチャである第1の行列の列を積み上げることにより形成されるベクトルである、前記第1のステップと、
前記第1の表現の大きい方から所与の数の成分だけを有する第2の表現を生成する第2のステップと、
第2の行列を作成する第3のステップであって、前記第2の行列の列を積み上げることにより形成されるベクトルは前記辞書と前記第2の表現との積である、前記第3のステップと、
前記第2の行列の大きい方から前記所与の階数と同じ数の固有値を有する第3の行列を生成する第4のステップと、
前記第1の表現がある特定のレベルに収束するまで、前記第1の行列を前記第3の行列に置き換えて前記第1のステップから前記第4のステップを繰り返し、前記第1の表現がある特定のレベルに収束したとき、前記第1の行列を前記運動行列とする、第5のステップと、
により見出される、装置。 - 前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、請求項1に記載の装置。
- 前記映像エンコーダは、埋め込み行列に前記運動行列を埋め込むための埋め込みデバイスと、前記埋め込み行列をサンプリングして前記埋め込み行列からのサンプルのサブセットを提供するためのサンプラと、前記サンプルのサブセットを量子化して量子化されたサンプルのサブセットを提供するための量子化器と、前記量子化されたサンプルのサブセットを圧縮されたシンボルにエントロピー符号化するためのエントロピーコーダとを備える、請求項1に記載の装置。
- 前記埋め込み行列は、前記運動行列を乗じた2つの行列を用いて決定され、前記2つの行列は、前記埋め込み行列のランダムな固有ベクトルの閾値の量を与えるように選択される、請求項3に記載の装置。
- 運動行列を用いて映像シーケンスのピクチャを符号化するステップを含み、前記運動行列はデコーダに前記運動行列および参照フレームを用いて前記ピクチャを一意的に再構築させることができるデータを有し、
前記運動行列は、所与の階数を有し、前記運動行列の列を積み上げることにより形成されるベクトルは、辞書と疎な表現との積からなり、
前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを対応するデコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、非ゼロの残差値の数を最小化するために前記映像シーケンスの参照ピクチャの組から形成され、
前記運動行列は、
第1の表現を見出す第1のステップであって、前記辞書と前記第1の表現との積が、初期値が前記ピクチャである第1の行列の列を積み上げることにより形成されるベクトルである、前記第1のステップと、
前記第1の表現の大きい方から所与の数の成分だけを有する第2の表現を生成する第2のステップと、
第2の行列を作成する第3のステップであって、前記第2の行列の列を積み上げることにより形成されるベクトルは前記辞書と前記第2の表現との積である、前記第3のステップと、
前記第2の行列の大きい方から前記所与の階数と同じ数の固有値を有する第3の行列を生成する第4のステップと、
前記第1の表現がある特定のレベルに収束するまで、前記第1の行列を前記第3の行列に置き換えて前記第1のステップから前記第4のステップを繰り返し、前記第1の表現がある特定のレベルに収束したとき、前記第1の行列を前記運動行列とする、第5のステップと、
により見出される、映像エンコーダにおける方法。 - 前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、請求項5に記載の方法。
- 前記符号化するステップは、
埋め込み行列に前記運動行列を埋め込むステップと、
前記埋め込み行列をサンプリングして前記埋め込み行列からのサンプルのサブセットを提供するステップと、
前記サンプルのサブセットを量子化して量子化されたサンプルのサブセットを提供するステップと、
前記量子化されたサンプルのサブセットを圧縮されたシンボルにエントロピー符号化するステップと、
を含む、請求項5に記載の方法。 - 前記埋め込み行列は、前記運動行列を乗じた2つの行列を用いて決定され、前記2つの行列は、前記埋め込み行列のランダムな固有ベクトルの閾値の量を与えるように選択される、請求項7に記載の方法。
- 前記サンプルのサブセットは、前記埋め込み行列からランダムに選択される、請求項7に記載の方法。
- 前記サンプリングするステップは、前記サンプルのサブセットの前記サンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の部分を破棄するステップを含む、請求項7に記載の方法。
- 運動行列の近似値を用いて映像シーケンスのピクチャを復号するための映像デコーダを備え、前記運動行列は前記映像デコーダに前記運動行列および参照フレームを用いて前記ピクチャを一意的に再構築させることができるデータを有し、
前記運動行列の前記近似値は、所与の階数を有し、前記運動行列の列を積み上げることにより形成されるベクトルは、辞書と疎な表現との積からなり、
前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを前記映像デコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、非ゼロの残差値の数を最小化するために前記映像シーケンスの参照ピクチャの組から形成され、
前記運動行列は、
第1の表現を見出す第1のステップであって、前記辞書と前記第1の表現との積が、初期値が前記ピクチャである第1の行列の列を積み上げることにより形成されるベクトルである、前記第1のステップと、
前記第1の表現の大きい方から所与の数の成分だけを有する第2の表現を生成する第2のステップと、
第2の行列を作成する第3のステップであって、前記第2の行列の列を積み上げることにより形成されるベクトルは前記辞書と前記第2の表現との積である、前記第3のステップと、
前記第2の行列の大きい方から前記所与の階数と同じ数の固有値を有する第3の行列を生成する第4のステップと、
前記第1の表現がある特定のレベルに収束するまで、前記第1の行列を前記第3の行列に置き換えて前記第1のステップから前記第4のステップを繰り返し、前記第1の表現がある特定のレベルに収束したとき、前記第1の行列を前記運動行列とする、第5のステップと、
により見出される、装置。 - 前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、請求項11に記載の装置。
- 前記映像デコーダは、圧縮されたシンボルをエントロピー復号して、埋め込み行列からの量子化されたサンプルのサブセットを提供するためのエントロピーデコーダと、前記量子化されたサンプルのサブセットを逆量子化して、前記埋め込み行列の復元されたバージョンからのサンプルのサブセットの近似値を提供するための逆量子化器と、前記埋め込み行列の前記復元されたバージョンの欠落した部分を決定して、前記埋め込み行列の完成した復元されたバージョンを提供するための行列完成デバイスと、前記埋め込み行列の前記完成した復元されたバージョンから前記運動行列の前記近似値を再構築するための再構築デバイスと、を備える、請求項11に記載の装置。
- 前記埋め込み行列の前記復元されたバージョンの前記欠落した部分は、前記サンプルのサブセットの前記サンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の以前に破棄された部分に対応する、請求項13に記載の装置。
- 運動行列の近似値を用いて映像シーケンスのピクチャを復号するステップを含み、前記運動行列は映像デコーダに前記運動行列および参照フレームを用いて前記ピクチャを一意的に再構築させることができるデータを有し、
前記運動行列の前記近似値は、所与の階数を有し、前記運動行列の列を積み上げることにより形成されるベクトルは、辞書と疎な表現との積からなり、
前記辞書は、前記ピクチャを表すため、ならびに前記ピクチャを前記映像デコーダにおいてアトムおよび基底ベクトルの組だけを用いて導出することを可能にするためのアトムおよび基底ベクトルの前記組を含み、前記辞書は、非ゼロの残差値の数を最小化するために前記映像シーケンスの参照ピクチャの組から形成され、
前記運動行列は、
第1の表現を見出す第1のステップであって、前記辞書と前記第1の表現との積が、初期値が前記ピクチャである第1の行列の列を積み上げることにより形成されるベクトルである、前記第1のステップと、
前記第1の表現の大きい方から所与の数の成分だけを有する第2の表現を生成する第2のステップと、
第2の行列を作成する第3のステップであって、前記第2の行列の列を積み上げることにより形成されるベクトルは前記辞書と前記第2の表現との積である、前記第3のステップと、
前記第2の行列の大きい方から前記所与の階数と同じ数の固有値を有する第3の行列を生成する第4のステップと、
前記第1の表現がある特定のレベルに収束するまで、前記第1の行列を前記第3の行列に置き換えて前記第1のステップから前記第4のステップを繰り返し、前記第1の表現がある特定のレベルに収束したとき、前記第1の行列を前記運動行列とする、第5のステップと、
により見出される、前記映像デコーダにおける方法。 - 前記辞書は、前記ピクチャと参照ピクチャの前記組との間の空間的相関および時間的相関から形成される、請求項15に記載の方法。
- 圧縮されたシンボルをエントロピー復号して、埋め込み行列からの量子化されたサンプルのサブセットを提供するステップと、
前記量子化されたサンプルのサブセットを逆量子化して、前記埋め込み行列の復元されたバージョンからのサンプルのサブセットの近似値を提供するステップと、
前記埋め込み行列の前記復元されたバージョンの欠落した部分を決定して、前記埋め込み行列の完成した復元されたバージョンを提供するステップと、
前記埋め込み行列の前記完成した復元されたバージョンから前記運動行列の前記近似値を再構築するステップと
をさらに含む、請求項15に記載の方法。 - 前記埋め込み行列の前記復元されたバージョンの前記欠落した部分は、前記サンプルのサブセットの前記サンプルと異なる前記埋め込み行列内の位置にある前記埋め込み行列の以前に破棄された部分に対応する、請求項17に記載の方法。
- 前記運動行列の前記近似値は、前記埋め込み行列と、前記埋め込み行列を乗じた2つの行列とを用いて決定される、請求項17に記載の方法。
- 前記埋め込み行列からの前記サンプルのサブセットの前記サンプルが前記映像デコーダおよび対応する映像エンコーダにおいて同じそれぞれの位置にあることを保証するために、同じ乱数のシードおよび同じ乱数生成器が前記映像デコーダおよび前記対応する映像エンコーダによって使用される、請求項17に記載の方法。
- 前記運動行列の疎な表現が、前記埋め込み行列の前記復元されたバージョンに対して決定され、前記ピクチャのベクトル化された形態が、前記疎な表現および前記辞書に応じて決定され、前記ベクトル化された形態は、前記ピクチャの再構築されたバージョンを得るために再整形される、請求項17に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US39318610P | 2010-10-14 | 2010-10-14 | |
US61/393,186 | 2010-10-14 | ||
PCT/US2011/055562 WO2012051094A2 (en) | 2010-10-14 | 2011-10-10 | Methods and apparatus for video encoding and decoding using motion matrix |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013540403A JP2013540403A (ja) | 2013-10-31 |
JP2013540403A5 JP2013540403A5 (ja) | 2014-11-27 |
JP5908914B2 true JP5908914B2 (ja) | 2016-04-26 |
Family
ID=44802455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013533907A Active JP5908914B2 (ja) | 2010-10-14 | 2011-10-10 | 運動行列を用いた映像の符号化および復号のための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9894354B2 (ja) |
EP (1) | EP2742687A2 (ja) |
JP (1) | JP5908914B2 (ja) |
KR (1) | KR101873609B1 (ja) |
CN (1) | CN103404136B (ja) |
WO (1) | WO2012051094A2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2987483B1 (fr) * | 2012-02-29 | 2014-03-07 | Sagem Defense Securite | Procede d'analyse de donnees de vol |
US9167274B1 (en) * | 2012-03-21 | 2015-10-20 | Google Inc. | Generating synchronized dictionaries for sparse coding |
US9137528B1 (en) * | 2012-09-28 | 2015-09-15 | Google Inc. | Synchronizing sparse coding dictionaries for use in communication sessions |
WO2014098849A1 (en) * | 2012-12-19 | 2014-06-26 | Thomson Licensing | Methods and apparatus for automatically detecting image/video resolution and its color subsampling |
CN103561276B (zh) * | 2013-11-07 | 2017-01-04 | 北京大学 | 一种图像视频编解码方法 |
US10051281B2 (en) * | 2014-05-22 | 2018-08-14 | Apple Inc. | Video coding system with efficient processing of zooming transitions in video |
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
CN108734191B (zh) * | 2017-05-25 | 2020-11-06 | 湖北工业大学 | 深度学习应用于压缩感知重建的数据训练方法 |
CN109951711B (zh) * | 2019-03-25 | 2022-01-28 | 贵州大学 | 一种基于随机阈值调整的ezw数据压缩方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980702924A (ko) * | 1995-03-22 | 1998-09-05 | 마누엘쿠베로 | 다중 프레임에 대한 움직임 결정값의 좌표를 정하기 위한 방법및 장치 |
US6996236B1 (en) * | 1999-10-20 | 2006-02-07 | Microsoft Corporation | Methods and apparatus for protecting signals transmitted between a source and destination device over multiple signal lines |
EP1430723B1 (en) * | 2001-08-24 | 2007-05-23 | Koninklijke Philips Electronics N.V. | Adding fields of a video frame |
US7010167B1 (en) * | 2002-04-30 | 2006-03-07 | The United States Of America As Represented By The National Security Agency | Method of geometric linear discriminant analysis pattern recognition |
ATE336763T1 (de) | 2003-03-28 | 2006-09-15 | Digital Accelerator Corp | Transformations basiertes restbewegungsrahmen kodierungsverfahren mit übervollständiger basis und zugehörige vorrichtung zur videokompression |
JP2007502561A (ja) | 2003-08-12 | 2007-02-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオエンコードおよびデコードの方法および対応する装置 |
US7734652B2 (en) * | 2003-08-29 | 2010-06-08 | Oracle International Corporation | Non-negative matrix factorization from the data in the multi-dimensional data table using the specification and to store metadata representing the built relational database management system |
WO2006106508A2 (en) * | 2005-04-04 | 2006-10-12 | Technion Research & Development Foundation Ltd. | System and method for designing of dictionaries for sparse representation |
US20090028239A1 (en) * | 2005-05-03 | 2009-01-29 | Bernhard Schuur | Moving picture encoding method, moving picture decoding method and apparatuses using the methods |
US7508325B2 (en) * | 2006-09-06 | 2009-03-24 | Intellectual Ventures Holding 35 Llc | Matching pursuits subband coding of data |
US8548776B2 (en) * | 2008-06-30 | 2013-10-01 | Intel Corporation | Parallel physics solver |
JP5785955B2 (ja) * | 2010-01-15 | 2015-09-30 | トムソン ライセンシングThomson Licensing | 圧縮センシングを用いるビデオコーディング |
-
2011
- 2011-10-10 JP JP2013533907A patent/JP5908914B2/ja active Active
- 2011-10-10 US US13/879,349 patent/US9894354B2/en active Active
- 2011-10-10 KR KR1020137012366A patent/KR101873609B1/ko active IP Right Grant
- 2011-10-10 EP EP11770669.7A patent/EP2742687A2/en not_active Withdrawn
- 2011-10-10 CN CN201180060313.0A patent/CN103404136B/zh active Active
- 2011-10-10 WO PCT/US2011/055562 patent/WO2012051094A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN103404136A (zh) | 2013-11-20 |
CN103404136B (zh) | 2018-02-16 |
US9894354B2 (en) | 2018-02-13 |
JP2013540403A (ja) | 2013-10-31 |
KR20130139285A (ko) | 2013-12-20 |
WO2012051094A2 (en) | 2012-04-19 |
EP2742687A2 (en) | 2014-06-18 |
US20130223523A1 (en) | 2013-08-29 |
KR101873609B1 (ko) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5908914B2 (ja) | 運動行列を用いた映像の符号化および復号のための方法および装置 | |
CN108028941B (zh) | 用于通过超像素编码和解码数字图像的方法和装置 | |
CN107710759B (zh) | 转换系数编解码的方法及装置 | |
US9313465B2 (en) | Learned transform and compressive sensing for video coding | |
Zhao et al. | Multiple description convolutional neural networks for image compression | |
CN110710217B (zh) | 用于对最后有效系数标志进行代码化的方法和设备 | |
KR20190086433A (ko) | 더 높은 계층과 더 낮은 층 사이의 차이를 이용한 비디오 압축 | |
CN110024391B (zh) | 用于编码和解码数字图像或视频流的方法和装置 | |
TWI479456B (zh) | 使用誤差平面編碼的數據壓縮方法及裝置 | |
RU2567988C2 (ru) | Кодер, способ кодирования данных, декодер, способ декодирования данных, система передачи данных, способ передачи данных и программный продукт | |
CN109923864B (zh) | 数据处理设备、方法、计算机程序和计算机可读介质 | |
CN110073663A (zh) | 使用级别图的变换系数代码化 | |
CN105474642A (zh) | 使用频域差对图像集合进行重新编码 | |
JP7168896B2 (ja) | 画像符号化方法、及び画像復号方法 | |
EP2168382A1 (en) | Method for processing images and the corresponding electronic device | |
Al-Mahmood et al. | Lossless image compression based on predictive coding and bit plane slicing | |
EP3523974A1 (en) | Method and apparatus for encoding and decoding a video | |
KR102113904B1 (ko) | 보간을 이용한 연산 방법, 인코더, 및 디코더 | |
CN110710208B (zh) | 嵌入关于eob位置的信息 | |
Naidu et al. | A novel framework for JPEG image compression using baseline coding with parallel process | |
CN109906610B (zh) | 使用滤波和子空间投影的视频编译的恢复 | |
JP6004852B2 (ja) | ピクセルブロックを符号化及び再構成する方法と装置 | |
Zhao et al. | Virtual Codec Supervised Re-Sampling Network for Image Compression | |
WO2021117082A1 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及びプログラム | |
US20200099950A1 (en) | Processing devices and control methods therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141007 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5908914 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |