JP2018125713A - 予測装置およびプログラム - Google Patents
予測装置およびプログラム Download PDFInfo
- Publication number
- JP2018125713A JP2018125713A JP2017016622A JP2017016622A JP2018125713A JP 2018125713 A JP2018125713 A JP 2018125713A JP 2017016622 A JP2017016622 A JP 2017016622A JP 2017016622 A JP2017016622 A JP 2017016622A JP 2018125713 A JP2018125713 A JP 2018125713A
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- pixel value
- region
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000002569 neuron Anatomy 0.000 claims abstract description 171
- 230000006870 function Effects 0.000 claims description 45
- 238000013528 artificial neural network Methods 0.000 description 36
- 238000000034 method Methods 0.000 description 25
- 238000013139 quantization Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000001174 ascending effect Effects 0.000 description 4
- 230000002427 irreversible effect Effects 0.000 description 4
- 210000000225 synapse Anatomy 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Landscapes
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
次に、本発明の第1実施形態について、図面を参照しながら説明する。
図1は、本実施形態による画面内予測装置を組み込んだ、符号化装置および復号装置の概略機能構成を示すブロック図である。画像符号化装置1および画像復号装置3がそれぞれ符号化および復号の対象とするものは、静止画および動画(以下では、これらを総称して「画像」と呼ぶ)である。画像符号化装置1は、その機能の一部として画面内予測装置12を組み込んでいるまた、画像復号装置3は、その機能の一部として画面内予測装置34を組み込んでいる。画面内予測装置12および画面内予測装置34は、それぞれ、画面内での画素値の予測(フレーム内予測)を行うものである。
変換部14は、減算部13から渡される残差値列に対し、数学的な変換を施し、その結果たる変換係数列を出力する。変換部14において実行する数学的な変換は、単一種類の変換であっても構わないし、複数種類の変換の中からブロック形状や画像の特徴やレート歪特性等に応じて適応的に選択した変換であっても構わない。
変換部14において実行する変換としては、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)、離散サイン変換(DST:Discrete Sine Transform)、ウェーブレット変換、ウォルシュ・アダマール変換など、およびこれらの変換に整数近似や離散近似を施した変換が挙げられる。
エントロピー符号化部16には、例えば、可変長符号化(例えば、ハフマン符号化やその変形であるCAVLC(Context-based Adaptive VLC,コンテキスト適応型可変長符号化方式))を用いることができる。あるいは、エントロピー符号化部16には、例えば、算術符号化やその変形であるCABAC(Context-based Adaptive Binary Arithmetic Coding,コンテキスト適応型二値算術符号化方式)を用いることができる。
逆変換部18は、逆量子化部17によって得られた逆量子化された変換係数列に対し変換部14の逆変換を実行し、その結果を復号された残差値列として出力する。
加算部19は、画面内予測装置12により予測された画素値列と逆変換部18から出力された復号された残差値列とを画素位置ごとに加算し、その結果を復号画素値列として出力する。
加算部19の出力する復号画素値列は、メモリ11内の現在処理中のブロックに対応する記憶領域に書き込まれる。
以上の動作により、画像符号化装置1は、入力画像をビット列に変換する。
図示するように、画像復号装置3は、エントロピー復号部30と、逆量子化部31と、逆変換部32と、メモリ33と、画面内予測装置34と、加算部35と、を含んで構成される。これら各部は、電子回路等により実現される。各部の機能は、次の通りである。
以降、逆量子化部31、逆変換部32、メモリ33、画面内予測装置34、および加算部35は、それぞれ、画像符号化装置1内の逆量子化部17、逆変換部18、メモリ11、画面内予測装置12、および加算部19と同様の動作を行う。これにより、メモリ33内には、復号画像が書き込まれていく。なお、この復号処理は、ブロックごとに順次行われる。
図示する例は、縦・横が同数(K個)のマス目を示している。各マス目が、画像内の画素に相当する。この例では、K行K列の画素のうち、最上側の2行または最左側の2列のいずれか(両方でもよい)に含まれる領域が、参照領域R(符号では、101)である。参照領域Rに含まれる画素には、便宜上、r1,r2,・・・,rMのラベルを付している。また、K行K列の画素のうち、下側の(K−2)行であって且つ右側の(K−2)列に含まれる領域が、対象領域P(符号では、100)である。対象領域Pに含まれる画素には、便宜上、p1,p2,・・・,pNのラベルを付している。なお、ある対象領域Pの画素値を画面内予測装置12が推定(予測)する時点において、参照領域R内に復号済みでない画素が含まれる場合には、当該画素の画素値としては、当該画素の近傍の復号済みの画素(例えば、最近傍の復号済みの画素)の画素値を流用する。
活性化関数φとして用いることのできる関数は、例えば、ReLU関数(Rectified Linear Unit, Rectifier, 正規化線形関数)や、シグモイド関数や、双曲線正接関数などである。
ReLU関数は、下の式(2)で表される。
以下では、活性化関数φとしてReLU関数を用いる場合を説明する。
なお、ニューロンからニューロンへデータ(信号値)を伝達する線を、「シナプス」と呼ぶ場合がある。
ニューラルネットワークを構成するニューロンの総数をB個(Bは自然数)とする。なお、ここで例示するニューラルネットワークでは、1≦a<b≦Bなる整数対(a,b)に対し、第aニューロンは第bニューロンの下流には絶対に存在しないような構成を用いる。換言すれば、そのニューラルネットワークは階層型であり、かつニューロンの識別番号が大きいほど下流側(出力層に近い側)に位置するよう識別番号を割り振られている。また、上記の整数対(a,b)に関して言うと、第aニューロンは、第bニューロンよりも上流側の階層か、あるいは第bニューロンと同一の階層に位置している。
図6は、ニューロン間における接続と、ニューロンでの演算処理を説明するための概略図である。図示するように、第bニューロンは、N入力、M出力である(N,Mは自然数)。即ち、第bニューロンは、N個の入力(xb,1,xb,2,・・・,xb,N)を有し、1個の出力値ybをM個の他のニューロンへ分配する。なお、第bニューロンのn番目(1≦n≦N)の入力xb,nに対する重みは、wb,nである。
第bニューロンの出力は、M個の他のニューロンの各々の入力のうちの1つに接続される。これらM個の接続のうち、m番目(1≦m≦M)の宛先(接続先)を、第T(b,m)ニューロンの第U(b,m)入力とする。すなわち、T(b,m)は、関数であり、第bニューロンのm番目の宛先のニューロンを表すポインターとして作用する。
また、関数U(b,m)は、第bニューロンのm番目の宛先のニューロン(つまり、第T(b,m)ニューロン)の入力先である端子(いずれの入力端子に入力するか)を表すポインターとして作用する。
第bニューロンは、動作時に、下の式(4)による演算を実行する。
なお、通常、入力層に属する各ニューロンは、単一の入力値をそのまま出力して分配するだけである。即ち、そのニューロンは1入力であり、恒等的にwb,1=1であり、且つ、φb(z)=zである。
ここで言う学習とは、ニューラルネットワークを構成するニューロンの各入力に対応する重みを、事例(学習データ)に基づいて適切に設定する手法を指す。学習データは、入力層に属するニューロンに与える入力値列(参照領域の画素値列)と、出力層に属するニューロンが出力すべき出力値列(対象領域の画素値列)の対である。
続いて、第Bニューロンから第1ニューロンへの降順により、以下に述べる学習を実行する。具体的には、第bニューロンの学習において、次の式(5)による演算を行う。
ここで、tbは、第bニューロンが出力層に属する場合における教師データである。教師データとは、即ち、学習データが含む出力値列(正解データの列)のうちの第bニューロン用の値である。
また、第bニューロンが中間層に属する場合は、δbは、第bニューロンの宛先(接続先)である第T(b,m)ニューロンにおいて求められた誤差値δT(b,m)と、その第T(b,m)ニューロンにおける第bニューロンからの入力端子に対応する重み値wT(b,m),U(b,m)とから求められる、重み付けされた誤差値総量である。言い換えれば、ニューラルネットワークの下流から上流に遡る誤差値の重み付け積和である。
また、ηは学習速度を調整するためのパラメーターである。ηは、正の定数または正の変数である。ηの値が大きいほど高速に学習できる反面、学習結果が最適値に収束しづらくなる。また、ηの値が大きいと、学習結果がうまく収束しない可能性もある。
また、λはLasso回帰におけるL1正則化をどれほど強く効かせるかを定める非負の定数である。λが大きいほど正則化が強く効いて過学習を防ぐことができる反面、学習データに対する回帰の精度は低下する。
あるいは、例えば、非可逆符号化/復号処理を適用した画像(復号画像)内に参照領域を設け、非可逆符号化/復号処理を適用していない画像(原画像)内に対象領域を設ける。そして、参照領域内の画素値列および対象領域内の画素値列の対を学習データとして学習を実施してもよい。これら参照領域と対象領域の各画像座標は、画面内予測実行時の参照領域と対象領域の画像座標の相対位置関係にあるものとする。
なお、画面内予測装置34も、上記と同様の学習手段を有する。画面内予測装置34の場合には、重み値の更新値を計算する際に、画像復号装置3内の復号手段が復号した結果得られる対象領域の画素値を用いる。
次に、本発明の第2実施形態について説明する。なお、前実施形態において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。
これに対して、本実施形態では、参照領域内の部分領域として、さらに近傍参照領域を設ける。ここで、近傍参照領域とは、参照領域に属する画素のうちの特定の部分領域である。参照領域内における近傍参照領域の配置は、任意である。また、参照領域内において近傍参照領域が「飛び地」状態であってもよい。しかし、特に、参照領域のうち、比較的対象領域に近い位置の領域を近傍参照領域とすることが好適である。領域の構成の具体例については、後で、図面を参照しながら説明する。
そして、参照領域の画素値を入力側とし、対象領域の画素値の予測値を出力側とするニューラルネットワークにおいて、近傍参照領域に属する画素については、近傍参照領域以外の参照領域の画素とは、異なる接続形態とする。
まず、近傍参照領域の画素値列から対象領域の画素値列へのニューロン接続のネットワークは、3層以上の多層パーセプトロンであることを基本構成とする。
また、そのネットワークに重畳する形で、近傍参照領域内の画素値列から、前記多層パーセプトロンの中間層(ただし、前記基本構成の入力層に隣接するニューロンを除く)に属するニューロン、または出力層に属するニューロンに至る、短絡的な接続(スキップレイヤー結合)を設ける。言い換えれば、ネットワークは、近傍参照領域内の画素値列(入力層のニューロン)から、少なくとも一層をスキップして多層パーセプトロンの中間層または出力層に属するニューロンへ至る短絡的な接続を有する。
上記のような構成が生み出す作用の一つは、第1中間層が実質的にモード決定の役割を担うことであり、この作用が、画素値の予測の精度を向上させる。
第1実施形態および第2実施形態において、画像内の、参照領域と対象領域とのそれぞれの画素の配置の例を説明した(図2,図7)。実際には、例示したそれらの例による画素の配置だけでなく、他の配置を用いるようにしてもよい。また、参照領域および対象領域のそれぞれのサイズ(画素数)を変えてもよい。また、参照領域と対象領域とを合わせた領域の形状は、長方形には限られない。以下に、参照領域と対象領域の配置の変形例を説明する。
また図8では、参照領域の厚み(短手方向の画素サイズ)が2[画素]の場合を例示したが、この厚みのサイズも、任意である。
そして、対象領域は、縦L画素×横L画素(ただし、Lは自然数)の、n個(n=L×L)の画素を含んでいる。対象領域に含まれる画素には、p1,p2,・・・,pnというラベルを付与している。そして、参照領域は、上記の対象領域の上側と左側とをカバーするL字(逆L字)型の領域である。参照領域に含まれる画素には、r1,r2,・・・,rmというラベルを付与している。このように対象領域の上側と左側に参照領域が存在する配置は、上側から、そして左側から、順にブロックごとに符号化していく場合に好適である。
参照領域のうち、逆L字の内側の部分の所定の厚さ(図示する例では、厚さ1[画素])の部分が、近傍参照領域である。言い換えれば、図示する例では、参照領域に含まれる画素のうち、対象領域の左上端の画素のさらに左上に配置された画素を含み、その画素と同行に存在してより右側の画素は、近傍参照領域に属する画素である。また、対象領域の左上端の画素のさらに左上に配置された画素を含み、その画素と同列に存在してより下側の画素は、近傍参照領域に属する画素である。
なお、図示する例では、近傍参照領域の厚み(短手方向の画素サイズ)が1[画素]の場合を例示したが、この厚みのサイズも、任意である。
同図に示す領域の配置の特徴は、対象領域よりも上側に存在する参照領域の部分が、水平方向の位置において、対象領域の最右側の画素よりも、さらに右側に出ている点である。これは、近傍参照領域についても、近傍参照領域以外の参照領域の部分についても同様である。具体的には、対象領域の横方向のサイズがL[画素]であり、対象領域の最右側の画素よりも、水平方向においてさらにL[画素]分右側まで、参照領域の画素が出ている。また、垂直方向においても同様であり、対象領域よりも左側に存在する参照領域の部分が、垂直方向の位置において、対象領域の最下側の画素よりも、さらに下側に出ている点である。これは、近傍参照領域についても、近傍参照領域以外の参照領域の部分についても同様である。具体的には、対象領域の縦方向のサイズがL[画素]であり、対象領域の最下側の画素よりも、垂直方向においてさらにL[画素]分下側まで、参照領域の画素が出ている。
なおここでは、画像のブロックごとの符号化を上側からそして左側から行っていく場合の参照領域と対象領域の配置について説明した。例えば、図示した配置を、90度、180度、あるいは270度回転させれば、他の方向から順次ブロック化を行っていく場合にも適した配置とすることができる。
そして、これら図8および図9の領域の配置に限らず、他の変形例(領域の形状やサイズの変形)による領域の配置を用いてもよいことは言うまでもない。
実施形態では、使用するニューラルネットワークとして、入力層および出力層を含めて4層のニューラルネットワークを示した(図4,図5)。しかし、層の数は任意である。通常は、4層以上の構成とする。なお、層数を大きくしてもよいが、層数が大きくなるほど、学習処理による重み値の収束が遅くなる点に注意が必要である。
オンラインでの学習では、画像符号化装置1側と、画像復号装置3側とで、同じ学習データに基づく学習を蓄積的に行っていく。このとき、適宜チェックポイントを設けて、画像符号化装置1側と画像復号装置3側の間で、チェックポイントのタイミングにおける学習結果の同期を図るような処理を行ってもよい。具体的には、チェックポイントのタイミングで、学習結果である重み値の集合を、一方の装置から他方の装置に伝達し、両装置側で学習結果である重み値を強制的に一致させる。
また、ニューロンが非線形性を有する場合、それらの複数のニューロンの結合で実現される非線形関数により、線形的な内挿演算や外挿演算のみでは実現できないような画素値パターンにも対応して参照領域内の画素値列から対象領域の画素値列を予測することができる。
また、短絡的な接続を有するニューロンを含む場合、近傍参照領域に属する画素の情報をより濃厚に出力層へ導くことが可能となり、より効率的な画像の予測が可能となる。
2 伝送・蓄積装置
3 画像復号装置
4 ニューロン
5 ニューラルネットワーク
10 ブロック分割部
11 メモリ
12 画面内予測装置(予測装置)
13 減算部
14 変換部
15 量子化部
16 エントロピー符号化部
17 逆量子化部
18 逆変換部
19 加算部
30 エントロピー復号部
31 逆量子化部
32 逆変換部
33 メモリ
34 画面内予測装置(予測装置)
35 加算部
50 入力層
50−0,51−0,52−0 定数
51 第1中間層
52 第2中間層
53 出力層
61 スキップレイヤー結合を有する入力層のニューロン群
62 スキップレイヤー結合を有しない入力層のニューロン群
63 出力層からの信号値列
100 対象領域
101 参照領域
Claims (5)
- 画像内の参照領域内の画素値列から、前記画像内の対象領域内の画素値列を予測する予測装置であって、
1個以上の入力値に対する重み和を算出し、前記重み和に関数を適用することで出力値を得る回路であるニューロンを複数備え、
各々の前記ニューロンの入力は、前記参照領域内の画素値または他の前記ニューロンからの出力値が接続されるものであり、
各々の前記ニューロンからの出力値は、他の前記ニューロンの入力に接続され、または前記対象領域内の画素値の予測値として出力される、
ことを特徴とする予測装置。 - 前記参照領域内の画素値列を入力する層である入力層に属するニューロン以外の前記ニューロンは、前記重み和に非線形関数を適用することで前記出力値を得る、
ことを特徴とする請求項1に記載の予測装置。 - 前記参照領域内の部分領域である近傍参照領域の画素値列から前記対象領域内の画素値の予測値へのニューロン接続のネットワークが、3層以上の多層パーセプトロンであり、
さらに、
前記ネットワークは、前記近傍参照領域内の画素値列から、少なくとも一層をスキップして前記多層パーセプトロンの中間層または出力層に属するニューロンへ至る短絡的な接続を有する、
ことを特徴とする請求項1または2に記載の予測装置。 - 画像符号化装置内または画像復号装置内に設けられる予測装置であって、
前記ニューロンが前記重み和を算出する際に用いるための重み値を記憶する更新可能なメモリと、
前記対象領域の画素値として予測した予測値と、前記画像符号化装置内または前記画像復号装置内の復号手段が復号した結果得られる当該対象領域の画素値との差に基づいて、前記メモリに記憶された前記重み値を更新する学習手段と、
をさらに具備することを特徴とする請求項1から3までのいずれか一項に記載の予測装置。 - コンピューターを、
請求項1から4までのいずれか一項に記載の予測装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016622A JP6941943B2 (ja) | 2017-02-01 | 2017-02-01 | 予測装置およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016622A JP6941943B2 (ja) | 2017-02-01 | 2017-02-01 | 予測装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018125713A true JP2018125713A (ja) | 2018-08-09 |
JP6941943B2 JP6941943B2 (ja) | 2021-09-29 |
Family
ID=63111710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016622A Active JP6941943B2 (ja) | 2017-02-01 | 2017-02-01 | 予測装置およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6941943B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008973A (zh) * | 2018-10-05 | 2020-04-14 | 罗伯特·博世有限公司 | 用于对图像数据的语义分割的方法、人工神经网络和设备 |
CN111488901A (zh) * | 2019-01-25 | 2020-08-04 | 斯特拉德视觉公司 | 在cnn中从多个模块内的输入图像提取特征的方法及装置 |
JP2022523291A (ja) * | 2019-01-18 | 2022-04-22 | シリコン ストーリッジ テクノロージー インコーポレイテッド | 深層学習人工ニューラルネットワーク内のアナログニューラルメモリにおいてニューロン電流をニューロン電流ベースの時間パルスに変換するためのシステム |
JP2023504817A (ja) * | 2020-09-30 | 2023-02-07 | テンセント・アメリカ・エルエルシー | ポスト・フィルタリングを用いるブロック・ワイズ・ニューラル画像圧縮のための方法及び装置 |
US11831867B2 (en) | 2019-02-15 | 2023-11-28 | Nokia Technologies Oy | Apparatus, a method and a computer program for video coding and decoding |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016199330A1 (ja) * | 2015-06-12 | 2016-12-15 | パナソニックIpマネジメント株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
-
2017
- 2017-02-01 JP JP2017016622A patent/JP6941943B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016199330A1 (ja) * | 2015-06-12 | 2016-12-15 | パナソニックIpマネジメント株式会社 | 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008973A (zh) * | 2018-10-05 | 2020-04-14 | 罗伯特·博世有限公司 | 用于对图像数据的语义分割的方法、人工神经网络和设备 |
JP2022523291A (ja) * | 2019-01-18 | 2022-04-22 | シリコン ストーリッジ テクノロージー インコーポレイテッド | 深層学習人工ニューラルネットワーク内のアナログニューラルメモリにおいてニューロン電流をニューロン電流ベースの時間パルスに変換するためのシステム |
US11500442B2 (en) | 2019-01-18 | 2022-11-15 | Silicon Storage Technology, Inc. | System for converting neuron current into neuron current-based time pulses in an analog neural memory in a deep learning artificial neural network |
JP7346579B2 (ja) | 2019-01-18 | 2023-09-19 | シリコン ストーリッジ テクノロージー インコーポレイテッド | 深層学習人工ニューラルネットワーク内のアナログニューラルメモリにおいてニューロン電流をニューロン電流ベースの時間パルスに変換するためのシステム |
CN111488901A (zh) * | 2019-01-25 | 2020-08-04 | 斯特拉德视觉公司 | 在cnn中从多个模块内的输入图像提取特征的方法及装置 |
JP2020119524A (ja) * | 2019-01-25 | 2020-08-06 | 株式会社ストラドビジョンStradvision,Inc. | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 |
JP7252120B2 (ja) | 2019-01-25 | 2023-04-04 | 株式会社ストラドビジョン | 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置 |
CN111488901B (zh) * | 2019-01-25 | 2023-11-21 | 斯特拉德视觉公司 | 在cnn中从多个模块内的输入图像提取特征的方法及装置 |
US11831867B2 (en) | 2019-02-15 | 2023-11-28 | Nokia Technologies Oy | Apparatus, a method and a computer program for video coding and decoding |
JP2023504817A (ja) * | 2020-09-30 | 2023-02-07 | テンセント・アメリカ・エルエルシー | ポスト・フィルタリングを用いるブロック・ワイズ・ニューラル画像圧縮のための方法及び装置 |
JP7520118B2 (ja) | 2020-09-30 | 2024-07-22 | テンセント・アメリカ・エルエルシー | ポスト・フィルタリングを用いるブロック・ワイズ・ニューラル画像圧縮のための方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6941943B2 (ja) | 2021-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018125713A (ja) | 予測装置およびプログラム | |
CN110024392B (zh) | 用于视频译码的低复杂度符号预测 | |
KR100809354B1 (ko) | 복원된 프레임의 프레임율을 업컨버팅하는 장치 및 방법 | |
JP2024129117A (ja) | ブロック単位の画像符号化のためのイントラ予測モードの概念 | |
JP5078895B2 (ja) | 統合時空間予測法 | |
JP7356513B2 (ja) | ニューラルネットワークのパラメータを圧縮する方法および装置 | |
JP2009509418A (ja) | 時間予測のための分類フィルタリング | |
KR20080018469A (ko) | 영상 변환 방법 및 장치, 역변환 방법 및 장치 | |
CN109891894A (zh) | 使用域变换递归滤波器的视频编译恢复 | |
CN111050176B (zh) | 视频编码、视频解码方法、装置、计算机设备和存储介质 | |
Rhee et al. | Channel-wise progressive learning for lossless image compression | |
WO2021095245A1 (ja) | 画像処理方法、データ処理方法、画像処理装置、およびプログラム | |
WO2011105231A1 (ja) | フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 | |
JP6960784B2 (ja) | ニューラルネットワーク、符号化装置、復号装置、学習方法、制御方法、およびプログラム | |
US20240223762A1 (en) | A method, an apparatus and a computer program product for video encoding and video decoding | |
CN115442617A (zh) | 一种基于视频编码的视频处理方法和装置 | |
Yin et al. | A co-prediction-based compression scheme for correlated images | |
CN113038131A (zh) | 视频编码方法、装置、计算机设备和存储介质 | |
CN114846806A (zh) | 用于图像压缩的累积分布函数的有效率更新 | |
JP7075013B2 (ja) | 符号量推定装置、符号量推定方法及び符号量推定プログラム | |
Shim et al. | Lossless Image Compression Based on Image Decomposition and Progressive Prediction Using Convolutional Neural Networks | |
JP2018125718A (ja) | モード予測情報生成装置およびプログラム | |
JP7075012B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
Nappi et al. | Linear prediction image coding using iterated function systems | |
Liu et al. | Deep Video Compression Based on 3D Convolution Artifacts Removal and Attention Compression Module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6941943 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |