JP7075013B2 - 符号量推定装置、符号量推定方法及び符号量推定プログラム - Google Patents

符号量推定装置、符号量推定方法及び符号量推定プログラム Download PDF

Info

Publication number
JP7075013B2
JP7075013B2 JP2018166304A JP2018166304A JP7075013B2 JP 7075013 B2 JP7075013 B2 JP 7075013B2 JP 2018166304 A JP2018166304 A JP 2018166304A JP 2018166304 A JP2018166304 A JP 2018166304A JP 7075013 B2 JP7075013 B2 JP 7075013B2
Authority
JP
Japan
Prior art keywords
code amount
feature vector
amount estimation
feature
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018166304A
Other languages
English (en)
Other versions
JP2020039088A (ja
Inventor
志織 杉本
誠之 高村
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018166304A priority Critical patent/JP7075013B2/ja
Priority to PCT/JP2019/033213 priority patent/WO2020050075A1/ja
Priority to US17/273,271 priority patent/US11595661B2/en
Publication of JP2020039088A publication Critical patent/JP2020039088A/ja
Application granted granted Critical
Publication of JP7075013B2 publication Critical patent/JP7075013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21343Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using decorrelation or non-stationarity, e.g. minimising lagged cross-correlations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、符号量推定装置、符号量推定方法及び符号量推定プログラムに関する。
一般に、動画像を符号化する際には、ストレージ又は伝送ネットワークの帯域の制約から、目標とするビットレートに合わせて符号量を制御する必要がある。一般的な符号化装置は、その内部に符号量制御機構を備えており、符号化・復号後の画質と発生符号量のバランスとを鑑みて符号量制御を行う。
一般的な動画像符号化の標準規格であるH.264/AVC及びH.265/HEVCでは、DCT(Discrete Cosine Transform;離散コサイン変換)やDST(Discrete Sine Transform;離散サイン変換)の係数を量子化する際のQP(Quantization Parameter;量子化パラメータ)を調整することで、発生符号量を制御する。一方、QPの上昇に伴う高周波成分の欠落、及びブロック境界に発生するブロック歪みが、画像品質に影響を与える。
QPの調整を行うためには、何らかの方法を用いて発生符号量を評価する必要がある。最も単純な方法としては、動画像に対して一度符号化を行い、その符号量を評価対象とする方法がある。しかしながら、この方法では、パラメータを調整する度に再度符号化を行う必要があるため、演算コストが高くなる。そのため、より簡易に発生符号量を評価する方法が求められている。これに対し、例えば非特許文献1では、H.264のイントラピクチャにおける、QPと発生符号量とが、及び、QPと符号化対象ピクチャの隣接ピクセル間の勾配の平均値とが、それぞれ比例関係にあると仮定し、各QPについての比例係数を実験的に求めておくことで、任意のピクチャについての符号量推定を行う。
X.Jing and L.P.Chau, "A Novel Intra-Rate Estimation Method for H.264 Rate Control," IEEE International Symposium on Circuits and Systems, pp.5019-5022, May 2006. L.A.Gatys, A.S.Ecker, and M.Bethge, "Image Style Transfer Using Convolutional Neural Networks," IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.2414-2423, June 2016.
上述したように、発生符号量は、隣接ピクセル間の勾配等の局所的な冗長性を示す指標と相関関係がある。そのため、この相関関係を利用した符号量推定が可能である。しかしながら、一般的な動画像符号化では、イントラ予測やインター予測等の予測符号化を行うため、局所的な冗長性が高くない場合であっても低い符号量で符号化が可能である場合が多い。
例えば、図4に示す画像の右下ブロックの領域a1は、隣接ピクセル間の勾配の平均値が高い。しかしながら、左上ブロックの領域a2、右上ブロックの領域a3、及び左下のブロックの領域a4がそれぞれ既に符号化済みである場合には、イントラ予測によって効率よく符号量を予測することができる。そのため実際には、発生符号量と局所的な冗長性を示す指標との相関関係を利用した符号量推定によって推定された符号量よりも少ない符号量で、符号化することが可能である。
また、局所特徴に基づいて推定した符号量を基準にして調整を行う場合、必然的に符号量の減少とともに局所特徴が平均的に減少する。これにより、細かなテクスチャが全体的に失われ、画像品質が顕著に低下する。
このように、対象画像の局所特徴に基づいて推定した符号量を基準にして調整を行う場合、実際に調整可能な符号量よりも符号量が多くなったり、画像品質が低下したりすることがある課題がある。
本発明はこのような事情を鑑みてなされたもので、対象画像の大域的な特徴に基づいて符号量を推定することができる技術の提供を目的としている。
本発明の一態様は、推定対象画像と予め定められた少なくとも1つのフィルタとによって生成された特徴マップに基づいて特徴ベクトルを生成する特徴ベクトル生成部と、前記特徴ベクトルに基づいて前記推定対象画像の符号量を評価する符号量評価部と、を備える符号量推定装置である。
また、本発明の一態様は上記の符号量推定装置であって、前記特徴マップは、複数の前記フィルタによる階層的な畳み込み処理が行われることによって生成される。
また、本発明の一態様は上記の符号量推定装置であって、前記特徴ベクトルは、前記特徴マップの統計量に基づいて生成される。
また、本発明の一態様は上記の符号量推定装置であって、記特徴ベクトルは、前記特徴マップどうしの相互相関に基づいて生成される。
本発明の一態様は、符号量推定装置が行う符号量推定方法であって、推定対象画像と予め定められた少なくとも1つのフィルタとによって生成された特徴マップに基づいて特徴ベクトルを生成する特徴ベクトル生成ステップと、前記特徴ベクトルに基づいて前記推定対象画像の符号量を評価する符号量評価ステップと、を有する符号量推定方法である。
本発明の一態様は、上記の符号量推定装置としてコンピュータを機能させるための符号量推定プログラムである。
本発明により、予象画像の大域的な特徴に基づいて符号量を推定することができる。
本発明の一実施形態による符号量推定装置100の機能構成を示すブロック図である。 推定対象画像と生成される特徴マップの一例を示す図である。 本発明の一実施形態による符号量推定装置100の動作を示すフローチャートである。 符号化対象画像の一例を示す図である。
<実施形態>
以下、本発明の一実施形態に係る符号量推定装置について説明する。
[符号量推定装置の機能構成]
以下、符号量推定装置の機能構成について、図面を参照しながら説明する。
図1は、本発明の一実施形態による符号量推定装置100の機能構成を示すブロック図である。
図1に示すように、符号量推定装置100は、画像入力部101と、画像記憶部102と、特徴マップ生成部103と、特徴ベクトル生成部104と、符号量評価部105と、を備えている。
画像入力部101は、符号量推定処理の処理対象となる画像(以下「推定対象画像」という。)の入力を受け付ける。画像入力部101は、入力された推定対象画像を、画像記憶部102へ出力する。
画像記憶部102は、画像入力部101から入力された推定対象画像を記憶する。画像記憶部102は、例えばRAM(Random Access Memory;読み書き可能なメモリ)等の揮発性の記録媒体である。
特徴マップ生成部103は、画像記憶部102から推定対象画像を取得する。特徴マップ生成部103は、推定対象画像と少なくとも1つのフィルタ(図示せず)とに基づいて、特徴マップを生成する。特徴マップ生成部103は、生成された特徴マップを、特徴ベクトル生成部104へ出力する。
なお、特徴マップとは、フィルタによって推定対象画像に対してフィルタ処理が施された画像である。
なお、ここで用いられるフィルタは、任意のフィルタで構わない。例えば、エッジ抽出フィルタ、平滑化フィルタ、先鋭化フィルタ、又は統計フィルタ等の、任意の線形又は非線形のフィルタを使用することができる。
例えば、エッジ抽出フィルタが用いられた場合における、推定対象画像と生成される特徴マップの一例を図2に示す。図2(A)は、コンクリート構造物のひび割れが発生した箇所が撮像された推定対象画像である。これに対し、図2(B)は、図2(A)の推定対象画像に対し、エッジ抽出フィルタによりフィルタ処理が施されることによって生成された特徴マップである。このように、エッジ抽出フィルタが用いられた場合には、特徴マップは、推定対象画像において明るさ(濃淡)あるいは色が急に変化している箇所(エッジ)を表す画像である。
特徴ベクトル生成部104は、特徴マップ生成部103から入力された特徴マップに基づいて、特徴ベクトルを生成する。特徴ベクトル生成部104は、生成された特徴ベクトルを、符号量評価部105へ出力する。
なお、ここでいう特徴ベクトルとは、特徴マップの変化領域に対応する画像が符号化されたデータに基づいて算出されるベクトル値である。
符号量評価部105は、特徴ベクトル生成部104から入力された特徴ベクトルに基づいて推定対象画像の符号量を評価し、推定符号量を決定する。符号量評価部105は、決定した推定符号量を、外部の装置へ出力する。
なお、上記推定対象画像の符号量評価の評価方法には、任意の方法を用いることができる。
[符号量推定装置の動作]
以下、符号量推定装置の動作の一例について、図面を参照しながら説明する。
図3は、本発明の一実施形態による符号量推定装置100の動作を示すフローチャートである。
まず、画像入力部101は、推定対象画像の入力を受け付ける。画像記憶部102は、入力された推定対象画像を記憶する(ステップS101)。
次に、特徴マップ生成部103は、画像記憶部102に記憶された推定対象画像と少なくとも1つのフィルタとに基づいて、少なくとも1つの特徴マップを生成する(ステップS102)。
なお、ステップS102において使用されるフィルタは、上述したように、任意のフィルタで構わない。なお、使用するフィルタの数、及び使用するフィルタの組み合わせも任意である。例えば、推定対象画像に対して線形フィルタが適用された情報に対して、更に、絶対値、ステップ関数、シグモイド関数、ソフトサイン、又はランプ関数等の非線形関数が更に適用された情報を、特徴マップとする構成でもよい。
なお、特徴マップの解像度は、入力された推定対象画像と同一の解像度である必要はない。すなわち、特徴マップの解像度は、推定対象画像の解像度より高くてもよいし、低くてもよい。
なお、生成される特徴マップの数も任意である。
以下、説明を簡単にするため、推定対象画像Iがn×nの2階のテンソルであり、推定対象画像Iに対してm個のフィルタfが畳み込まれ、それぞれの結果に対して非線形関数gが適用された情報を特徴マップとする場合について説明する。
i番目の特徴マップφは以下の式(1)で表される。
Figure 0007075013000001
なお、生成された特徴マップに対して更に階層的に複数の任意のフィルタを適用し、各階層におけるフィルタの適用結果の全て又は一部を、特徴マップとしてもよい。なお、階層的なフィルタ処理(畳み込み処理)によって得られる特徴マップの各階層において、上位の層にはディティールに関わる特徴が反映され、下位の層には画像のコンテキストに関わる特徴が反映されることが知られている。
再び図3に戻って説明する。
次に、特徴ベクトル生成部104は、特徴マップ生成部103によって生成された特徴マップに基づいて特徴ベクトルを生成する(ステップS103)。
なお、ステップS103において、特徴マップから特徴ベクトルを生成する方法には、任意の方法を用いることができる。
なお、特徴マップに基づいて生成される特徴ベクトルは、ベクトルではなく1階以上の任意のテンソルであってもよい。以下、説明を簡単にするため、生成される特徴ベクトルが1階のテンソルΨである場合について説明する。
最も単純な場合として、特徴マップの各要素を並べた1階のテンソルを特徴ベクトルとして使用することができる。また例えば、各特徴マップについて、特徴マップ内のテンソルの、平均値、分散値、中央値、最大値、最小値、歪度、及び尖度等の統計量を、まとめて特徴ベクトルとして使用することができる。
例えば、統計量として平均値を用いる場合、特徴ベクトルはm個の要素を持ち、各要素は以下の式(2)のように表される。
Figure 0007075013000002
また例えば、要素ごとの統計量を求め、求められた統計量を全ての要素について並べたものを特徴ベクトルとして使用することができる。
例えば、統計量として平均値を用いる場合、この特徴ベクトルはn個の要素を持ち、各要素は以下の式(3)のように表される。
Figure 0007075013000003
あるいは、特徴マップどうしの相互相関によって生成されるグラム行列の集合、又はその統計量の集合を、特徴ベクトルとして使用することができる。なお、グラム行列は、画像の大域的なスタイル特徴を反映することが知られている(非特許文献2参照)。
例えば、統計量として平均値を用いる場合、この特徴ベクトルはm個の要素を持ち、各要素は以下の式(4)のように表される。
Figure 0007075013000004
なお、特徴マップどうしの相関が高い場合には、各特徴マップが示す特徴を同様の方法で効率的に予測符号化できる可能性が高い。この場合、符号量が削減される。
なお、特徴マップの要素をランダムサンプリングしたものを並べて特徴ベクトルとする方法、又は、特徴マップの要素どうしを所定の重み係数に基づいて加算・乗算する方法等の、その他の任意の方法が用いられてもよい。その場合のサンプリング行列や重み係数は、事前に学習によって得られたものであってもよいし、コンテキストに合わせて生成されたものでもよい。
なお、特徴マップと特徴ベクトルの生成方法には、一般的な画像識別等に用いられる特徴抽出方法を用いることができる。なお、特徴ベクトルの要素数は任意であり、要素数1のスカラー値であっても構わない。
なお、特徴マップと入力された推定対象画像とに基づく演算によって特徴ベクトルが生成される構成であってもよい。例えば、方向別の移動平均フィルタによって特徴マップを生成し、特徴マップと入力された推定対象画像との差分を二次特徴マップとする。この場合、二次特徴マップの各要素は、その要素周辺における空間方向の冗長性を表す。この二次特徴マップの要素ごとに最も低い値を選択して特徴ベクトルの要素とすることによって、イントラ予測の効果を反映した特徴ベクトルを生成することができる。
再び図3に戻って説明する。
最後に、符号量評価部105は、特徴ベクトル生成部104によって生成された特徴ベクトルに基づいて推定対象画像の符号量を評価し、推定符号量を出力する(ステップS104)。なお、推定対象画像の符号量の評価における評価方法は、任意の方法を用いることができる。また、評価値は、推定符号量でもよいし、符号量と相関のあるその他の値でもよい。最も単純には、評価値として、例えば、特徴ベクトルの各要素の重み付き線形和等が考えられる。
以上説明したように、本発明の一実施形態による符号量推定装置100は、動画像に対してフィルタ畳み込みによる特徴抽出を行って特徴ベクトルを生成する。そして、符号量推定装置100は、特徴ベクトルに基づいて符号量を推定する。
上記の構成を備えることにより、本発明の一実施形態による符号量推定装置100は、対象画像の大域的な特徴に基づいて符号量を推定することができる。
上述した実施形態における符号量推定装置100の一部又は全部を、コンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、上述した機能の一部を実現するためのものであっても良く、さらに上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び要旨を逸脱しない範囲で構成要素の追加、省略、置換、及びその他の変更を行ってもよい。
100…符号量推定装置、101…画像入力部、102…画像記憶部、103…特徴マップ生成部、104…特徴ベクトル生成部、105…符号量評価部

Claims (7)

  1. 推定対象画像と予め定められた少なくとも1つのフィルタとによって生成された特徴マップと、前記推定対象画像とに基づく演算によって特徴ベクトルを生成する特徴ベクトル生成部と、
    前記特徴ベクトルに基づいて前記推定対象画像の符号量を評価する符号量評価部と、
    を備える符号量推定装置。
  2. 前記特徴マップは、複数の前記フィルタによる階層的な畳み込み処理が行われることによって生成される
    請求項1に記載の符号量推定装置。
  3. 前記フィルタは、方向別の移動平均フィルタであり、
    前記特徴ベクトル生成部は、前記特徴マップと前記推定対象画像との差分を二次特徴マップとし、前記二次特徴マップの要素ごとに最も低い値を特徴ベクトルの要素とする
    請求項1又は請求項2に記載の符号量推定装置。
  4. 前記特徴ベクトルは、前記特徴マップの統計量に基づいて生成される
    請求項1又は請求項2に記載の符号量推定装置。
  5. 前記特徴ベクトルは、前記特徴マップどうしの相互相関に基づいて生成される
    請求項1又は請求項2に記載の符号量推定装置。
  6. 符号量推定装置が行う符号量推定方法であって、
    推定対象画像と予め定められた少なくとも1つのフィルタとによって生成された特徴マップと、前記推定対象画像とに基づく演算によって特徴ベクトルを生成する特徴ベクトル生成ステップと、
    前記特徴ベクトルに基づいて前記推定対象画像の符号量を評価する符号量評価ステップと、
    を有する符号量推定方法。
  7. 請求項1から請求項のうちいずれか一項に記載の符号量推定装置としてコンピュータを機能させるための符号量推定プログラム。
JP2018166304A 2018-09-05 2018-09-05 符号量推定装置、符号量推定方法及び符号量推定プログラム Active JP7075013B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018166304A JP7075013B2 (ja) 2018-09-05 2018-09-05 符号量推定装置、符号量推定方法及び符号量推定プログラム
PCT/JP2019/033213 WO2020050075A1 (ja) 2018-09-05 2019-08-26 符号量推定装置、符号量推定方法及び符号量推定プログラム
US17/273,271 US11595661B2 (en) 2018-09-05 2019-08-26 Encoding amount estimation apparatus, encoding amount estimation method and encoding amount estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166304A JP7075013B2 (ja) 2018-09-05 2018-09-05 符号量推定装置、符号量推定方法及び符号量推定プログラム

Publications (2)

Publication Number Publication Date
JP2020039088A JP2020039088A (ja) 2020-03-12
JP7075013B2 true JP7075013B2 (ja) 2022-05-25

Family

ID=69722630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166304A Active JP7075013B2 (ja) 2018-09-05 2018-09-05 符号量推定装置、符号量推定方法及び符号量推定プログラム

Country Status (3)

Country Link
US (1) US11595661B2 (ja)
JP (1) JP7075013B2 (ja)
WO (1) WO2020050075A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018140158A1 (en) 2017-01-30 2018-08-02 Euclid Discoveries, Llc Video characterization for smart enconding based on perceptual quality optimization

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100997541B1 (ko) * 2008-10-08 2010-11-30 인하대학교 산학협력단 신상품 추천문제 해결을 위한 내용기반 필터링과 협업 필터링을 혼합한 사용자 프로파일 기반 이미지 추천 방법 및 장치
CN102292727B (zh) * 2009-01-23 2013-10-23 日本电气株式会社 视频描述符生成器
US11259680B2 (en) * 2016-11-23 2022-03-01 The Procter & Gamble Company Cleaning implement comprising a modified open-cell foam
KR20180060257A (ko) * 2016-11-28 2018-06-07 삼성전자주식회사 객체 인식 방법 및 장치
US10776982B2 (en) * 2017-07-03 2020-09-15 Artomatix Ltd. Systems and methods for providing non-parametric texture synthesis of arbitrary shape and/or material data in a unified framework
US11132787B2 (en) * 2018-07-09 2021-09-28 Instrumental, Inc. Method for monitoring manufacture of assembly units
US11080542B2 (en) * 2018-07-27 2021-08-03 International Business Machines Corporation Sparse region-of-interest pooling for object detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018140158A1 (en) 2017-01-30 2018-08-02 Euclid Discoveries, Llc Video characterization for smart enconding based on perceptual quality optimization

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GATYS, Leon A. et al.,Image Style Transfer Using Convolutional Neural Networks,2016 IEEE Conference on Computer Vision and Pattern Recognition,IEEE,2016年12月12日,pp. 2414-2423
XU, Bin et al.,CNN-Based Rate-Distortion Modeling for H.265/HEVC,2017 IEEE Visual Communications and Image Processing,IEEE,2018年03月01日,pp. 1-4

Also Published As

Publication number Publication date
US20210329253A1 (en) 2021-10-21
WO2020050075A1 (ja) 2020-03-12
US11595661B2 (en) 2023-02-28
JP2020039088A (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
JP4987086B2 (ja) 画像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
CN110024391B (zh) 用于编码和解码数字图像或视频流的方法和装置
CN107211131B (zh) 对数字图像块进行基于掩码的处理的系统和方法
US11356672B2 (en) System and method for controlling video coding at frame level
CN110383695B (zh) 用于对数字图像或视频流进行编码和解码的方法和装置
KR20080004013A (ko) 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
CN101578880A (zh) 视频解码方法以及视频编码方法
US11190775B2 (en) System and method for reducing video coding fluctuation
US11134250B2 (en) System and method for controlling video coding within image frame
JP7168896B2 (ja) 画像符号化方法、及び画像復号方法
JP7075013B2 (ja) 符号量推定装置、符号量推定方法及び符号量推定プログラム
JP2018125713A (ja) 予測装置およびプログラム
JP6454229B2 (ja) 画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP2018182531A (ja) 分割形状決定装置、学習装置、分割形状決定方法及び分割形状決定プログラム
EP3977747A1 (en) Pre-processing for video compression
JP6946979B2 (ja) 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
JP7075012B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7141007B2 (ja) 符号化装置、符号化方法及びプログラム
CN110896487B (zh) 压缩图像数据的方法
WO2019225344A1 (ja) 符号化装置、画像補間システム及び符号化プログラム
JP4784386B2 (ja) 復号化装置、逆量子化方法及びプログラム
CN105706447A (zh) 动画图像编码设备、动画图像解码设备、动画图像编码方法、动画图像解码方法以及程序
JP7406208B2 (ja) 符号化装置、符号化方法及びプログラム
JP6145084B2 (ja) サイズ判定方法、サイズ判定装置及びコンピュータプログラム
WO2019225337A1 (ja) 符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7075013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150