JP2021521517A - ニューラルネットワークマッピングを用いるhdr画像表現 - Google Patents

ニューラルネットワークマッピングを用いるhdr画像表現 Download PDF

Info

Publication number
JP2021521517A
JP2021521517A JP2020555148A JP2020555148A JP2021521517A JP 2021521517 A JP2021521517 A JP 2021521517A JP 2020555148 A JP2020555148 A JP 2020555148A JP 2020555148 A JP2020555148 A JP 2020555148A JP 2021521517 A JP2021521517 A JP 2021521517A
Authority
JP
Japan
Prior art keywords
image
mapping
input
dynamic range
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020555148A
Other languages
English (en)
Other versions
JP7189230B2 (ja
Inventor
スゥ,グワン‐ミーン
ソォン,チィン
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2021521517A publication Critical patent/JP2021521517A/ja
Application granted granted Critical
Publication of JP7189230B2 publication Critical patent/JP7189230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0102Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving the resampling of the incoming video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

1組のリファレンスカラーグレーディング画像とニューラルネットワークとを用いて第1のダイナミックレンジから第2のダイナミックレンジへ画像をマッピングするための、方法およびシステムを記載する。同一のシーンを表現するが異なるダイナミックレンジにおいて表現している第1および第2の画像に対し、様々なNNモデルから、第1の画像と第2の画像とに基づき第2の画像を近似する出力画像を決定するためのニューラルネットワーク(NN)モデルが、選択される。選択されたNNモデルのパラメータ群は、最適化基準と、第1の画像と、第2の画像とに基づき、導出される。これらのパラメータは、選択されたNNモデルの層におけるノード群に対する、ノード重みおよび/またはノードバイアスを含む。グローバルマッピングおよびローカルマッピング表現を用いる、HDRからSDRへのマッピング例を提供する。

Description

関連出願への相互参照
本願は、2018年4月9日付け出願の米国仮特許出願第62/654,614号および2018年4月9日付け出願の欧州特許出願第18166320.4号に基づく優先権を主張するものであり、両出願の開示内容を全て本願に援用する。
技術
本発明は、広く画像に関する。より詳細には、本発明のある実施形態は、ニューラルネットワークマッピングを用いて、ハイダイナミックレンジ画像をある表現から別の表現へマッピングすることに関する。
背景
本明細書において、用語「ダイナミックレンジ」(DR)は、人間の視覚システム(HVS)が画像においてある範囲の強度(例えば、輝度、ルマ)(例えば、最暗のグレー(黒)から最明の白(ハイライト)まで)を知覚する能力に関連し得る。この意味では、DRはシーン−リファード(scene-referred)の強度に関する。DRはまた、ディスプレイデバイスが特定の幅を有する強度範囲を妥当にまたは近似的に描画する能力にも関連し得る。この意味では、DRは、ディスプレイ−リファード(display-referred)の強度に関する。本明細書中の任意の箇所において、ある特定の意味が特に明示的に指定されている場合を除いて、この用語はどちらの意味としても(例えば、区別なく)使用できるものとする。
本明細書において、ハイダイナミックレンジ(HDR)という用語は、人間の視覚システム(HVS)において14〜15桁にわたるDR幅に関する。実際において、人間が広範囲の強度範囲を同時に知覚し得るDRは、HDRに対して幾分端折られ得る。本明細書において、視覚ダイナミックレンジ(VDR)という用語は、個別にまたは区別なく、人間の視覚システム(HVS)(眼球運動を含み、シーンまたは画像にわたってある程度の明順応変化を可能にする)が、あるシーンまたは画像中において知覚可能なDRに関する。本明細書において、VDRは、5〜6桁にわたるDRに関連し得る。従って、真のシーンリファードのHDRに対しては幾分狭いものの、VDRは広いDR幅を表し、HDRとも呼ばれ得る。
実際において、画像は1つ以上の色成分(例えばルマYおよびクロマCbおよびCr)を有しており、各色成分は、画素あたりnビットの精度(例えばn=8)で表される。線形輝度符号化(linear luminance coding)を用いた場合、n≦8の画像(例えばカラー24ビットJPEG画像)はスタンダードダイナミックレンジとされ、n>8の画像はエンハンストダイナミックレンジの画像とされる。HDR画像はまた、Industrial Light and Magicが開発したOpenEXRファイルフォーマットなどの高精度の(例えば16ビット)浮動小数点フォーマットを用いて、格納および配信され得る。
ほとんどのコンシューマー用デスクトップディスプレイは現在、200〜300cd/mまたはニトの輝度をサポートしている。ほとんどのコンシューマー用HDTVは300〜500ニトの範囲であるが、新しいモデルは1000ニト(cd/m)に達する。このような従来のディスプレイはしたがって、HDRに対し、より低いダイナミックレンジ(LDR)(またはスタンダードダイナミックレンジ(SDR)とも呼ばれる)の典型例となる。キャプチャ機器(例えばカメラ)およびHDRディスプレイ(例えばDolby LaboratoriesのPRM−4200プロフェッショナルリファレンスモニター)両方の進化によって、HDRコンテンツの普及率が高まるにつれ、HDRコンテンツはカラーグレーディングされてより高いダイナミックレンジ(例えば1,000ニトから5,000ニト以上)をサポートするHDRディスプレイ上に表示されることがある。
G−M Suらによる、米国特許第8,811,490号「Multiple color channel, multiple regression predictor」に説明されているように、シングルレイヤおよびマルチレイヤ符号化技術の両方を用いてHDRコンテンツの効率的な符号化および配信を行ううえで、画像予測技術(image prediction techniques)は重要な役割を果たす。画像予測は、第1の表現における画像(例えばダイナミックレンジおよび/または色域の観点から、例えばSDR画像)を第2の表現(例えばHDR画像)の画像へマッピングする、画像マッピングの特殊なケースと考えることができる。
人工ニューラルネットワーク(artificial neural networks)において、「万能近似定理」(universal approximation theorem)に則り、適切なパラメータ群を所与のものとして、広範囲の関数を、様々な単純なニューラルネットワーク(NN)によって表現し得る。本発明者らの理解によると、単純なニューラルネットワークを用いてHDR画像群および/または派生的なHDRもしくはSDR画像群の間で画像マッピングを行うための、改良技術が望まれる。US 2010246940 A1において、ハイダイナミックレンジ画像を生成する方法およびこれを用いる電子機器が記載されている。この方法は、ニューラルネットワークアルゴリズムによって作成された明度調整モデル(brightness adjustment model)をロードする工程と、原画像(original image)を取得する工程と、原画像について、画素特性値、第1の方向における第1の特性値、および第2の方向における第2の特性値を取得する工程と、原画像の画素特性値、第1の特性値、および第2の特性値に従い、明度調整モデルを介してHDR画像を生成する工程と、を含む。この電子機器は、明度調整モデルと、特性値取得ユニットと、明度調整プロシージャとを備える。この電子機器は、特性値取得ユニットを介して、原画像の画素特性値と、第1の特性値と、第2の特性値とを取得し、明度調整モデルを介して原画像からHDR画像を生成するものである。WO2018064591(A1)において、ニューラルネットワークを用いて映像フレームを生成する方法が記載されている。その方法の一つは、エンコーダニューラルネットワークを用いて映像フレームのシーケンスを処理することにより、符号化表現を生成する工程と、画素順およびチャネル順に従い、予測される次フレームを1画素ずつ生成する工程であって、以下のことを含む工程と、を包含する。すなわち、各画素の各カラーチャネルにつき、デコーダニューラルネットワークへの入力として、(i)符号化表現、(ii)画素順で当該画素より前の全ての画素の明度(color values)、および(iii)チャネル順で当該カラーチャネルより前の全てのカラーチャネルにおける当該画素の明度、を供給することであって、ここでデコーダニューラルネットワークは、複数の可能な明度に亘っての得点分布(score distribution)を規定する出力を生成するように構成される、ことと、この得点分布からサンプリングすることにより、当該画素の当該カラーチャネルにおける明度を決定すること、である。Fahd Bouzaraaによる「CNN Based Non−Local Color Mapping」、2016 IEEE International Symposium on Multimedia ISM、2016年12月11日、313〜316頁において、画像の色をリファレンス分布へ移すためのカラーマッピングが説明されている。このようにして、例えば暗い画像を、同一のシーンを表す、より明るい画像に変換することにより、単一の画像を用いて異なるカメラ露光を模擬することが可能である。カラーマッピングにおける殆どの手法は、ただ単に画素単位の(ローカルな)マッピングを適用することによってカラーマッピング画像を生成するという意味で、ローカルである。しかし、本提示の手法においては、畳み込みニューラルネットワーク(convolutional neural network)を用いる、画像テクスチャ(image-texture)から直接に学習された特徴(learned features)に基づいた、非ローカルなマッピングを提案する。
本節に記載されている手法は、探求し得る手法ではあるが、必ずしもこれまでに着想または探求されてきた手法ではない。従って、別途示唆のない限り、本節に記載された手法のいずれも、本節に記載されているという理由だけで従来技術としての適格性を有すると考えるべきではない。同様に、別途示唆のない限り、1以上の手法に関して特定される問題が、本節に基づいて、いずれかの先行技術において認識されたことがあると考えるべきではない。
図面の簡単な説明
同様の部材に同様の参照符号を付した添付図面の各図において、本発明のある実施形態を限定する事なく例示する。
図1は、HDRデータを符号化および送信するためのデータフローの一例を表している。 図2Aは、HDR符号化システムの一例を表している。 図2Bは、HDR復号化システムの一例を表している。 図3Aは、本発明のある実施形態による、ニューラルネットワークを用いてグローバルマッピングを生成するためのシステム例を表している。 図3Bは、本発明のある実施形態による、ニューラルネットワークを用いてローカルマッピングを生成するためのシステム例を表している。 図3Cは、本発明のある実施形態による、ニューラルネットワークを用いて複数のグレードでグローバルマッピングを生成するためのシステム例を表している。 図3Dは、本発明のある実施形態による、単一のYCbCrネットワークを用いてグローバルマッピングを生成するためのシステム例を表している。 図3Eは、本発明のある実施形態による、単一のYCbCrニューラルネットワークマッピングを用いる予測器のシステム例を表している。 図3Fは、本発明のある実施形態による、グローバルマッピングニューラルネットワークを用いる予測器のシステム例を表している。 図4は、本発明のある実施形態による、ニューラルネットワークと3Dマッピングテーブルとを用いてグローバルマッピングを生成するためのシステム例を表している。 図5は、本発明のある実施形態による、ニューラルネットワークを用いて画像マッピング関数を導出する処理の一例を表している。 図6は、2つの隠れ層を有するニューラルネットワークの一例を表している。
実施形態例の説明
ニューラルネットワークに基づき画像マッピング関数を導出することを、本明細書に記載する。1組の対応する画像、すなわち、同一のシーンを表現するが異なるレベルのダイナミックレンジで表現する画像群に対し、本節において、エンコーダがニューラルネットワークに基づくマッピングを用いてこれらの画像のうち1つをもう1つの画像において(in terms of)近似することを、可能にする方法を説明する。以下の説明においては、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明を実施可能であることは明白であろう。他方、本発明の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
概要
本明細書に記載の実施形態例は、ニューラルネットワークを用いて画像マッピング関数を導出することに関する。第1の実施形態において、エンコーダは、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像において(in terms of)近似するように各々が適応された、1つ以上のニューラルネットワーク(NN)モデルにアクセスできる。エンコーダは、第1のダイナミックレンジにおける第1の画像と、第2のダイナミックレンジにおける第2の画像とを受信する。これらの2つの画像は同一のシーンを表現している。エンコーダは、様々なNNモデルから、第1の画像と第2の画像とに基づき第2の画像を近似する出力画像を決定するためのニューラルネットワークモデルを選択する。エンコーダは次に、最適化基準(optimizing criterion)と、第1の画像と、第2の画像とに基づき、選択されたNNモデルにおけるパラメータ群の少なくともいくつかの値を決定する。これらのパラメータは、選択されたNNモデルの少なくとも1つの層(layer)におけるノード群の少なくともいくつかに対する活性化関数とともに用いられる、ノード重み(node weights)および/またはノードバイアス(node biases)を含む。ここで、いくつかのノード重みおよび/またはノードバイアスは既定であってもよく、ゆえに、選択されたNNモデルのパラメータ群の全ての値を最適化基準に則って決定する必要はないかも知れないことに留意されたい。生成された出力画像は圧縮されてもよく、当該マッピングを特徴付けるNNパラメータは、デコーダへ引き渡されるメタデータとして符号化され得る。
第2の実施形態において、デコーダは、第1のダイナミックレンジにおける符号化画像と画像メタデータとを有する圧縮ビットストリーム(compressed bitstream)を受信する。ここで画像メタデータは、符号化画像を第2のダイナミックレンジにおける出力画像へマッピングするためのニューラルネットワーク(NN)モデルのパラメータ群を含む。符号化画像の1つ以上の色成分に対し、画像メタデータは、以下を含み得る。すなわち、当該NNにおけるニューラルネット層数と、少なくとも1つの層についてのニューラルノード数と、少なくとも1つの層のいくつかのノードにおいて活性化関数とともに使用される重みおよびオフセットである。符号化画像を復号化した後、デコーダは、符号化画像と、NNモデルのパラメータ群とに基づき、第2のダイナミックレンジにおける出力画像を生成する。
HDR−SDRシステム例
図1は、本発明のある実施形態による、HDR−SDRシステム(100)におけるデータフローの一例を表している。HDRカメラ(110)を用いて、HDR画像またはHDR映像シーケンスをキャプチャする。キャプチャに引き続き、キャプチャされた画像または映像をマスタリング処理(120)において処理することにより、ターゲットHDR画像(125)を作成する。マスタリング処理は、編集、一次的および二次的な色補正(color correction)、色変換(color transformation)、およびノイズ除去(noise filtering)などの、様々な処理ステップを組み入れ得る。本処理のHDR出力(125)は、キャプチャ画像がターゲットHDRディスプレイ(例えばHDRディスプレイ160)にどのように表示されるかについての、制作意図を表現している。
マスタリング処理はまた、キャプチャ画像が旧式のSDRディスプレイ(165)にどのように表示されるかについての制作意図を表現する、対応するSDR画像(145)をも出力し得る。SDR出力(例えば145−1または145−2)は、マスタリング回路120から直接に提供されてもよいし、別個のHDRからSDRへの変換器140で生成されてもよいし、またはカラリストの助力を得て生成されてもよい。
本明細書において、「トリムパス」(trim-pass)という用語は、第1のターゲットディスプレイ(例えば、4,000ニトのプロフェッショナルモニタ)上で作成された映像ストリームを再マッピングして、異なるダイナミックレンジおよび/または色域を有する第2のターゲットディスプレイ(例えば、300ニトのSDR TV)のための第2のストリームにする、コンテンツ制作におけるフェーズを指す。トリムパスはさらに、カラリストによる調整を受けることにより、元の映像ストリームの「カラーグレード」(color-grade)を生成し得る。スタジオにおいて、例えば、SDR映画館(例えば48ニト)、HDR映画館(例えば100ニト)、SDR TV(例えば300ニト)、HDR TV(例えば1,000ニト)などにおけるリリースのための、複数の「トリム」および/または「カラーグレード」を作成することができる。2つのトリムはまた、同一のダイナミックレンジでありながら異なる色域を有してもよい。本明細書において、「派生的ピクチャ」(derivative picture)という用語は、このような任意の、マスタHDRまたはマスタSDRピクチャから導出された、トリムまたはカラーグレーディングを施されたピクチャを指す。
本実施形態例において、HDR125およびSDR145信号は、エンコーダ130へ入力される。エンコーダ130の目的は、これらのHDRおよびSDR信号を送信するために要求される帯域幅を低減する一方で、また、対応するデコーダ150がSDRやHDR信号を復号化し、かつ、描画することを可能にもする、符号化ビットストリームを作成することである。ある態様例において、エンコーダ130は、MPEG−2およびH.264符号化規格により規定されるもののうちの1つなどの、シングルレイヤまたはマルチレイヤのエンコーダであってもよく、その出力は、ベースレイヤ、オプションとしての1つ以上のエンハンスメントレイヤ、およびメタデータとして表現される。本明細書において、「メタデータ」という用語は、符号化ビットストリームの一部として送信され、デコーダが復号化画像を描画することを助ける、任意の補助的情報に関する。このようなメタデータは、本明細書において記載されるような、色空間または色域情報、ダイナミックレンジ情報、トーンマッピング情報、またはNNノードパラメータなどのデータを含み得るが、これらに限定されない。
受信器において、デコーダ(150)は、受信された符号化ビットストリームおよびメタデータを用いて、ターゲットディスプレイの性能に応じ、SDR画像(157)かHDR画像(155)のいずれか一方を描画する。例えば、SDRディスプレイ(165)は、ベースレイヤおよびメタデータのみを用いて、SDR画像を描画し得る。対照的に、HDRディスプレイ(160)は、全ての入力レイヤからの情報およびメタデータを用いて、HDR信号を描画し得る。
いくつかの実施形態において、システム(100)は、入力映像コンテンツの「再構成」(不図示)を適用することにより、130における映像エンコーダの性能により良くマッチすることができる。本明細書において、「順方向再構成」(forward reshaping)という用語は、あるデジタル画像についての、元のビット深度と、元の符号語分布または元の符号語表現(例えばガンマ、PQ、またはHLGなど)とから、同一または異なるビット深度と、異なる符号語分布または符号語表現とを有する画像への、サンプル対サンプルまたは符号語対符号語のマッピング処理を指す。再構成により、一定のビットレートのもとで、より良い圧縮率またはより良い画質が可能とされる。例えば、限定はしないが、再構成を10ビットまたは12ビットPQ符号化HDR映像に適用することにより、10ビット映像符号化アーキテクチャにおける符号化効率を改善し得る。受信器において、再構成信号を復元した後、当該受信器は、「逆再構成関数」(inverse reshaping function)を適用することにより、信号をその元の符号語分布へ復元することができる。画像再構成の一例は、G−M.Suによる、2016年3月30日付け出願のPCT出願第PCT/US2016/025082号、「In−Loop Block−Based Image Reshaping in High Dynamic Range Video Coding」(WO 2016/164235としても公開)の中に見つけることができる。
図2Aは、本発明の方法を組み入れる、エンコーダ130のより詳細な態様例を示している。図2Aにおいて、SDR’(207)は、エンハンストSDR信号を表す。今日のSDR映像は、8〜10ビットで4:2:0のITU Rec.709データである。SDR’は、SDRと同一の色空間(原色および白色点)を有しながらも、全ての色成分をフル空間解像度(例えば4:4:4RGB)とする高精度(例えば12ビット毎ピクセル)を用いることができる。図2Aより、例えば12ビット毎ピクセルから10ビット毎ピクセルへの量子化(または順方向再構成)と、例えばRGBからYUVへの色変換と、例えば4:4:4から4:2:0への色サブサンプリングと、を含み得る1組の順方向変換(forward transforms)を用いて、SDR’信号から、SDRを容易に導出することが可能である。変換器210のSDR出力は、圧縮システム220に適用される。アプリケーションに応じて、圧縮システム220は、ロッシー(lossy)(H.264、MPEG−2など)でもよいし、ロスレス(lossless)でもよい。圧縮システム220の出力は、ベースレイヤ225として送信され得る。符号化信号と復号化信号との間のドリフトを低減するために、エンコーダ130において、圧縮処理220に引き続き、対応する復元処理230と、210の順方向変換に対応する逆変換(inverse transforms)240とが行われることは稀ではない。ゆえに、予測器(250E)は、以下の入力を有し得る。すなわち、HDR入力205と、SDR信号245(対応するデコーダに受信されるものとしてのSDR’信号に相当)または入力SDR’207のいずれか一方と、である。予測器250Eは、入力HDRおよび入力SDRデータを用いて、入力HDR205の近似値または推定値を表す信号257を生成することになる。レイヤシステム(layered systems)において、加算器260は、元のHDR205から予測HDR257を差し引くことにより、出力残差信号265を形成する。その後で(不図示)、残差265はまた、もう1つのロッシーまたはロスレスエンコーダにより符号化されて、エンハンスメントレイヤとしてデコーダへ送信されることが可能である。
予測器250Eはまた、予測処理において用いられている予測用パラメータ(prediction parameters)を、メタデータ(255)として提供することができる。予測用パラメータは、例えばフレーム毎またはシーン毎に、符号化処理の最中に変化し得るので、これらのメタデータを、ベースレイヤおよびエンハンスメントレイヤをもまた包含するデータの一部として、デコーダへ送信することができる。
HDR125とSDR145の両方は、異なる特性(ダイナミックレンジや色域など)を有した異なるディスプレイをターゲットにしながらも、同一のシーンを表現しているので、これらの2つの信号の間には非常に密接な相関があるものと予想される。本発明の実施形態例において、ニューラルネットワークマッピングを用いて入力リファレンス信号を近似表現へマッピングすることを可能にする、新しいマッピング関数が構築される。HDRからSDRへのマッピングについての例を与えるが、同一の手法を、2つの異なるHDRグレード間、2つの異なるSDRグレード間、またはSDRグレードとHDRグレードとの間における画像マッピングに対し、使用できる。
本発明の実施形態は、画像エンコーダまたは画像デコーダのいずれか一方において実施され得る。図2Bは、本発明のある実施形態による、デコーダ150の態様例を示している。復号化システム150は、例えばエンコーダ200−Eから生成されたものなどの、符号化ビットストリーム(270)を受信する。このストリームは、ベースレイヤ(例えば245)と、オプションとしてのエンハンスメントレイヤ(または残差)(例えば265)と、メタデータ(255)とを併せ持つことができ、復元(230)および種々雑多な逆変換(240)の後で、これらが抽出される。例えば、あるHDR−SDRシステムにおいて、ベースレイヤ(245)は、符号化HDR信号のSDR表現を表すことができ、メタデータ255は、エンコーダ予測器250Eにおいて使用されたニューラルネットワークマッピング(NNM)およびこれに対応するNNMパラメータについての情報を含むことができる。一態様例において、エンコーダが本発明の方法によるNNマッピングを使用する場合、メタデータは、使用されているモデルの識別表示(identification)(例えばグローバルマッピング、ローカルマッピングなど)と、その特定のモデルに対応付けられた全てのパラメータとを包含し得る。ベースレイヤ245と、メタデータ255から抽出されたNNM関連パラメータとを与えられると、予測器250Dは、予測HDR(257)を算出することが可能である。残差が存在しないか、または残差が無視できるならば、予測信号257を、最終的なHDR画像として直接に出力できる。そうでなければ、加算器260において、予測器(250D)の出力(257)を残差265に加算することにより、HDR信号290が出力される。
ニューラルネットワークマッピング例
背景
限定はせずに、
Figure 2021521517
は、HDR画像(125)などの第1の画像からの、第i番目の画素の三色値(例えばRGBまたはYCbCrなど)を表すものとする。第2の画像(例えばSDR画像145)における、これに対応する第i番目の画素を、
Figure 2021521517
で表す。各画像における画素の総数をPで表し、全ての画素値は[0 1]の間に正規化されているものと仮定する。第1の画像に由来する画素値を、第2の画像における対応する画素値へ(またはその逆に)マッピングする、マッピング関数M()を求めたい。すなわち、
Figure 2021521517
または
Figure 2021521517
にしたい。
ある実施形態にて、多層ニューラルネットワークにおける第j番目の層は、その入力の各々に適用される重みおよびバイアスの非線形関数として、
Figure 2021521517
と表現され得る。ここで
Figure 2021521517
は、重み行列であり、
Figure 2021521517
は、バイアスベクトルであり、f()は活性化関数であり、
Figure 2021521517
は、入力(前層の出力に由来)であり、
Figure 2021521517
は、現層の出力である。例えば
Figure 2021521517
は、
Figure 2021521517
として表され得る。ここでNは、ニューラルネットワークの第j番目のレベルにおけるノード数を表す。第j番目のレベルにおけるノード数は、別のレベルにおけるノード数とは異なっていてもよいことに留意されたい。L層を有するNNに対し、これを[N … NL−1]NNと表記することがある。例えば[8 4 4]NNは、3層を備えており、最初の層に8つのノードを、残りの2層の各々に4つずつのノードを有した、ニューラルネットワークのことを指す。
一般に用いられる活性化関数f()が、いくつか存在する。ある実施形態において、f()は、シグモイド関数
Figure 2021521517
である。最初の層(例えばj=0)に対し、その入力は、元の入力画素値であることになる。すなわち、式(1a)のマッピングを仮定すると、
Figure 2021521517
となる。
注記:本明細書の以降の部分において、NNの入力および出力パラメータを、式(1a)におけるマッピングの観点から表現することがある。しかし、本明細書に記載の方法は、単純にSDR入力とHDR入力とを入れ替えることにより、式(1b)のマッピングを表現するように、容易に拡張することができる。
L層の隠れ層を有するネットワークにおいて、
Figure 2021521517
または
Figure 2021521517
となるだろう。
図6は、入力層(605)と、2つの隠れ層(610および615)と、1つの出力層(620)とを備えた、ニューラルネットワークの一例を表している。入力ノード群(605−1から605−N−1まで)は、問題の入力画素(例えば
Figure 2021521517
)を表し、出力ノード群(620−1から620−Nまで)は、問題のマッピング値(例えば
Figure 2021521517
)を表し、最初の隠れ層におけるノード群(610−1から610−Nまで)および2番目の隠れ層におけるノード群(615−1から615−Nまで)は、それぞれ
Figure 2021521517
を表す。
目標は、全P個の画素に対する総最小二乗誤差(total minimum square error)(MSE)
Figure 2021521517
が最小化されるように、全(L+1)層におけるパラメータ
Figure 2021521517
を求めることである。本問題は、
Figure 2021521517
として定式化できる。
ある実施形態において、式(6)の解を、「誤差逆伝播法」を使用して求めることができる。単一のNNを用いる代わりに、3つ以上のニューラルネットワークを、入力信号の色成分の各々に対して1つずつ用いてもよいことに留意されたい。
入力正規化
ある実施形態において、入力信号を[−1 1]の範囲へ正規化し直す(renormalizing)ことにより、性能を向上させることが可能である。このような態様において、ニューラルネットワークは、以下を含む必要がある。
・入力信号の各チャネルを[−1 1]へスケーリングする、プリスケーリング段(正規化)(normalization)
・[−1 1]に納まっている出力信号の各チャネルを、元の範囲へスケーリングし戻す、ポストスケーリング段(非正規化)(de-normalization)
各入力カラーチャネル(y、c0、およびc1で表す)における最大値および最小値を、
Figure 2021521517
で表すことにする。新しいダイナミックレンジ
Figure 2021521517
への正規化を行うためのゲインは、
Figure 2021521517
として導出され得る。正規化は、
Figure 2021521517
のように行われる。非正規化は、
Figure 2021521517
として算出され得る。
L層ニューラルネットワークに基づくマッピングは、以下のパラメータを用いて表現することができ、これらのパラメータはメタデータとして受信器に伝達され得る。すなわち、
・各入力成分に対する正規化パラメータ(例えば、ゲイン、最小、および最大){G,nmin,nmax
・L層ニューラルパラメータ。例えば、第j番目の層における
Figure 2021521517
である。次に、3つの異なる実施形態例を、詳細に説明する。
グローバルマッピングNNを用いる画像マッピング
図3Aは、グローバルマッピングのある実施形態による、HDRからSDRへのマッピングを生成するためのシステムの一例を表している。ここでは、画素の位置に拘らず、画像全体に対して同一の画素マッピングが行われる。一例として、一般性を失うことなく、当該入力はYCbCr4:2:0フォーマットであるものと想定する。但し、使用されている色形式(例えば、YCbCr4:2:2または4:4:4、RGB、ICtCpなど)に拘らず、同様なアーキテクチャを適用することが可能である。所与のリファレンスHDR(125)およびSDR(145)フレームに対し、3つのニューラルネットワーク(305)を用いて、Y、Cb、およびCrをマッピングする。入力4:2:0フォーマットのために、ある実施形態において、NNユニット(305)に対する全ての入力が同一の空間解像度を有するように、ダウンスケーリング器(down-scaler)310およびアップスケーリング器(up-scaler)315を使用し得る。これらのアップスケーリングおよびダウンスケーリング関数は、もしも当該入力が4:4:4フォーマットであるならば、省くことができる。図3Aに表すように、
・Y−NNM(305−Y)は、入力として、v、vCb,Cr(アップサンプリングされた)、およびsを有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cb−NNM(305−Cb)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、およびsCbを有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cr−NNM(305−Cr)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、およびsCrを有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
各NNM305は、単一層(例えば、16個のノードを有した1つの層、[16]と表記)を有してもよいし、複数の層(例えば[8 4 4]NN)を有してもよい。NNMの実装例は、M.T.Haganらによる『Neural Network Design』(第2版)、2014年、または、S.O.Haykin著『Neural Networks and Learning Machines』(第3版)、Pearson、2008年、の中に見つけることができる。MatlabのNeural NetworkToolboxにおけるMATLAB関数fitnetおよびtrainもまた、使用できる。
ローカルマッピングNNを用いる画像マッピング
図3Bは、ある実施形態による、HDRからSDRへのマッピングを生成するためのシステムの一例を表しており、ここでは、画素マッピングはローカルレベルで行われる(ローカルマッピング)。この空間ドメインの変動性(variance)をモデリングするために、ニューラルネットワークマッピング(NNM)ユニット(305)は、位置的な画素情報を表現するさらなる入力307を有する。(x,y)は、第i番目の画素に対する正規化座標を表すものとする。すなわち、x∈[0,1]かつy∈[0,1]である。これらの正規化値は、元の座標を、画像の対応する寸法(dimensions)(例えば、幅と高さ)で割ることにより、算出できる。このとき、入力HDRベクトルは
Figure 2021521517
と表現され得る。
図3Bに表すように、
・Y−NNM(305−Y)は、入力として、v、vCb,Cr(アップサンプリングされた)、s、および(x,y)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cb−NNM(305−Cb)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、sCb、および(xCb,yCb)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cr−NNM(305−Cr)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、sCr、および(xCr,yCr)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
当該入力がYCbCr4:2:0フォーマットであるならば、ルマ成分とクロマ成分とは、異なる処理を必要とする。ルマのY−NNM(305−Y)に対しては、入力307−Yにおいて、フル解像度(x,y)が使用される。しかし、クロマのCb−NNM(305−Cb)およびCr−NNM(305 Cr)に対しては、入力307−Cbおよび307−Crにおいて、元の解像度(x,y)のスケーリングバージョン(例えば、x/2,y/2)が使用される。両方の座標が正規化[0,1]ドメインに納まっている必要があることに留意されたい。唯一の違いは、その位置が、異なる画像サイズによって正規化されていることである。
複数のグレードを用いる画像マッピング
ある実施形態において、先述のようにエンコーダは、複数のSDRもしくはHDR「グレード」(grades)、または、複数のSDRもしくはHDR「トリム」(trims)にアクセス可能であってもよいことが考えられる。このとき、図3Cに示すように、ニューラルネットワークマッピングネットワークは、これらの複数のトリムを利用することにより、ある表現から別の表現へのマッピングをさらに改善し得る。
第k番目のグレードのリファレンス画像における、第i番目の画素の三色値を、
Figure 2021521517
と表すことにする。ある実施形態において、全てのグレードをひとつに連結して、ベクトル
Figure 2021521517
にしてもよい。このとき、各NNMに対し、当該入力ベクトルは、正規化されたターゲット明度値(例えばニト単位の)t∈[0,1]を含む必要があり、4入力のベクトルとなる。つまり、
Figure 2021521517
である。例えば、100ニトのトリムに対し、t=0.1であり、600ニトに対し、t=0.6である。これらのグレードIDは、ポート(307)を用いて入力されることが可能である。マッピング問題は再び、マッピング関数M()を求めることとして表現され得る。ここで、
Figure 2021521517
である。
図3Cに表すように、
・Y−NNM(305−Y)は、入力として、v、vCb,Cr(アップサンプリングされた)、s、および利用可能なグレードID(例えばt、t、およびt)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cb−NNM(305−Cb)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、sCb、および(xCb,yCb)、ならびに利用可能なグレードID(例えばt、t、およびt)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
・Cr−NNM(305−Cr)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、sCr、および利用可能なグレードID(例えばt、t、およびt)を有し、出力として、マッピングされたSDR
Figure 2021521517
と、メタデータとを有する。
複数の他の変形例を用いて、HDRからSDRまたはSDRからHDRへのマッピング関数を生成してもよいことが、当業者には理解できる。例えば、図3CにおけるNNMはまた、図3Bにおけるような画素位置情報をも利用してもよい。あるいは、全てのNNMは、複数の時刻インスタンスからのHDRおよびSDRフレーム群を考慮に入れてもよい。ニューラルネットワークにおいて考慮されることが可能な他の画像属性は、画像コントラスト、画像彩度(image saturation)、およびエッジ強度を含み得る。例えば、エッジ検出を用いることにより、ローカルトーンマッピングを改善することができる。
3Dマッピングテーブルを用いて演算効率を改善
本明細書において、「3Dマッピングテーブル(3D−MTまたは3DMT)」という用語は、入力画像データを表現し、より効率的な画像処理のために用いられる、3Dルックアップテーブルのことを指す。3Dマッピングテーブルは、B.Wenらによる2017年10月4日付け出願の米国特許出願シリアル番号第15/725,101号、「Inverse Luma/Chroma Mappings with Histogram Transfer and Approximation」において初めて導入されたものであり、この出願の開示内容を全て本願に援用する。3Dマッピングテーブルは、2Dマッピングの拡張として導出されたものであり、両画像の累積密度関数(cumulative density functions)(CDF)がマッチしなければならないという制約に基づき、第1のダイナミックレンジにおける画像を別のダイナミックレンジへマッピングする。
3D−MTテーブルは、画素ベースの演算を低減するものであり、より優れた色正確度の出力画像を生成するマッピングを与えることができる。ある実施形態にて、ニューラルネットワークに基づくマッピングにおいて用いられる3D−MTは、以下のように構築され得る。
第1の画像および第2の画像をリファレンスとして用いるマッピングにおいて、第1の画像(例えばHDR画像)からの、第i番目の画素の三色値を
Figure 2021521517
と表し、第2の画像(例えばSDR画像)における、これに対応する第i番目の画素を、
Figure 2021521517
と表すことにする。まず、3つのチャネル値(例えば、Y、C、およびC)を有する第1の画像を、各成分につき一定数の
Figure 2021521517
個のビン(bins)を用いて量子化する。ある色成分におけるビンの個数は、その他の色成分におけるビンの個数と異なっていてもよいことに留意されたい。これらのビンは、第1の画像の
Figure 2021521517
3Dヒストグラムを算出するために使用されることになる。本3Dヒストグラムのことを
Figure 2021521517
と表す。ここで、
Figure 2021521517
である。ゆえに
Figure 2021521517
は、総計
Figure 2021521517
個のビンを含み、ビンインデックス
Figure 2021521517
によって指定される各3Dビンは、これらの3チャネル量子化値を有する画素の個数を表す。各3Dビンにつき、第2の画像における各色成分の合計もまた、算出される。
Figure 2021521517
は、第2の画像ドメインにおける、マッピングされたルマおよびクロマ値であって、対応する画素値が当該ビンの範囲に納まる全てのHDRルマおよび2つのクロマ(それぞれCおよびC)画素の値の合計を、その各ビンが含むようなものとする。これらの演算処理は、表1〜3に記載の擬似コードにて要約され得る。
(表1)3Dマッピングテーブルの生成/パートA
Figure 2021521517

Figure 2021521517
は、第2の画像における
Figure 2021521517
番のビンの中央を表すものとする。これらの値は全てのフレームに亘って一定であり、予め算出されることが可能である。
(表2)3Dマッピングテーブルの生成/パートB
Figure 2021521517

次なるステップは、非ゼロ個の画素を有する3Dヒストグラムビンを特定し、画素を一切有しないビンを破棄することである。
Figure 2021521517
は、そのような、
Figure 2021521517
が成り立つk個のビンであるものとする。
Figure 2021521517
の平均を算出する。
(表3)3Dマッピングテーブルの生成/パートC
Figure 2021521517

Figure 2021521517
と表記することにする。このとき、
Figure 2021521517
値の元の集合は、妥当な
Figure 2021521517
値に対して上記に定義された、
Figure 2021521517
のペアで置き換えられる。
図4は、ある実施形態による、3Dマッピングテーブルおよびニューラルネットワークを用いてHDRからSDRへのマッピングを生成するための、アーキテクチャ例(400)を表している。図4に表すように、本システムは、2つの3D−MT、すなわちルマ3D−MT(405)とクロマ3D−MT(410)とを利用する。これらの3D−MTを生成するために、表1〜3におけるステップを、以下の入力に適用し得る。
・ルマ3D−MTに対し、入力は、元の解像度におけるHDR Y、アップサンプリングされたHDR Cb/Cr、元の解像度におけるSDR Y、およびアップサンプリングされたSDR Cb/Crであり、出力は、
Figure 2021521517
のマッピングとして表され得る。
・クロマ3DMTに対し、入力は、ダウンサンプリングされたHDR Y、元の解像度におけるHDR Cb/Cr、ダウンサンプリングされたSDR Y、および元の解像度におけるSDR Cb/Crであり、出力は、
Figure 2021521517
のマッピングとして表され得る。
システム400において、3つのニューラルネットワークマッピング(415)(ルマおよびクロマについての)は、これらの2つの3D−MTの出力に基づき生成される。例えば、ある実施形態において、
・Y NNMに対し、入力は、第1の3DMTからの
Figure 2021521517
であり、出力は、Y−NNMネットワークのパラメータ群であろう。
・Cb NNMに対し、入力は、第2の3DMTからの
Figure 2021521517
であり、出力は、Cb−NNMネットワークのパラメータ群であろう。
・Cr NNMに対し、入力は、第2の3DMTからの
Figure 2021521517
であり、出力は、Cr−NNMネットワークのパラメータ群であろう。
3DMTを使用することは、以下のような利点を与える。a)ビン数は画素数よりも遥かに小さいため、遥かに少ない点を用いてニューラルネットワークを訓練できる。それゆえに、より高速な収束が可能とされる。このことは、リアルタイムアプリケーションにおいて非常に重要である。b)3D−MTを生成することにより、事実上、画素群が「重要な画素」のビン群へ集約され、それゆえに、画質の面でより価値の低い複数の画素によってNNの判断にバイアスがかかる効果が、抑制される。
システム(400)は、図3Aに記載されたものと均等である。3Dマッピングテーブルの概念をさらに高次元へ拡張することにより、図3Bおよび図3Cにおけるアーキテクチャをサポートするように(例えば、ローカルマッピング(図3B)において5D−MTを用いることによる)、本システムを容易に拡張することが可能である。
ある別の実施形態において、3つのニューラルネットワーク(415)Y−NNM、Cb−NNM、およびCr−NNMを結合して単一のYCbCrNNMにし、ルマ値およびクロマ値の両方を直接に生成させ得る。このような態様は、HDRからSDRへのマッピングを表現するうえで、より少数のNNパラメータしか必要としないだろう。一例として、図3Dは、単一のYCbCrNNM(350)を用いて2つのカラーグレード間のグローバルマッピングを生成するシステムを表している。図3Dにおけるシステムにより生成されたNNMパラメータ群(372)を所与のものとして、図3Eは、当該マッピング関数(当該NNのパラメータ群すなわちメタデータ(372)により特徴付けられた)を適用することにより、YCbCrNNM370を用いて元のデータを復元する、予測器の一例(例えば250D)を表している。例えば、信号360(ソースグレード)がSDRデータを表すならば、マッピングされたYCbCrデータは、予測HDRデータを表す。信号360が入力HDRデータを表すならば、マッピングされたYCbCrデータは、予測SDRデータを表す。2つのYCbCrNN(370−1、370−2)は全く同じものであるが、各々は入力データを少々異なるように取り扱う。ルマ(Y)に対し、NNM370−1は、入力クロマデータがフル解像度(Yの解像度と同一の)までアップサンプリングされていることを必要とする。370−1のCb/Cr出力は破棄される。クロマに対し、NNM370−2は、入力ルマデータがクロマ成分の解像度とマッチするようにダウンサンプリングされていることを必要とする。NNM370−2のルマ出力は破棄され得る。ある別の実施形態において、NNM370は単一の、時分割(time-shared)NNネットワークであってもよい。
図3Eに表すアーキテクチャは、図3A〜3Cにおいて前述したその他のニューラルネットワークマッピング設計のいずれかに、容易に適応させることができる。例えば、図3Fは、図3Aのグローバルマッピングに基づく、予測器を表している。図3EにおけるNNM(370)は、今や、3つの別個のNNで置き換えられており、1つはY(380−Y)、1つはCb(380−Cb)、および1つはCr(380−Cr)のためのものであって、それぞれが各自の別個のメタデータ(382−Y/Cb/Cr)を受け取る。図3Eと同様に、4:2:0データについて、これらのNNの各々に対するルマおよびクロマ入力は、適切にアップサンプリングまたはダウンサンプリングされる。図3Fに表すように、
Figure 2021521517
のマッピングを想定するとき、
・Y−NNM(380−Y)は、入力として、v、vCb,Cr(アップサンプリングされた)、およびメタデータ382−Yを有し、出力として、マッピングされた
Figure 2021521517
を有する。
・Cb−NNM(380−Cb)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、およびメタデータ382−Cbを有し、出力として、マッピングされた
Figure 2021521517
を有する。
・Cr−NNM(380−Cr)は、入力として、v(ダウンサンプリングされた)、vCb,Cr、およびメタデータ382−Cbを有し、出力として、マッピングされた
Figure 2021521517
を有する。
他の実施形態において、空間的にも時間的にも画素サブサンプリングを使用することにより、全てのシステムにおける計算量(computational complexity)を減少させ得る。例えば、映像シーケンスにおいて、ニューラルネットワークは、サブサンプリングされたフレーム群を用いて求められてもよく、かつ/または、その成果は、複数の連続するフレームに対して使用されてもよい。さらにまた、NNレベルにおいて、各フレームにつき、初期化値は、前フレームに由来する解の単純なコピーであってもよい。
メタデータ送信のためのビットストリーム構文(Bitstream Syntax)
前述のように、NNMメタデータは、入力正規化パラメータ群と、ニューラルネットワークパラメータ群とを含む。これらの値は、典型的には単精度または倍精度の浮動小数点数である。メタデータオーバーヘッドは、マッピングの効率に影響を及ぼすことなくメタデータオーバーヘッドデータの量を抑制するための、当該分野で知られるロッシーまたはロスレスデータ圧縮方式を適用することにより、低減されることが可能である。
表4は、ある実施形態による、エンコーダ(130)からデコーダ(150)へNNMメタデータを通信するための、ビットストリーム構文の一例を表している。
(表4)NNMメタデータをサポートするビットストリーム構文例
Figure 2021521517
表4において、記述子se(v)、u(v)、およびue(v)は、ITU−T H.265「High Efficiency Coding」などの、当該分野で知られる映像復号化のための規格におけるように、定義され得る。「cmp」の値は色成分を表しており、例えば、0はY、1はCb、2はCrである。さらなる変数が、以下のように定義され得る。
nnm_num_neuron[ y ][ x ][ cmp ]は、マッピングタイプを規定する。例えば、nnm_num_neuron[ y ][ x ][ -1 ] = 3はグローバルマッピング、nnm_num_neuron[ y ][ x ][ -1 ] = 5はローカルマッピング、およびnnm_num_neuron[ y ][ x ][ -1 ] = 4はマルチグレードマッピングである。
nnm_norm_gain_int[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_gain_coef[ y ][ x ][ cmp ]の整数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_gain_int[ y ][ x ][ cmp ]は存在しない。
注記:coefficient_data_typeが0に等しい場合には、fp_nnm_norm_gain_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化におけるゲイン係数の値(the value of the gain coefficient in the normalization)が導出される。
nnm_norm_gain_coef[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_gain_coef[ y ][ x ][ cmp ]の小数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_gain_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられたゲイン係数の値が導出される。coefficient_data_typeが0に等しいならば、nnm_norm_gain_coef[ y ][ x ][ cmp ]構文要素の長さは、coefficient_log2_denomビットである。coefficient_data_typeが1に等しいならば、nnm_norm_gain_coef[ y ][ x ][ cmp ]構文要素の長さは、32ビットである。mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化におけるゲイン係数の値は、以下のように導出される。
・coefficient_data_typeが0に等しいならば、ゲイン係数の値は、fp_nnm_norm_gain_coef[ y ][ x ][ cmp ] = (nnm_norm_gain_int[ y ][ x ][ cmp ] << coefficient_log2_denom) + nnm_norm_gain_coef[ y ][ x ][ cmp ]に等しい。
・coefficient_data_typeが1に等しいならば、ゲイン係数の値は、nnm_norm_gain_coef[ y ][ x ][ cmp ]に等しい。
nnm_norm_nmin_int[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_nmin_coef[ y ][ x ][ cmp ]の整数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_nmin_int[ y ][ x ][ cmp ]は存在しない。
注記:coefficient_data_typeが0に等しい場合には、fp_nnm_norm_nmin_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化ドメインにおける最小値の値(the value of the minimum value in the normalization domain)が導出される。
nnm_norm_nmin_coef[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_nmin_coef[ y ][ x ][ cmp ]の小数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_nmin_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられたゲイン係数の値が導出される。coefficient_data_typeが0に等しいならば、nnm_norm_nmin_coef[ y ][ x ][ cmp ]構文要素の長さは、coefficient_log2_denomビットである。coefficient_data_typeが1に等しいならば、nnm_norm_nmin_coef[ y ][ x ][ cmp ] 構文要素の長さは、32ビットである。 mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化におけるゲイン係数の値は、以下のように導出される。
・coefficient_data_typeが0に等しいならば、ゲイン係数の値は、fp_nnm_norm_nmin_coef[ y ][ x ][ cmp ] = (nnm_norm_nmin_int[ y ][ x ][ cmp ] << coefficient_log2_denom) + nnm_norm_nmin_coef[ y ][ x ][ cmp ]に等しい。
・coefficient_data_typeが1に等しいならば、ゲイン係数の値は、nnm_norm_nmin_coef[ y ][ x ][ cmp ]に等しい。
nnm_norm_vmin_int[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_vmin_coef[ y ][ x ][ cmp ]の整数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_nmin_int[ y ][ x ][ cmp ]は存在しない。
注記:coefficient_data_typeが0に等しい場合には、fp_nnm_norm_vmin_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられた、非正規化ドメインにおける最小値の値(the value of the minimum value in the de-normalization domain)が導出される。
nnm_norm_vmin_coef[ y ][ x ][ cmp ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_norm_vmin_coef[ y ][ x ][ cmp ]の小数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_norm_vmin_coef[ y ][ x ][ cmp ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられたゲイン係数の値が導出される。coefficient_data_typeが0に等しいならば、nnm_norm_vmin_coef[ y ][ x ][ cmp ]構文要素の長さは、coefficient_log2_denomビットである。coefficient_data_typeが1に等しいならば、nnm_norm_vmin_coef[ y ][ x ][ cmp ]構文要素の長さは、32ビットである。mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化におけるゲイン係数の値は、以下のように導出される。
・coefficient_data_typeが0に等しいならば、ゲイン係数の値は、fp_nnm_norm_vmin_coef[ y ][ x ][ cmp ] = (nnm_norm_vmin_int[ y ][ x ][ cmp ] << coefficient_log2_denom) + nnm_norm_vmin_coef[ y ][ x ][ cmp ]に等しい。
・coefficient_data_typeが1に等しいならば、ゲイン係数の値は、nnm_norm_vmin_coef[ y ][ x ][ cmp ]に等しい。
nnm_num_layerは、mapping_idc[ y ][ x ][ cmp ]に対応付けられた層数を通知(signal)する
nnm_weight_int[ y ][ x ][ cmp ][ i ][ j ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]の整数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_weight_int [ y ][ x ][ cmp ] [ i ][ j ]は存在しない。
注記:coefficient_data_typeが0に等しい場合には、fp_nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]を用いることにより、mapping_idc[ y ][ x ][ cmp ][ i ]][ j ]に対応付けられた、層jにおけるノードiに対する重み付け係数(the weighting coefficients for node i at layer j)が導出される。
nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]は、coefficient_data_typeが0に等しい場合には、fp_nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]の小数部分を規定する。coefficient_data_typeが1に等しいならば、nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]を用いることにより、mapping_idc[ y ][ x ][ cmp ]に対応付けられたゲイン係数の値が導出される。coefficient_data_typeが0に等しいならば、nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]構文要素の長さは、coefficient_log2_denomビットである。coefficient_data_typeが1に等しいならば、nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]構文要素の長さは、32ビットである。mapping_idc[ y ][ x ][ cmp ]に対応付けられた、正規化におけるゲイン係数の値は、以下のように導出される。
・coefficient_data_typeが0に等しいならば、ゲイン係数の値は、fp_nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ] = (nnm_weight_int[ y ][ x ][ cmp ][ i ][ j ] << coefficient_log2_denom) + nnm_weight_coef[ y ][ x ][ cmp ] [ i ][ j ]に等しい。
・coefficient_data_typeが1に等しいならば、ゲイン係数の値は、nnm_weight_coef[ y ][ x ][ cmp ][ i ][ j ]に等しい。
図5は、同一のシーンを表現するが、異なるダイナミックレンジおよび/または色域で表現する2つの画像間における、画像マッピング関数を導出する処理例(500)を表している。本処理はステップ505において始まり、その中で、予測器250Eなどのマッピングプロセッサが、同一のシーンを表現するが異なるダイナミックレンジで表現する2つ以上の画像を受信する。例えば、リファレンス入力HDR画像と、1つ以上の、SDRの派生的グレードまたは同一画像の別のHDR表現と、である。これらの入力に対し、ステップ510において、マッピングプロセッサにより、いずれのニューラルネットワーク(NN)モデルを選択すべきかが決定される。前述のように、マッピングプロセッサは、グローバルマッピングモデル、ローカルマッピングモデル、複数のグレードを用いるマッピング、または以上の組み合わせを含む(但し必ずしもこれらに限定されない)、様々なNNモデルの中から選択を行い得る。さらに、これらのモデルの各々は、異なる個数のレベルおよび各レベル中のノードにより、特徴付けられていてもよい。
NNモデルの選択は、以下を含むいくつかの基準を考慮に入れる、様々な方法により行うことができる。すなわち、当該SDRおよびHDR入力についての予備知識、利用可能な演算リソースおよびメモリリソース、ならびにターゲット符号化効率(target coding efficiency)である。例えば、ある実施形態において、ターゲット出力と近似しようとするリファレンスグレードとの間の残差MSEの値(式(6)を参照)が所定の閾値を満たしているかどうかに基づき、NNモデルを選択してもよい。NNモデルおよび2つ以上の入力画像が与えられたとき、NNパラメータ群(例えばノード重みおよびバイアス)は、ステップ515において、ある最適化基準に従って導出される。最後に、ステップ520において、マッピングプロセッサは、NNモデルのパラメータ群を出力する。オプションとして、マッピングプロセッサはまた、生成されたマッピング(出力)画像をも出力してもよい。
本マッピング処理500は、利用可能な演算リソースを用いつつ符号化効率を維持するために必要であると考えられる、様々な間隔で繰り返され得る。例えば、映像信号を符号化するとき、処理500は、既定の映像スライスサイズ毎に、各フレームにつき、フレームのグループにつき、または予測残差がある特定の閾値を超過するときには必ず、繰り返されることが可能である。
マッピング処理500は、全ての利用可能な入力画素を用いてもよいし、またはこれらの画素のサブサンプルを用いてもよい。一態様例において、入力データのk行目毎の画素行およびk列目毎の画素列に由来する画素のみを用いることができる。ここで、kは2以上の整数である。ある別の態様例において、ある特定のクリッピング閾値(例えばゼロに非常に近い)を下回る入力画素、または、ある特定の飽和閾値(saturation threshold)(例えばnビットデータにおいて2−1に非常に近い画素値)を上回る入力画素を、スキップすることに決めてもよい。さらに別のある態様において、このようなサブサンプリングおよび閾値設定の手法の組み合わせを用いることにより、画素サンプルサイズを低減して、特定の態様における演算制約に対応(accommodate)することが可能である。
コンピュータシステム実装例
本発明の実施形態は、コンピュータシステム、電子回路およびコンポーネントで構成されたシステム、マイクロコントローラ、フィールドプログラマブルゲートアレイ(FPGA)または他のコンフィギュラブルまたはプログラマブルロジックデバイス(PLD)、離散時間またはデジタル信号プロセッサ(DSP)、特定用途向けIC(ASIC)などの集積回路(IC)デバイス、および/または、このようなシステム、デバイスまたはコンポーネントを1つ以上含む装置、を用いて実施し得る。このコンピュータおよび/またはICは、本明細書に記載のようなNNMベースのマッピングに関する命令を行い、制御し、または実行し得る。このコンピュータおよび/またはICは、本明細書に記載のNNMベースのマッピングに関する様々なパラメータまたは値のいずれを演算してもよい。これらの画像および映像ダイナミックレンジ拡張実施形態は、ハードウェア、ソフトウェア、ファームウェア、および、その様々な組み合わせで実施され得る。
本発明の特定の態様は、本発明の方法をプロセッサに行わせるためのソフトウェア命令を実行するコンピュータプロセッサを含む。例えば、ディスプレイ、エンコーダ、セットトップボックス、トランスコーダなどの中の1つ以上のプロセッサは、そのプロセッサがアクセス可能なプログラムメモリ内にあるソフトウェア命令を実行することによって、上記のようなNNMベースのマッピング方法を実装し得る。本発明は、プログラム製品形態で提供されてもよい。このプログラム製品は、データプロセッサによって実行された時に本発明の方法をデータプロセッサに実行させるための命令を含む1セットの、コンピュータ読み取り可能な信号を格納する任意の媒体を含み得る。本発明によるプログラム製品は、様々な形態をとり得る。例えば、このプログラム製品は、フロッピーディスク、ハードディスクドライブを含む磁気データ記憶媒体、CD ROM、DVDを含む光学データ記憶媒体、ROM、フラッシュRAMなどを含む電子データ記憶媒体、などの物理的媒体を含み得る。このプログラム製品上のコンピュータ可読信号は、任意に、圧縮または暗号化されていてもよい。
上記においてあるコンポーネント(例えば、ソフトウェアモジュール、プロセッサ、アセンブリ、デバイス、回路など)に言及している場合、そのコンポーネントへの言及(「手段」への言及を含む)は、そうでないと明記されている場合を除いて、当該コンポーネントの機能を果たす(例えば、機能的に均等である)あらゆるコンポーネント(上記した本発明の実施形態例に出てくる機能を果たす開示構造に対して構造的に均等ではないコンポーネントも含む)を、当該コンポーネントの均等物として、含むものと解釈されるべきである。
均等物、拡張物、代替物、その他
HDRおよびSDR画像をマッピングするにあたりニューラルネットワークを適用することに関する実施形態例を上述した。この明細書中において、各実装毎に異なり得る多数の具体的な詳細に言及しながら本発明の実施形態を説明した。従って、本発明が如何なるものかおよび出願人は本発明が如何なるものであると意図しているかについての唯一且つ排他的な指標は、後の訂正を含む、これら請求項が生じる具体的な形態の、本願から生じる1組の請求項である。当該請求項に含まれる用語に対して本明細書中に明示したあらゆる定義が、請求項内で使用される当該用語の意味を決定するものとする。よって、請求項に明示的に記載されていない限定事項、構成要素、特性、特徴、利点または属性は、いかなる形であれ請求の範囲を限定するものではない。従って、本明細書および図面は、限定的ではなく、例示的であると認識されるべきものである。
列挙実施形態例
raw画素データにおける飽和画素値を回復させるための方法およびデバイスに関する、本発明の列挙実施形態例(enumerated example embodiments)(「EEE」)を上述した。ゆえに本発明の実施形態は、以下に列挙する例のうち、1つ以上に関し得る。
EEE1.
エンコーダにおける、第1のダイナミックレンジから第2のダイナミックレンジへ画像をマッピングする方法であって、
第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像において(in terms of)近似するように各々が適応された、1つ以上のニューラルネットワーク(NN)モデルを用意する工程と、
前記第1のダイナミックレンジにおける第1の画像と前記第2のダイナミックレンジにおける第2の画像とを受信する工程であって、前記2つの画像は同一のシーンを表現している、工程と、
前記様々なNNモデルから、前記第1の画像と前記第2の画像とに基づき前記第2の画像を近似する出力画像を決定するためのニューラルネットワークモデルを選択する工程と、
ある最適化基準と、前記第1の画像と、前記第2の画像とに従って、前記選択されたNNモデルのパラメータの値を決定する工程であって、前記パラメータは、前記選択されたNNモデルの各層におけるノードの各々についての、ノード重みおよびノードバイアスを含む、工程と、
前記選択されたNNモデルの前記パラメータを出力する工程と、
を包含する方法。
EEE2.
前記1つ以上のNNモデルは、グローバルマッピングNNモデルと、ローカルマッピングNNモデルと、複数のカラーグレードを用いるグローバルマッピングNNモデルとを含む、EEE1に記載の方法。
EEE3.
前記1つ以上のNNモデルはグローバルマッピングNNモデルを含み、前記グローバルマッピングNNモデルは、前記第1および前記第2の画像の色成分の各々につき1つずつの、3つのニューラルネットワークを備え、前記3つのニューラルネットワークの各々は、前記第1の画像および前記第2の画像の3色成分全ての画素値に基づく入力を受け取る、先行EEEのいずれかに記載の方法。
EEE4.
前記1つ以上のNNモデルはローカルマッピングモデルを含み、前記ローカルマッピングNNモデルは、前記第1および前記第2の画像の色成分の各々につき1つずつの、3つのニューラルネットワークを備え、前記3つのニューラルネットワークの各々は、前記第1の画像および前記第2の画像の3色成分全ての画素値に基づく入力と、前記入力画素値の画素座標を示す入力とを受け取る、先行EEEのいずれかに記載の方法。
EEE5.
さらに、第3のダイナミックレンジにおける第3の画像を受信する工程を包含する方法であって、
前記第3の画像は、前記第1および前記第2の画像と同一のシーンを表現しており、
前記1つ以上のNNモデルは、前記3つの画像の色成分の各々につき1つずつの3つのニューラルネットワークを備えた、複数のカラーグレードを用いるグローバルマッピングモデルを含み、前記3つのニューラルネットワークの各々は、前記3つの画像の3色成分全ての画素値に基づく入力と、前記入力画素値のカラーグレードを示す入力とを受け取る、
先行EEEのいずれかに記載の方法。
EEE6.
前記入力画素の入力グレードの前記カラーグレードを示す前記入力は、各カラーグレードの正規化ピーク明度の正規化ベクトルを含む、EEE5に記載の方法。
EEE7.
前記3つのニューラルネットワークの各々に対する入力画素値は、−1と1の間に正規化される、EEE3〜5のいずれかに記載の方法。
EEE8.
前記選択されたNNモデルの前記パラメータはさらに、前記正規化された入力画素値の各色成分についての、ゲイン係数と、最小値と、最大値とを含む、EEE7に記載の方法。
EEE9.
全ての入力画像は4:2:0YCbCr色形式で表されており、
第2の色成分(Cb)および第3の色成分(Cr)についての前記ニューラルネットワークへ入力する前に、前記第1の画像のY成分を、前記第1の画像のCbまたはCr成分の解像度までダウンサンプリングするための、画像ダウンサンプリング器と、
第1の色成分(Y)についての前記ニューラルネットワークへ入力する前に、前記第2の画像のCbおよびCr成分を、前記第1の画像のY成分の解像度までアップサンプリングするための、画像アップサンプリング器と、
をさらに含む、EEE3〜5のいずれかに記載の方法。
EEE10.
前記画素座標は、(x,y)位置のペアを含み、前記位置のペアにおける値は、0と1の間になるように正規化される、EEE4またはEEE4に従属するときの先行EEEのいずれかに記載の方法。
EEE11.
前記最適化基準は、前記出力画像と前記第2の入力画像との間の平均二乗誤差を最小化することを含む、先行EEEのいずれかに記載の方法。
EEE12.
全ての入力画像は4:2:0YCbCr色形式で表されており、さらに、
前記第1および前記第2の画像に由来する入力ルマ(Y)およびクロマ(CbまたはCr)画素値を、前記第1の画像における第1の正規化ルマおよびクロマサンプル点から、前記第2の画像への第1の平均ルマおよびクロマ3Dマッピングへの、マッピングとして表現する、第1の3Dマッピングテーブル(3DMT)を生成する工程であって、前記入力クロマ画素値は、前記入力ルマ画素値の空間解像度にマッチするようにアップサンプリングされる、工程と、
前記第1および前記第2の画像に由来する入力ルマ画素値およびクロマ画素値を、前記第1の画像における第2の正規化ルマおよびクロマサンプル点から、前記第2の画像への第2の平均ルマおよびクロマ3Dマッピングへの、マッピングとして表現する、第2の3DMTを生成する工程であって、前記入力ルマ画素値は、前記入力クロマ画素値の空間解像度にマッチするようにダウンサンプリングされる、工程と、
入力として、前記第1の画像における前記第1の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第1の平均ルマ3Dマッピングとを与えることにより、Y出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
入力として、前記第1の画像における前記第2の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第2の平均Cb3Dマッピングとを与えることにより、Cb出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
入力として、前記第1の画像における前記第2の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第2の平均Cr3Dマッピングとを与えることにより、Cr出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
を包含する、EEE3またはEEE3に従属するときの先行EEEのいずれかに記載の方法。
EEE13.
前記第1のダイナミックレンジは、前記第2のダイナミックレンジに等しいか、または前記第2のダイナミックレンジよりも高い、先行EEEのいずれかに記載の方法。
EEE14.
前記第1のダイナミックレンジは、前記第1のダイナミックレンジよりも低い、先行EEEのいずれかに記載の方法。
EEE15.
前記出力画像を生成する工程と、
前記出力画像を圧縮することにより、符号化画像を生成する工程と、
前記符号化画像と前記選択されたNNモデルの前記パラメータとを結合することにより、出力ビットストリームを生成する工程と、
をさらに包含する、先行EEEのいずれかに記載の方法
EEE16.
デコーダにおける、第1のダイナミックレンジから第2のダイナミックレンジへ画像をマッピングする方法であって、
第1のダイナミックレンジにおける符号化画像と、画像メタデータとを含む圧縮ビットストリームを受信する工程であって、前記画像メタデータは、前記符号化画像を出力画像へマッピングするためのニューラルネットワーク(NN)モデルのパラメータを含み、前記画像メタデータは、前記符号化画像の1つ以上の色成分につき、前記NNにおけるニューラルネット層数と、各層におけるニューラルノード数と、各ノードの活性化関数とともに用いられる重みおよびオフセットとを含む、工程と、
前記符号化画像と、前記NNモデルの前記パラメータとに基づき、出力画像を生成する工程と、
を包含する方法。
EEE17.
EEE16に記載の方法であって、前記画像メタデータはさらにスケーリングメタデータを含み、前記スケーリングメタデータは、前記符号化画像の各色成分につき、ゲイン値と、最小値と、最大値とを含み、前記方法はさらに、前記スケーリングメタデータと前記出力画像とに基づき、非正規化出力画像を生成する工程を包含する、方法。
EEE18.
前記活性化関数はシグモイド関数を含む、EEE16または17に記載の方法。
EEE19.
EEE1〜18のいずれかに記載の方法を1つ以上のプロセッサで実行するためのコンピュータ実行可能命令を格納した、非一時的なコンピュータ可読記憶媒体。
EEE20.
プロセッサを備えており、かつ、EEE1〜18のいずれかに記載の方法を実行するように構成された装置。

Claims (16)

  1. 第1のダイナミックレンジから第2のダイナミックレンジへ画像をマッピングする方法であって、
    第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像において(in terms of)近似するように各々が適応された、1つ以上のニューラルネットワーク(NN)モデルを用意する工程と、
    前記第1のダイナミックレンジにおける第1の画像と前記第2のダイナミックレンジにおける第2の画像とを受信する工程であって、前記2つの画像は同一のシーンを表現している、工程と、
    前記様々なNNモデルから、前記第1の画像と前記第2の画像とに基づき前記第2の画像を近似する出力画像を決定するためのニューラルネットワークモデルを選択する工程と、
    ある最適化基準と、前記第1の画像と、前記第2の画像とに従って、前記選択されたNNモデルのパラメータの値を決定する工程であって、前記パラメータは、前記選択されたNNモデルの層におけるノードについての、ノード重みおよび/またはノードバイアスを含む、工程と、
    前記選択されたNNモデルの前記パラメータを出力する工程と、
    を包含する方法。
  2. 前記1つ以上のNNモデルはグローバルマッピングNNモデルを含み、前記グローバルマッピングNNモデルは、前記第1および前記第2の画像の色成分の各々につき1つずつの、3つのニューラルネットワークを備え、前記3つのニューラルネットワークの各々は、前記第1の画像および前記第2の画像の3色成分全ての画素値に基づく入力を受け取る、請求項1に記載の方法。
  3. 前記1つ以上のNNモデルはローカルマッピングモデルを含み、前記ローカルマッピングNNモデルは、前記第1および前記第2の画像の色成分の各々につき1つずつの、3つのニューラルネットワークを備え、前記3つのニューラルネットワークの各々は、前記第1の画像および前記第2の画像の3色成分全ての画素値に基づく入力と、前記入力画素値の画素座標を示す入力とを受け取る、先行請求項のいずれかに記載の方法。
  4. さらに、第3のダイナミックレンジにおける第3の画像を受信する工程を包含する方法であって、
    前記第3の画像は、前記第1および前記第2の画像と同一のシーンを表現しており、
    前記1つ以上のNNモデルは、前記3つの画像の色成分の各々につき1つずつの3つのニューラルネットワークを備えた、複数のカラーグレードを用いるグローバルマッピングモデルを含み、前記3つのニューラルネットワークの各々は、前記3つの画像の3色成分全ての画素値に基づく入力と、前記入力画素値のカラーグレードを示す入力とを受け取る、
    先行請求項のいずれかに記載の方法。
  5. 前記入力画素の入力グレードの前記カラーグレードを示す前記入力は、各カラーグレードの正規化ピーク明度の正規化ベクトルを含む、請求項4に記載の方法。
  6. 前記3つのニューラルネットワークの各々に対する入力画素値は、−1と1の間に正規化される、請求項2〜4のいずれかに記載の方法。
  7. 前記選択されたNNモデルの前記パラメータはさらに、前記正規化された入力画素値の各色成分についての、ゲイン係数と、最小値と、最大値とを含む、請求項6に記載の方法。
  8. 全ての入力画像は4:2:0YCbCr色形式で表されており、
    第2の色成分(Cb)および第3の色成分(Cr)についての前記ニューラルネットワークへ入力する前に、前記第1の画像のY成分を、前記第1の画像のCbまたはCr成分の解像度までダウンサンプリングする工程と、
    第1の色成分(Y)についての前記ニューラルネットワークへ入力する前に、前記第2の画像のCbおよびCr成分を、前記第1の画像のY成分の解像度までアップサンプリングする工程と、
    をさらに含む、請求項2〜4のいずれかに記載の方法。
  9. 前記画素座標は、(x,y)位置のペアを含み、前記位置のペアにおける値は、0と1の間になるように正規化される、請求項3または請求項3に従属するときの先行請求項のいずれかに記載の方法。
  10. 前記最適化基準は、前記出力画像と前記第2の入力画像との間の平均二乗誤差を最小化することを含む、先行請求項のいずれかに記載の方法。
  11. 全ての入力画像は4:2:0YCbCr色形式で表されており、さらに、
    前記第1および前記第2の画像に由来する入力ルマ(Y)およびクロマ(CbまたはCr)画素値を、前記第1の画像における第1の正規化ルマおよびクロマサンプル点から、前記第2の画像への第1の平均ルマおよびクロマ3Dマッピングへの、マッピングとして表現する、第1の3Dマッピングテーブル(3DMT)を生成する工程であって、前記入力クロマ画素値は、前記入力ルマ画素値の空間解像度にマッチするようにアップサンプリングされる、工程と、
    前記第1および前記第2の画像に由来する入力ルマ画素値およびクロマ画素値を、前記第1の画像における第2の正規化ルマおよびクロマサンプル点から、前記第2の画像への第2の平均ルマおよびクロマ3Dマッピングへの、マッピングとして表現する、第2の3DMTを生成する工程であって、前記入力ルマ画素値は、前記入力クロマ画素値の空間解像度にマッチするようにダウンサンプリングされる、工程と、
    入力として、前記第1の画像における前記第1の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第1の平均ルマ3Dマッピングとを与えることにより、Y出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
    入力として、前記第1の画像における前記第2の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第2の平均Cb3Dマッピングとを与えることにより、Cb出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
    入力として、前記第1の画像における前記第2の正規化ルマおよびクロマサンプル点と、前記第2の画像への前記第2の平均Cr3Dマッピングとを与えることにより、Cr出力成分についての前記ニューラルネットワークの前記パラメータを生成する工程と、
    を包含する、先行請求項のいずれかに記載の方法。
  12. 前記第1のダイナミックレンジは、前記第2のダイナミックレンジと異なる、先行請求項のいずれかに記載の方法。
  13. 前記第1のダイナミックレンジは、前記第2のダイナミックレンジに等しいか、前記第2のダイナミックレンジよりも低いか、または前記第2のダイナミックレンジよりも高い、先行請求項のいずれかに記載の方法。
  14. 前記出力画像を生成する工程と、
    前記出力画像を圧縮することにより、符号化画像を生成する工程と、
    前記符号化画像と前記選択されたNNモデルの前記パラメータとを結合することにより、出力ビットストリームを生成する工程と、
    をさらに包含する、先行請求項のいずれかに記載の方法
  15. 第1のダイナミックレンジから第2のダイナミックレンジへ画像をマッピングする方法であって、
    第1のダイナミックレンジにおける符号化画像と、画像メタデータとを含む圧縮ビットストリームを受信する工程であって、前記画像メタデータは、前記符号化画像を出力画像へマッピングするためのニューラルネットワーク(NN)モデルのパラメータを含み、前記画像メタデータは、前記符号化画像の1つ以上の色成分につき、前記NNにおけるニューラルネット層数と、少なくとも1つの層におけるニューラルノード数と、前記少なくとも1つの層におけるノードの活性化関数とともに用いられる重みおよびオフセットとを含む、工程と、
    前記符号化画像と、前記NNモデルの前記パラメータとに基づき、出力画像を生成する工程と、
    を包含する方法。
  16. 請求項15に記載の方法であって、前記画像メタデータはさらにスケーリングメタデータを含み、前記スケーリングメタデータは、前記符号化画像の各色成分につき、ゲイン値と、最小値と、最大値とを含み、前記方法はさらに、前記スケーリングメタデータと前記出力画像とに基づき、非正規化出力画像を生成する工程を包含する、方法。
JP2020555148A 2018-04-09 2019-04-08 ニューラルネットワークマッピングを用いるhdr画像表現 Active JP7189230B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862654614P 2018-04-09 2018-04-09
EP18166320.4 2018-04-09
EP18166320 2018-04-09
US62/654,614 2018-04-09
PCT/US2019/026406 WO2019199701A1 (en) 2018-04-09 2019-04-08 Hdr image representations using neural network mappings

Publications (2)

Publication Number Publication Date
JP2021521517A true JP2021521517A (ja) 2021-08-26
JP7189230B2 JP7189230B2 (ja) 2022-12-13

Family

ID=66223879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020555148A Active JP7189230B2 (ja) 2018-04-09 2019-04-08 ニューラルネットワークマッピングを用いるhdr画像表現

Country Status (7)

Country Link
US (1) US11361506B2 (ja)
EP (1) EP3776474A1 (ja)
JP (1) JP7189230B2 (ja)
KR (1) KR102361987B1 (ja)
CN (1) CN112204617B (ja)
TW (1) TWI729377B (ja)
WO (1) WO2019199701A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501135B2 (en) * 2018-05-29 2022-11-15 British Cayman Islands Intelligo Technology Inc. Smart engine with dynamic profiles
JP2020005201A (ja) * 2018-06-29 2020-01-09 日本放送協会 送信装置及び受信装置
CA3147581A1 (en) * 2019-08-13 2021-02-18 James Edward GEACH Predicting visible/infrared band images using radar reflectance/backscatter images of a terrestrial region
CN111147857B (zh) * 2019-12-06 2023-01-20 Oppo广东移动通信有限公司 一种图像处理方法、图像处理装置、电子设备和存储介质
WO2021168001A1 (en) * 2020-02-19 2021-08-26 Dolby Laboratories Licensing Corporation Joint forward and backward neural network optimization in image processing
CN111401247B (zh) * 2020-03-17 2023-07-28 杭州小影创新科技股份有限公司 一种基于级联卷积神经网络的人像分割方法
EP4133740A4 (en) * 2020-04-07 2024-04-17 Nokia Technologies Oy FEATURE DOMAIN RESIDUE FOR VIDEO CODING FOR MACHINES
US11223841B2 (en) * 2020-05-29 2022-01-11 Samsung Electronics Co., Ltd. Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding on image
CN111970564B (zh) * 2020-08-26 2023-03-24 展讯通信(上海)有限公司 Hdr视频显示处理的优化方法及装置、存储介质、终端
JP2023543520A (ja) * 2020-11-19 2023-10-16 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 機械学習を基にしたピクチャコーディングにおけるクロマサブサンプリングフォーマット取り扱いのための方法
EP4205395A4 (en) * 2020-12-24 2023-07-12 Huawei Technologies Co., Ltd. CODING WITH FEATURE MAP DATA SIGNALING
US11528435B2 (en) 2020-12-25 2022-12-13 Industrial Technology Research Institute Image dehazing method and image dehazing apparatus using the same
KR102374069B1 (ko) * 2021-01-06 2022-03-11 아주대학교산학협력단 Hdr 이미지 생성 장치 및 방법
TWI783594B (zh) * 2021-07-26 2022-11-11 國立清華大學 多目標神經網路演化方法及裝置
CN113781318A (zh) * 2021-08-02 2021-12-10 中国科学院深圳先进技术研究院 一种图像颜色映射方法、装置、终端设备及存储介质
US20230047271A1 (en) * 2021-08-02 2023-02-16 Mediatek Singapore Pte. Ltd. Color Component Processing In Down-Sample Video Coding
US20230059233A1 (en) * 2021-08-18 2023-02-23 Samsung Electronics Co., Ltd. Efficient inverse tone mapping network for standard dynamic range (sdr) to high dynamic range (hdr) conversion on hdr display
WO2023033991A1 (en) * 2021-08-30 2023-03-09 Dolby Laboratories Licensing Corporation Reshaper for learning-based image/video coding
KR20230055264A (ko) * 2021-10-18 2023-04-25 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US20230186435A1 (en) * 2021-12-14 2023-06-15 Netflix, Inc. Techniques for component-based image preprocessing
CN114359083B (zh) * 2021-12-24 2022-11-29 北京航空航天大学 一种面向干扰环境的高动态热红外图像自适应预处理方法
KR102465841B1 (ko) * 2022-08-10 2022-11-10 주식회사 고업 딥러닝을 이용한 sdr 콘텐츠의 hdr10+ 콘텐츠 변경 시스템
CN115422986B (zh) * 2022-11-07 2023-08-22 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086482A (ja) * 2008-10-02 2010-04-15 Canon Inc 画像認識装置および画像認識方法
US20100246940A1 (en) * 2009-03-25 2010-09-30 Micro-Star Internationa'l Co., Ltd. Method of generating hdr image and electronic device using the same
JP2014520414A (ja) * 2011-04-14 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 複数色チャネル多重回帰予測器
JP2015529890A (ja) * 2012-10-08 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ 色制約付きの輝度変更画像処理
JP2016538632A (ja) * 2013-10-28 2016-12-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 教師あり学習を使用してクラスにタグ付けするための方法および装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7149262B1 (en) 2000-07-06 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and apparatus for enhancing data resolution
US6879731B2 (en) 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US7142723B2 (en) 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
US20090317017A1 (en) 2008-06-20 2009-12-24 The Hong Kong University Of Science And Technology Image characteristic oriented tone mapping for high dynamic range images
PL3564954T3 (pl) 2010-01-19 2021-04-06 Dolby International Ab Ulepszona transpozycja harmonicznych oparta na bloku podpasma
EP2591602A1 (en) 2010-07-06 2013-05-15 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
EP2807823B1 (en) * 2012-01-24 2018-03-28 Dolby Laboratories Licensing Corporation Piecewise cross color channel predictor
WO2014009844A1 (en) 2012-07-13 2014-01-16 Koninklijke Philips N.V. Improved hdr image encoding and decoding methods and devices
WO2015128295A1 (en) 2014-02-26 2015-09-03 Thomson Licensing Method and apparatus for encoding and decoding hdr images
RU2667034C2 (ru) 2014-05-28 2018-09-13 Конинклейке Филипс Н.В. Способы и устройства для кодирования hdr-изображений и способы и устройства для использования таких кодированных изображений
US10136147B2 (en) * 2014-06-11 2018-11-20 Dolby Laboratories Licensing Corporation Efficient transcoding for backward-compatible wide dynamic range codec
JP6577703B2 (ja) 2014-08-05 2019-09-18 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US9607366B1 (en) 2014-12-19 2017-03-28 Amazon Technologies, Inc. Contextual HDR determination
US10015491B2 (en) 2015-04-06 2018-07-03 Dolby Laboratories Licensing Corporation In-loop block-based image reshaping in high dynamic range video coding
US9794540B2 (en) 2015-04-17 2017-10-17 Google Inc. Hardware-based convolutional color correction in digital images
JP6320440B2 (ja) 2015-08-04 2018-05-09 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ信号のための信号再構成
EP3131284A1 (en) 2015-08-13 2017-02-15 Thomson Licensing Methods, systems and aparatus for hdr to hdr inverse tone mapping
EP3220349A1 (en) 2016-03-16 2017-09-20 Thomson Licensing Methods, apparatus, and systems for extended high dynamic range ("hdr") hdr to hdr tone mapping
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
CN109964238A (zh) 2016-09-30 2019-07-02 渊慧科技有限公司 使用神经网络生成视频帧
US10264287B2 (en) * 2016-10-05 2019-04-16 Dolby Laboratories Licensing Corporation Inverse luma/chroma mappings with histogram transfer and approximation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086482A (ja) * 2008-10-02 2010-04-15 Canon Inc 画像認識装置および画像認識方法
US20100246940A1 (en) * 2009-03-25 2010-09-30 Micro-Star Internationa'l Co., Ltd. Method of generating hdr image and electronic device using the same
JP2010231756A (ja) * 2009-03-25 2010-10-14 Micro-Star Internatl Co Ltd Hdr画像生成方法および同方法を用いる電子デバイス
JP2014520414A (ja) * 2011-04-14 2014-08-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 複数色チャネル多重回帰予測器
JP2015529890A (ja) * 2012-10-08 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ 色制約付きの輝度変更画像処理
JP2016538632A (ja) * 2013-10-28 2016-12-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 教師あり学習を使用してクラスにタグ付けするための方法および装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GABRIEL EILERTSEN ET AL.: "HDR image reconstruction from a single exposure using deep CNNs", [ONLINE], JPN6021051981, 20 October 2017 (2017-10-20), US, ISSN: 0004673591 *
MIKAEL LE PENDU ET AL.: "Local Inverse Tone Curve Learning for High Dynamic Range Image Scalable Compression", IEEE TRANSACTIONS ON IMAGE PROCESSING, JPN7021005692, December 2015 (2015-12-01), US, pages 5753 - 5763, XP011588191, ISSN: 0004673592, DOI: 10.1109/TIP.2015.2483899 *
平尾 克彦 外2名: "Deep Neural Networksを用いたSDR画像からのHDR画像生成手法に関する一検討", 電子情報通信学会技術研究報告 VOL.116 NO.496, JPN6021051977, 27 February 2017 (2017-02-27), JP, pages 37 - 42, ISSN: 0004673590 *

Also Published As

Publication number Publication date
TWI729377B (zh) 2021-06-01
US11361506B2 (en) 2022-06-14
JP7189230B2 (ja) 2022-12-13
TW201944357A (zh) 2019-11-16
WO2019199701A1 (en) 2019-10-17
KR20200142035A (ko) 2020-12-21
US20210150812A1 (en) 2021-05-20
CN112204617A (zh) 2021-01-08
EP3776474A1 (en) 2021-02-17
CN112204617B (zh) 2023-09-05
KR102361987B1 (ko) 2022-02-14

Similar Documents

Publication Publication Date Title
JP7189230B2 (ja) ニューラルネットワークマッピングを用いるhdr画像表現
CN109416832B (zh) 高效的基于直方图的亮度外观匹配
CN108885783B (zh) 编码和解码可逆制作质量单层视频信号
US10575028B2 (en) Coding of high dynamic range video using segment-based reshaping
JP6846442B2 (ja) ハイダイナミックレンジ画像のためのクロマ再構成
KR102380164B1 (ko) 게이밍 및/또는 sdr+ 콘텐츠에 대한 자동 디스플레이 관리 메타데이터 생성
CN113228660B (zh) 增强的标准动态范围视频(sdr+)中的基于机器学习的动态合成
CN105744277B (zh) 分层vdr编译码中的层分解
JP6684971B2 (ja) ハイダイナミックレンジ映像を符号化するためのセグメントベース再構成
JP7094451B2 (ja) 再構成関数の補間
TWI812874B (zh) 張量乘積之b平滑曲線預測子
JP2020524446A (ja) 効率的なエンド・ツー・エンドシングルレイヤー逆ディスプレイマネジメント符号化
Lauga et al. Segmentation-based optimized tone mapping for high dynamic range image and video coding
US11895416B2 (en) Electro-optical transfer function conversion and signal legalization
CN117999784A (zh) 用于基于学习的图像/视频编解码的整形器

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20201208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221201

R150 Certificate of patent or registration of utility model

Ref document number: 7189230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150