JP2016201800A - 第1のダイナミックレンジを有する画像を生成、符号化、または復号するための方法およびデバイス、ならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体 - Google Patents

第1のダイナミックレンジを有する画像を生成、符号化、または復号するための方法およびデバイス、ならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体 Download PDF

Info

Publication number
JP2016201800A
JP2016201800A JP2016078891A JP2016078891A JP2016201800A JP 2016201800 A JP2016201800 A JP 2016201800A JP 2016078891 A JP2016078891 A JP 2016078891A JP 2016078891 A JP2016078891 A JP 2016078891A JP 2016201800 A JP2016201800 A JP 2016201800A
Authority
JP
Japan
Prior art keywords
image
dynamic range
template
generating
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016078891A
Other languages
English (en)
Other versions
JP2016201800A5 (ja
Inventor
ギヨテル フィリップ
Philippe Guillotel
ギヨテル フィリップ
アライン マーティン
Alain Martin
アライン マーティン
ソロー ドミニク
Dominique Thoreau
ソロー ドミニク
タルカン メフメット
Turkan Mehmet
タルカン メフメット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016201800A publication Critical patent/JP2016201800A/ja
Publication of JP2016201800A5 publication Critical patent/JP2016201800A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • H04N21/2356Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages by altering the spatial resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】より高いダイナミックレンジを有するHDR(「高ダイナミックレンジ」)画像を、より低いダイナミックレンジを有するLDR(「低ダイナミックレンジ」)画像から生成するための技法を提供する。【解決手段】第1のひな型(epitome)と呼ばれる、第1のダイナミックレンジを有する画像のひな型を得るステップ11と、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成するステップ12と、を含む。【選択図】図1

Description

本開示は、画像、またはビデオとも呼ばれる画像のシーケンスの処理に関する。
より詳細には、本開示は、より高いダイナミックレンジを有する少なくとも1つの画像、たとえばHDR(「高ダイナミックレンジ」)画像を、より低いダイナミックレンジを有する少なくとも1つの画像、たとえばLDR(「低ダイナミックレンジ」)画像または現在のダイナミックレンジ画像から生成するための技法を提供する。
本開示は、HDRビデオの制作、分配、およびレンダリングに関連する任意の応用例に特に適合される。本開示は、ビデオ圧縮および表現に関するが、レンダリングとしても知られる画像エンハンスメントにも関する。
特に、本開示は、高ダイナミックレンジを有する画像またはビデオの符号化および復号を改善することを目的とする。
また、本開示の少なくとも1つの実施形態は、逆トーンマッピング演算子または超解像技法を改善することを目的とする。
このセクションは、下記の、および/または下記で特許請求されている本開示の様々な特徴に関連し得る様々な技術特徴を読者に紹介することが意図されている。この考察は、本開示の様々な特徴のよりよい理解を容易にするために背景情報を読者に提供する助けになると考えられる。したがって、これらの記述は、この観点から読まれるべきであり、従来技術の認めることとして読まれるべきでないことを理解されたい。
ダイナミックレンジは、定義によれば、所与の方向で移動する光の単位面積当たりの光度の測光尺度であるルミナンス(ルミナンスはcd/m2で表される)に対応する変化可能な量の最大可能な値と最小可能な値との間の比である。
より低いダイナミックレンジを有する画像/ビデオからより高いダイナミックレンジを有する画像/ビデオを生成するために、異なる技法が提案されている。
第1の知られている技法は、より感度がよいセンサ(REDまたはHARRIカメラなど)、マルチカメラセットアップ(視差がなく、1つが露出過度、1つが露出不足のカメラを有するステレオリグを使用する)、または時間的なブラケティング(同じ画像を異なる開口で連続的に撮影する)の使用に依拠して、HDR画像/ビデオを直接取り込む。
しかし、そのようなデバイスは非常に高価であり、取り込まれたHDR画像は、符号化され送信されるように、より低いダイナミックレンジで変換されることを必要とする。
さらに、時間的なブラケティングは、ビデオでは動きのぼけが生み出されるので、主に写真/静止画像に使用される。
第2の知られている技法は、手動の作成に依拠する。色管理プロセス中、基準ディスプレイ上でのレンダリングに基づいて画像の色および輝度を拡張することが可能である。そのような技法は、映画に実施される従来の後処理である。
しかし、そのような技法は時間がかかり、自然な光を有する画像を生成しない。
第3の知られている技法は、逆トーンマッピング演算子(iTMO)に依拠する。iTMOは、あるレンジからより高いレンジにダイナミクスを拡張するために使用される。そのような演算子は、すべての画素に同じ展開関数が使用される全演算子、または展開関数がコンテンツによって変わる局所演算子など、使用される画像処理アルゴリズムに基づいて分類され得る。
しかし、そのような演算子は、局所的な変動を有し、時間的に一貫した現実的なHDRビデオを得ることが困難であるため、今日、十分に効率的なものではない。これは、減じたデータセットから情報を外挿しようと試みるとき一般的な問題である。
本開示は、上述の欠点の少なくとも1つを克服する。
本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を、上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するための方法であって、
− 第1のひな型(epitome)と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を得るステップと、
− 第1のダイナミックレンジを有する上記画像を第2のダイナミックレンジを有する上記画像および上記第1のひな型から生成するステップとを含む方法に関する。
したがって、本開示は、より高いダイナミックレンジを有する画像またはビデオのひな型の使用できることを仮定して、より高いダイナミックレンジ(第1のダイナミックレンジ)を有する画像またはビデオを、より低いダイナミックレンジ(第2のダイナミックレンジ)を有する画像またはビデオから効率的に生成するための新規の技法を提案する。
そのようなひな型は、第1のひな型とも呼ばれ、より低いダイナミックレンジを有する画像またはビデオをより高いダイナミックレンジを有する画像またはビデオに変換する助けとなるように使用することができる情報またはメタデータを含む。
具体的には、第1のダイナミックレンジを有する画像は、高ダイナミックレンジ(HDR)画像であり、第2のダイナミックレンジを有する画像は、低ダイナミックレンジ(LDR)画像である。HDR画像は、現実のシーンに見出される強度レベルの範囲をより正確に表すことができる。
本開示の一実施形態によると、第1のダイナミックレンジを有する上記画像は、上記第1のひな型から得られた現実の光情報で生成される。
したがって、現実の光情報を含む第1のひな型を使用し、従来技術の技法より現実的に、より高いダイナミックレンジを有する画像を生成することができる。
このような実施形態は、逆トーンマッピング演算子(iTMO)を改善するための手段を提供する。
本開示の他の実施形態によると、第1のダイナミックレンジを有する画像を生成するステップは、
− 第2のひな型と呼ばれる第2のダイナミックレンジを有する上記画像のひな型を、第2のダイナミックレンジを有する上記画像から決定するステップと、
− 上記第2のひな型と第2のダイナミックレンジを有する上記画像との間のマッピング関数を決定するステップと、
− 上記マッピング関数を上記第1のひな型に適用し、第1のダイナミックレンジを有する上記画像を生成するステップとを含む。
したがって、第2のひな型から第2のダイナミックレンジを有する画像に進むことを可能にするマッピング関数を第1のひな型に適用し、第1のダイナミックレンジを有する画像を生成することができる。
第1の例によると、上記マッピング関数は、上記第2のひな型と第2のダイナミックレンジを有する上記画像との間の変換マップである。
そのような変換マップは、第2のひな型の構築中に作り上げられ得る。
第2の例によると、上記マッピング関数は、第2のダイナミックレンジを有する上記画像内の少なくとも1つのブロックと、上記第2のひな型内のK個のパッチとの間の一次結合であり、Kは、K>1など整数である。
この第2の例によると、上記マッピング関数は、局所線形埋込み(LLE)関数から決定され得る。
したがって、マッピング関数を決定するステップは、上記第2のひな型内の上記K個のパッチの各パッチ
に適用されることになる重みwi,kを決定し、
など第2のダイナミックレンジを有する上記画像内の少なくとも1つのブロックxiを得ることを含み、ここで
であり、Kは、第2のダイナミックレンジを有する上記画像の1つのブロックから得られる上記第2のひな型内のパッチの数である。
上記マッピング関数を上記第1のひな型に適用するステップは、上記第2のひな型内の上記K個のパッチについて、上記第1のひな型内のK個の対応するパッチ(たとえば、K個の共存パッチ)を決定することを含む。
次いで、
など、第1のダイナミックレンジを有する上記画像の少なくとも1つのブロックyiを再構築するために、重みwi,kが上記第1のひな型内の上記K個の対応するパッチの各パッチ
に適用される。
第3の例によると、上記マッピング関数は、回帰関数、たとえば線形回帰またはカーネル回帰から決定される。
他の実施形態によると、第1のダイナミックレンジを有する上記画像を生成するステップは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する上記画像をアップサンプリングすることをさらに含む。
このようにして、より高いダイナミックレンジへのアップサンプリングおよび変換は、同時に、または2つの連続するステップで実施され得る。
他の実施形態によると、上記生成方法は、
− 第2のダイナミックレンジを有する推定された画像を、第1の反復のために第1のダイナミックレンジを有する上記画像から、または以下の反復のために第1のダイナミックレンジを有する上記補正された画像から得るステップ、
− 第2のダイナミックレンジを有する上記画像と第2のダイナミックレンジを有する上記推定された画像との推定誤差を決定するステップ、および
− 上記推定誤差に応答して、第1のダイナミックレンジを有する上記画像を補正し、第1のダイナミックレンジを有する補正された画像を得るステップのうちの少なくとも1つの反復を含む。
そのような反復的な逆投影技法を使用し、第1のダイナミックレンジを有する上記画像が一貫したものであるか否かをチェックすることができる。
また、本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を符号化するための方法であって、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を決定するステップと、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を得るステップと、
− 第2のダイナミックレンジを有する上記画像を符号化するステップと、
− 上記第1のひな型を符号化するステップとを含む方法に関する。
そのような符号化方法は、記憶または送信するために、第2のダイナミックレンジを有する画像および第1のひな型を符号化することを提案する。
第1のダイナミックレンジを有する画像を符号化する代わりに、本開示によると、第2のダイナミックレンジを有する画像と、第1のダイナミックレンジを有する画像に関する情報を含む第1のひな型とを符号化することが提案される。
この符号化は、送信されることになるデータのサイズの削減を可能にする。
さらに、ひな型の送信は、第2のダイナミックレンジを有する画像またはビデオを、復号側で第1のダイナミックレンジを有する画像またはビデオに変換する助けとなる。
さらに、そのようなひな型は、従来のLDR画像またはビデオとの逆方向互換性と共に、HDR画像またはビデオを符号化するために標準化および送信され得る。
具体的には、符号化側では、第2のダイナミックレンジを有する画像は、たとえばトーンマッピング演算子を使用して第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像にダウンコンバートすることによって得られる。
別の例によると、第2のダイナミックレンジを有する上記画像は、上記符号化側にて、たとえば取込みデバイスから直接使用可能になり得る。
また、本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を復号するための方法であって、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を復号するステップと、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を復号するステップと、
− 第1のダイナミックレンジを有する上記画像を第2のダイナミックレンジを有する上記画像および上記第1のひな型から生成するステップとを含む方法に関する。
具体的には、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成するステップは、上記の生成方法を実施することができる。
したがって、提案されている本開示は、第1のダイナミックレンジを有する元の画像/ビデオに関する何らかの情報が使用できることを仮定して、HDR画像/ビデオのような第1のダイナミックレンジを有する画像/ビデオの符号化および復号を改善するための新規の解決策を提供する。
具体的には、提案されている開示は、HDR画像/ビデオの送信/圧縮の問題に、第1のダイナミックレンジを有する画像を符号化および送信する代わりに、第1のダイナミックレンジを有する画像のひな型と、第2のダイナミックレンジを有する画像とを符号化および送信することによって対処する。
また、本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を、上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するためのデバイスであって、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を得るためのモジュールと、
− 第1のダイナミックレンジを有する上記画像を第2のダイナミックレンジを有する上記画像および上記第1のひな型から生成するためのモジュールとを備えるデバイスに関する。
そのようなデバイスは、本明細書で上述されている生成方法を実施するように特に適合され得る。それは、当然ながら、本開示の一実施形態による生成方法に関する異なる特徴を含むことができ、それらを組み合わせることも、別々にとることもできる。したがって、このデバイスの特徴および利点は、生成方法のものと同じであり、あまり十分に詳しくは記載されていない。
さらに、本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を符号化するためのデバイスであって、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を決定するためのモジュールと、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を得るためのモジュールと、
− 第2のダイナミックレンジを有する上記画像を符号化するためのモジュールと、
− 上記第1のひな型を符号化するためのモジュールとを備えるデバイスに関する。
このようなデバイスは、本明細書で上述されている符号化方法を実施するように特に適合され得る。それは、当然ながら、本開示の一実施形態による符号化方法に関する異なる特徴を含むことができ、それらを組み合わせることも、別々にとることもできる。したがって、このデバイスの特徴および利点は、符号化方法のものと同じであり、あまり十分に詳しくは記載されていない。
さらに、本開示は、第1のダイナミックレンジを有する少なくとも1つの画像を復号するためのデバイスであって、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を復号するためのモジュールと、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を復号するためのモジュールと、
− 第1のダイナミックレンジを有する上記画像を、第2のダイナミックレンジを有する上記画像および上記第1のひな型から生成するためのモジュールとを備えるデバイスに関する。
もう一度、そのようなデバイスは、本明細書で上述されている復号方法を実施するように特に適合され得る。それは、当然ながら、本開示の一実施形態による復号方法に関する異なる特徴を含むことができ、それらを組み合わせることも、別々にとることもできる。したがって、このデバイスの特徴および利点は、復号方法のものと同じであり、あまり十分に詳しくは記載されていない。
本開示の他の特徴は、生成方法および/または符号化方法および/または復号方法を実施するように適合されたソフトウェアコードを含む、通信ネットワークからダウンロード可能な、および/またはコンピュータによって読取り可能な媒体上に記録された、および/またはプロセッサによって実行可能なコンピュータプログラム製品に関し、このソフトウェアコードは、上記の方法のうちの少なくとも1つのステップを実施するように適合される。
さらに、本開示は、プロセッサによって実行されることが可能であり、前述の方法のうちの少なくとも1つのステップを実施するためのプログラムコード命令を含むコンピュータプログラム製品が記録されている非一時的なコンピュータ可読媒体に関する。
開示されている実施形態と範囲が等しいいくつかの特徴が下記に記載されている。これらの特徴は、本開示がとる可能性があるいくつかの形態の簡単な概要を読者に提供するために提示されているにすぎないこと、また、これらの特徴は、本開示の範囲を限定するものではないことを理解されたい。実際には、本開示は、下記に記載されていないことがある様々な特徴を包含することがある。
本開示は、添付の図を参照して、決して限定的なものでない以下の実施形態および実行例によってよりよく理解され、例示されることになる。
本開示の一実施形態による、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像から生成するための方法の主なステップを示す流れ図である。 本開示の一実施形態による、LDRからHDRへの変換およびアップスケール化に適用される超解像技法の図である。 本開示の一実施形態による、第1のダイナミックレンジを有する画像を符号化するための方法の主なステップの図である。 本開示の一実施形態による、第1のダイナミックレンジを有する画像を復号するための方法の主なステップの図である。 図1による生成方法を実施するデバイスのブロック図である。 図3による符号化方法を実施するデバイスのブロック図である。 図4による復号方法を実施するデバイスのブロック図である。
図1および図3から図7では、表されているブロックは、純粋に機能的なエンティティであり、必ずしも物理的に別々のエンティティに対応しない。すなわち、これらは、ソフトウェア、ハードウェアの形態で開発されることも、1または複数のプロセッサを含めて1または複数の集積回路内で実施されることもあり得る。
本開示の図および説明は、本開示を明確に理解するために関連がある要素を示すために簡素化されており、一方、見やすくするためにひな型的な符号化デバイスおよび/または復号デバイスに見出される多数の他の要素を省いている。
5.1 第1のダイナミックレンジを有する画像/ビデオを第2のダイナミックレンジを有する画像/ビデオから生成する
5.1.1 一般原理
第1のダイナミックレンジを有する少なくとも1つの画像を上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するための方法の主なステップが図1に示されている。
たとえば、第1のダイナミックレンジを有する画像がHDR画像であり、第2のダイナミックレンジを有する画像がLDR画像であると考えてみよう。
第1のステップ11中、第1のひな型またはHDRひな型と呼ばれる第1のダイナミックレンジを有する画像(HDR画像)のひな型が得られる。
ひな型手法は、画像内の繰り返されるコンテンツを利用することによって画像内の冗長な情報(テクスチャ)を削減することを目的とする。異なる技法を使用し、第1のひな型を構築することができる。たとえば、H.Hoppe(“Factoring Repeated Content Within and Among Images”−ACM Transaction on Graphics,vol.27,no.3,pp.1−10,2008)もしくはS.Cherigui(“Epitome−based image compression using translational sub−pel mapping”−Proceedings of IEEE MMSP 2011)に開示されている技法、またはPCT出願国際公開第2012/097919号パンフレット(”Method and device for extracting an epitome”−THOMSON LICENSING)に開示されている技法を、符号化側で使用可能な第1のダイナミックレンジを有する元の画像に適用して、第1のひな型を計算することができる。これらの技法は、任意のタイプの画像/ビデオのために記載されているので、これらは当然ながらHDR画像/ビデオに当てはまる。
さらに、第1のひな型の符号化を、従来のLDR画像/ビデオとの逆方向互換性と共にHDR画像を符号化するために標準化し送信することができる。
第2のステップ12中、第1のダイナミックレンジを有する画像(HDR画像)が第2のダイナミックレンジを有する画像(LDR画像)および第1のひな型(HDRひな型)から生成される。
換言すれば、本開示は、より高いダイナミックレンジを有するHDR画像を得るために、より低いダイナミックレンジを有するLDR画像の画素のルミナンス値を変更することを目的とする。
たとえば、第1のひな型は、復号器によって受信することができ、復号器は、第1のひな型、および第2のダイナミックレンジを有する画像から、第1のダイナミックレンジを有する画像を生成することができる。したがって、第1のひな型は、LDRからHDRへの変換の助けとなるように使用される。
次に、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成する第2のステップ12についてより詳細に述べよう。
5.1.2 現実の光情報を使用する
本開示の少なくとも1つの実施形態によると、現況技術からの逆トーンマッピング演算子を、上述の技法を使用して改善することができる。
一般に、Banterle et al.in “Real−Time High Fidelity Inverse Tone Mapping for Low Dynamic Range Content”,in proceedings of EuroGraphics 2013に記載のものなどiTMOが、あるレンジからより高いものにダイナミクスを拡張するために使用される。
この技法によると、最初に、カメラ応答関数を使用して、またはガンマを除去して、LDR画像が線形化される。次いで、線形化された画像は、写真演算子の逆数を使用して伸長され、これは、制御可能な非線形の膨張曲線をもたらす。これは、
として定義され、ここで、Lw(x)は、線形化された画像の画素xにおける伸長されたルミナンスであり、Ld(x)は、入力線形化LDRルミナンスであり、Lwhiteは、曲線の引き伸ばしを決定し、βはパラメータであり、所望の最大ルミナンス出力を決定する。
次いで、光源サンプルが、サンプリングアルゴリズム、たとえば中央値切捨てを使用して、線形化されたLDR画像から抽出される。次いで、スムースフィールドΛが、密度推定を
として使用して生成され、ここで、xは、評価するための現在の画素の位置であり、Ωは、中心xおよび半径rsの球の内側のサンプルのセットであり、Vは、Ωの体積であり、Ψpは、p番目のサンプルのパワーであり、Kは、
max:フィルタリングの強さを変更する、帯域幅と呼ばれる密度推定子のパラメータ
:x周りの元の画像のサブ空間(またはカーネルのサイズ)
p:サブ空間
内に含まれるx周りのサンプルのセット
によって定義されるカーネル密度推定子である。
サンプリング中、大きな低ルミナンスエリアがあるため、いくつかの孤立したサンプルが生成され得る。これらは、孤立した異常値(outlier)、すなわち伸長されることを必要としないエリアを作り出す可能性がある。この問題は、||Ω||<nsminである場合、密度推定を無効にするセットをクランプすることによって解決することができ、ここでnsminは閾値である。
スムースフィールドΛが計算され、交差両方向性フィルタ(cross−bilateral filter)を使用してフィルタリングされた後で、HDR画像の最終ルミナンス値を得るために、伸長された値Lw(x)および線形化されたLDRルミナンス値Ld(x)が、Λ(x)を重みとして使用して線形内挿される。
本開示の少なくとも1つの実施形態により既存のiTMOを改善するために、Λ(x)重みは、LDR画像からの現実の光状態の拡張の代わりに、第1のひな型から決定される現実の光状態に基づくものとすることができる。
従来技術の技法による「ブラインド外挿」は、実際に、人工的な光を生み出す可能性があるが、ひな型は、現実の値を保証する。したがって、ひな型は、疎である場合でさえ、iTMOが使用することができる現実の光情報を提供する。
その場合、近傍マッチング基準を使用し、HDR画像を生成するためにLDR画像の光を拡張することを可能にする重み係数マップである光マップまたは拡張マップ(expand map)(Banterleによる命名)から最も近いひな型チャートを見出すことができる。あるいは、同じ場所からのひな型(存在するとき)を使用し、外挿された値を現実の値によって置き換えることができる。次いで、空間フィルタリングが光マップを平滑化する。この技法は、すべての種類のiTMOに当てはまることに留意されたい。
現在のブロックについて近傍マッチングひな型を見出すために、1つの解決策は、現在のブロックとすべてのひな型ブロックとの差を計算し、最低の差を有するものを選択すること(近傍マッチ)からなる。この差は、LDRブロックとHDRブロックとの光レベル差を考慮するために、ブロックの平均ルミナンス値を除去した後で計算され得る。あるいは、HDRひな型を、(前述のように)最初にLDRひな型に変換して、次いで同じ光領域内の差を計算することができる。
したがって、ステップ12中、第1のダイナミックレンジを有する画像を、第1のひな型から得られた現実の光情報で生成することができる。
5.1.3 マッピング関数を決定する
本開示の少なくとも1つの実施形態によると、マッピング関数を使用して、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成することができる。
そのようなマッピング関数は、第2のひな型と呼ばれる第2のダイナミックレンジを有する画像のひな型と、第2のダイナミックレンジを有する画像との間で決定され得、次いで、第1のダイナミックレンジを有する画像を生成するために第1のひな型に適用され得る。
第2のひな型は、たとえば前述のH.Hoppeによって、S.Cheriguiによって開示されているもの、または国際公開第2012/097919号パンフレットに開示されている技法など、任意の技法を使用して決定され得る。たとえば、第1のひな型および第2のひな型は、適切な情報が両ひな型に含まれるように、同じ技法を使用して計算され得る。他の例によると、第2のひな型は、第1のひな型の計算に使用される第1の画像のブロックより同じ位置に位置する第2の画像のブロックから計算される。
マッピング関数は、異なるタイプのものとすることができる。
第1の例によると、マッピング関数は、第2のひな型と第2のダイナミックレンジを有する画像との間の変換マップである。この変換マップは、第2のひな型を第2のダイナミックレンジを有する画像にマッピングするために設計された1組の割当てベクトルを含む。
そのような変換マップは、たとえば、S.Cheriguiによって開示されたひな型を計算するための上述の技法を使用してひな型と共に出力される。
したがって、第1のダイナミックレンジを有する画像は、変換マップを第1のひな型に適用することによって、すなわち、第2のひな型を第2のダイナミックレンジを有する画像にマッピングするために設計されたものより同じ割当てベクトルを第1のひな型に適用することによって、単純に生成され得る。
第2の例によると、マッピング関数は、局所線形埋込み技法(LLE)から決定され、第2のダイナミックレンジを有する画像内の少なくとも1つのブロックと、第2のひな型内のK個のパッチとの間の一次結合であり、ここでK>1である(パッチは、ひな型から抽出される1つのテクスチャ情報である)。
この第2の例によると、第2のダイナミックレンジを有する画像内の少なくとも1つのブロックxiを得るために第2のひな型内の上記K個のパッチの各パッチ
に割り当てられることになる重みwi,kが、
などで決定され、ここで
であり、Kは、第2のダイナミックレンジを有する画像の1つのブロックから得られる第2のひな型内のパッチの数である。
第2のひな型内の上記K個のパッチは、第1のひな型内で選択されるK個の対応するパッチから決定される。
次いで、
など、第1のダイナミックレンジを有する画像の少なくとも1つのブロックyiを再構築するために、重みwi,kが第1のひな型内の上記K個の対応するパッチの各パッチ
に適用される。
LLE関数を使用する代わりに、非局所平均(NLM)関数を使用し、マッピング関数を決定することができる。
たとえば、第3の例によると、マッピング関数は、線形回帰またはカーネル回帰を使用して決定される。次いで、たとえばLLEの代わりに、線形回帰またはカーネル回帰など別の局所学習技法を使用することができる。
たとえば、第2のダイナミックレンジを有する画像の各重なり合うブロック(重なり係数は、調整することができ、8×8ブロックについて7に設定することができるパラメータである)について、第2のひな型内のK近傍(K−NN)パッチを求めて探索する。第1のひな型内の対応する(すなわち、共存する、または同じ位置にある)パッチもまた選択され、したがって回帰(線形回帰またはカーネル回帰)を使用してマッピング関数F1を学習するために使用されるパッチの対を形成する。
次いで、多変量線形回帰を考えると、||(MhT−(MlT1 T||2を最小にする関数F1を求めて探索する問題である。
そのような関数は、||Y−XB||2の形態にあり、したがって線形回帰モデルY=XB+Eに対応する。
そのような関数の最小化は、最小二乗推定子F1=Mh(MlT(Ml(MlT-1をもたらす。
ここで、Mhは、その列が第1のひな型パッチ
によって形成される行列であり、Mlは、その列が第2のひな型の対応するパッチ
によって形成される行列であり、i=1...Kであり、(.)Tは、転置演算子である。
第2のひな型パッチ
は、第2のダイナミックレンジを有する画像からとられ、それらの位置は、第1のひな型パッチ
の位置と一致する。
5.1.4 超解像技法を改善する
超解像技法もまた、上述の技法を使用して改善することができる。
より具体的には、従来の超解像技法は、未知の高解像度(HR)画像を回復するために1組の低解像度(LR)画像を融合しようと試みる。
たとえば、IEEE International Conference on Image Processing(ICIP)2013,“Optimized Neighbor Embeddings For Single−Image Super−Resolution”M. Turkan et al.およびIEEE International Conference on Image Processing(ICIP)2014,“Iterated Neighbor−Embeddings For Image Super−Resolution”M. Turkan et al.において、外部情報またはデータベースを使用しない単一の低解像度画像からのピラミッド型の超解像(SR)法が提案されている。この方法は、低解像度画像および高解像度画像のパッチ空間の局所的な幾何学的類似性に依拠する。近傍の入力(平均減算された、またはされていない)LRパッチの固有の幾何学的特性が、入力LRパッチ、およびLR画像のアクロススケール(the across scales)からとられたそのK近傍(K−NN)から得られる。
局所的なLRジオメトリは、そのK−NNからの入力LRパッチの局所線形埋込み(LLE)再構築係数で線形的に特徴付けられる。次いで、HR埋込みが、局所的なLRジオメトリがHRパッチ空間内に保存されていると想定することによって、入力LRパッチの見出されたK−NNの対応する(平均減算された、またはされていない)HRの親から推定(錯覚)される。次いで、現在のHRパッチの推定値が、入力LRパッチの平均値を加算することによって得られる。LR画像内の各パッチについて、近傍のLRの局所的なジオメトリを保存して、HR埋込みが計算されている。標的HR画像における局所的な互換性および平滑度制約を実施するために、パッチ間の重なり合いが可能な限り可能にされる。
次いで、重なり領域画素を、疎な表現をベースとする重み付け尺度に応じて線形的に組み合わせることができる。この方法では、入力LRパッチおよび推定されたHRパッチの連結が、LR画像およびそのアクロススケールからとられたLR画像パッチおよびHR画像パッチから構成される辞書にわたって分解されている。指数関数的カーネルを使用して、これらのパッチは、それらの表現の疎度に応じて重み付けされる。すなわち、最も疎な表現に最高の重みが与えられる、などである。
本開示の少なくとも1つの実施形態によると、どの超解像技法も、ひな型の使用可能性のおかげで改善され得る。たとえば、上記の多層方式を、ダイナミックレンジの拡張に適合させることができる。
たとえば、図2に示されているように、LR画像に対応する第2のダイナミックレンジを有する画像21、およびその第2のひな型22を考えてみよう。また、我々が得たいと望むHR画像に対応する第1のダイナミックレンジを有する画像24の第1のひな型23も考えてみよう。この例では、我々が生成したいと望む第1のダイナミックレンジを有する画像が、第2のダイナミックレンジを有する画像に比べてアップサンプリングされると考える。したがって、アップサンプリングとダイナミックレンジ変換は共に、同時に、または2つの連続するステップで実施され得る。
一例として、LLE線形内挿は、たとえば図2においてK=2で、K−NNパッチを使用して行われ得る。K−NNパッチは、第2のひな型22内で探索され、対応するパッチは、第1のひな型23内で識別される。
したがって、重みwi,kが、「LR」データに対して計算され、第1のひな型23内のK個の対応するパッチに適用され、画像/ビデオのHDRバージョンを再構築する。
重みwi,kは、
として計算され、ここで
であり、iは、内挿されることになる第2のダイナミックレンジを有する画像内のブロックxi(LDRブロック)の現在の場所であり、kは、第2のひな型(LDRひな型)内のK−NN選択されたパッチ
のインデックスである。
換言すれば、
第2のひな型22内の各パッチ
にそれぞれ適用される重みwi,1、wi,2は、第2のダイナミックレンジを有する画像21内の少なくとも1つのブロックxiを得るために、
などで決定される。
LLEは、重みwi,kを計算するとき平均ルミナンス値を除去することに留意されたい。
重みwi,kが計算された後で、それらは、
など、第1のダイナミックレンジを有する画像の少なくとも1つのブロックyiを再構築するために、それらを第1のひな型内のK個の対応するパッチの各パッチ
に適用することができる。
換言すれば、HDRブロックを再構築するために、線形内挿が第1のひな型内のパッチ
から実施され、ここで、パッチ
は、第2のひな型内で選択されたパッチ
の第1のひな型内の共存する(i,k)K−NNパッチである。
たとえば、第1のダイナミックレンジを有する画像24の少なくとも1つのブロックyi(HDRブロック)を再構築するために、重みwi,1、wi,2が、第1のひな型23内の各パッチ
にそれぞれ適用される。
具体的には、LR/LDRレイヤ内のパッチ/ブロックのサイズは、HR/HDRレイヤのサイズより小さい(この比は、HRレイヤ対LRレイヤの解像度の比である)。
したがって、既存の超解像技法は、本開示を使用して改善され得る。
対応するマップがひな型と共に使用可能である場合、K−NN探索はもはや必要ないことに留意されたい。
さらに、上記のように、マッピング関数もまた、LLEの代わりに、線形回帰またはカーネル回帰などNLMを使用して決定することができる。
5.1.5 変形形態
図2に示されている本開示の1つの実施形態によると、第1のダイナミックレンジを有する画像を生成するステップは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する上記画像をアップサンプリングすることをさらに含む。
このようにして、より高いダイナミックレンジへのアップサンプリングおよび変換は、同時に実施され得る。他の実施形態によると、より高いダイナミックレンジへのアップサンプリングおよび変換は、2つの連続するステップで実施される。
他の実施形態によると、第1のダイナミックレンジを有する画像を生成するステップは、
− 第2のダイナミックレンジを有する推定された画像を、第1の反復のために第1のダイナミックレンジを有する上記画像から、または以下の反復のために第1のダイナミックレンジを有する上記補正された画像から得るステップ、
− 第2のダイナミックレンジを有する上記画像と第2のダイナミックレンジを有する上記推定された画像との推定誤差を決定するステップ、および
− 推定誤差に応答して、第1のダイナミックレンジを有する上記画像を補正して、第1のダイナミックレンジを有する補正された画像を得るステップのうちの少なくとも1つの反復を含む。
生成された画像が一貫したものであるかどうかチェックするために使用される反復的な逆投影技法を、任意選択で、ダイナミックレンジ変換(HDR再構築)、またはHDR再構築とアップスケール化の両方のために追加することができる。逆投影は、再構築されたHDR(/HR)画像をLDR(/LR)画像にダウンコンバートし、使用可能なLDR(/LR)との差を計算し、この差をHDR(/HR)差にアップコンバートして戻し、それを再構築されたHDR(/LR)に追加することにある。
アップスケール化動作のためには、動的動作のためにTMO演算子およびiTMO演算子の使用可能性を想定するとき、線形内挿フィルタが使用される。
さらに、重なり合うブロックのための上記の技法は、重なり合わないブロックのために使用され得る。
5.2 第1のダイナミックレンジを有する画像/ビデオを第2のダイナミックレンジを有する画像/ビデオから符号化/復号する
第1のダイナミックレンジを有する少なくとも1つの画像を、上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するための方法を使用し、第1のダイナミックレンジを有する画像/ビデオの符号化/復号を改善することができる。
HDR画像/ビデオの符号化/復号、特に送信/圧縮の問題に対処するために、異なる技法が提案されている。
たとえば、JPEGは、HDR画像をサポートするためにそのコーディング方式の拡張を、またRGBEとして知られる共有指数浮動小数点色フォーマット、および他の16ビットおよび32ビット固定小数点色成分表現を介してやはりHDRをサポートするJPEG−XRフォーマットを標準化した。
また、MPEGは、MPEG HEVCのためのHDRビデオのサポートを検討している。
しかし、そのような技法は、送られることになるデータのサイズに、または再構築された画像の制限された品質に悩まされている。
5.2.1 符号化器
本開示による、第1のダイナミックレンジを有する少なくとも1つの画像を符号化するための方法の主なステップが図3に示されている。
第1のステップ31中、第1のダイナミックレンジを有する画像、たとえばHDR画像のひな型が決定される。元のHDR画像は、実際に符号化側で使用可能とすることができる。
第2のステップ32中、上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像、たとえばLDR画像が得られる。
たとえば、LDR画像は、トーンマッピング演算子を使用してHDR画像から得られる。点線で示された変形形態では、LDR画像は、符号化側にて、たとえば取込みデバイスから直接使用可能である。
第3のステップ33中、第2のダイナミックレンジを有する画像(LDR)、および第1のひな型(HDRひな型)が符号化される。第1のひな型は、メタデータ符号化のための任意のデバイスを使用して符号化され得る(331)。それは、従来の符号化方式または専用のものを使用して符号化され得る。第2のダイナミックレンジを有する画像は、任意の画像またはビデオ符号化器(MPEG、JPEG、...)を使用して符号化され得る(332)。
次いで、復号器側で第1および第2のダイナミックレンジの画像/ビデオバージョンを再構築するために、LDR画像/ビデオおよびHDRひな型を、たとえば2つの異なるネットワーク(ブロードキャストおよびIP)もしくは2つのIPリンクを使用することによって別々に、または、たとえばLDR画像/ビデオおよびHDRひな型を同じストリーム内で共に多重化することによって同時に送信することができる。したがって、ひな型は、HDR画像/ビデオを符号化するために使用されるメタデータとみなされ得る。
第1のひな型は、専用のMPEG SEIメッセージとして、関連の画像(たとえば、MPEGにおけるデプスマップと同様のもの)として、プライベートデータとして、またはたとえばMPEG−2 TSシンタックスを使用して送信され得る。
ひな型が疎である場合、低いビットレートが使用されるべきであることに留意されたい。
5.2.2 復号器
本開示による、第1のダイナミックレンジを有する少なくとも1つの画像を復号するための方法の主なステップが図4に示されている。
復号の第1のステップ41中、第2のダイナミックレンジを有する画像(LDR)および第1のひな型(HDRひな型)が復号される。第1のひな型は、メタデータ復号のための任意のデバイスを使用して復号され得る(411)。それは、従来の復号方式または専用のものを使用して復号され得る。第2のダイナミックレンジを有する画像は、任意の画像またはビデオ復号器(MPEG、JPEG、...)を使用して復号され得る(412)。
第2のステップ42中、第1のダイナミックレンジを有する画像(HDR)が、第2のダイナミックレンジを有する画像および第1のひな型(復号されたもの)から生成または再構築される。
第1のダイナミックレンジを有するそのような画像は、上記の生成方法を使用して生成され得る。
5.3 デバイス
図5は、本開示の一実施形態による、第1のダイナミックレンジを有する少なくとも1つの画像を第2のダイナミックレンジを有する画像から生成するためのデバイスの一例を概略的に示す。生成デバイスの本質的な要素だけが示されている。
そのような生成デバイスは、少なくとも、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する画像のひな型を得るためのモジュール51と、
− 第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成するためのモジュール52と、
− 揮発性メモリなど記憶手段53と、
− デバイスの不揮発性メモリ内に記憶されたアプリケーションおよびプログラムを実行するための1または複数のプロセッサ54と、
− 生成デバイスの機能を実施するための当業者に周知の様々なモジュールおよびすべての手段を接続するための内部バスB1とを備える。
図6は、本開示の一実施形態による、第1のダイナミックレンジを有する少なくとも1つの画像を符号化するためのデバイスの一例を示す。符号化デバイスの本質的な要素だけが示されている。
そのような符号化デバイスは、少なくとも、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を決定するためのモジュール61と、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を得るためのモジュール62と、
− 第2のダイナミックレンジを有する画像を符号化するためのモジュール63と、
− 上記第1のひな型を符号化するためのモジュール64と、
− 揮発性メモリなど記憶手段65と、
− デバイスの不揮発性メモリ内に記憶されたアプリケーションおよびプログラムを実行するための1または複数のプロセッサ66と、
− 符号化デバイスの機能を実施するための当業者に周知の様々なモジュールおよびすべての手段を接続するための内部バスB2とを備える。
図7は、本開示の一実施形態による、第1のダイナミックレンジを有する少なくとも1つの画像を復号するためのデバイスの一例を示す。復号デバイスの本質的な要素だけが示されている。
そのような復号デバイスは、少なくとも、
− 上記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を復号するためのモジュール71と、
− 第1のひな型と呼ばれる、第1のダイナミックレンジを有する上記画像のひな型を復号するためのモジュール72と、
− 第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する上記画像および上記第1のひな型から生成するためのモジュール73と、
− 揮発性メモリなど記憶手段74と、
− デバイスの不揮発性メモリ内に記憶されたアプリケーションおよびプログラムを実行するための1または複数のプロセッサ75と、
− 復号デバイスの機能を実施するための当業者に周知の様々なモジュールおよびすべての手段を接続するための内部バスB3とを備える。
そのような生成デバイス、符号化デバイス、および/または復号デバイスは、それぞれ、純粋にソフトウェアによる実現、純粋にハードウェアによる実現(たとえば、ASIC、FPGA、VLSI...のような専用コンポーネント)により実施することも、デバイス内に集積されたいくつかのエレクトロニクスコンポーネントのものである、またはハードウェア要素とソフトウェア要素の混合の形態であることもできる。
図における流れ図および/またはブロック図は、本開示の様々な実施形態によるシステム、方法、およびコンピュータプログラム製品の可能な実現の構成、動作、および機能を示す。これに関して、流れ図またはブロック図内の各ブロックは、指定された論理機能を実施するための1または複数の実行可能命令を含むモジュール、セグメント、またはコードの一部分を表すことができる。
たとえば、第1のダイナミックレンジを有する画像のひな型を得るためのモジュール51、および第1のダイナミックレンジを有する画像を生成するためのモジュール52は、生成デバイスのメモリ内に記憶されたソフトウェアコンポーネントとして提供されてもよい。1または複数の処理ユニット54は、様々なソフトウェアプログラムおよび/またはソフトウェアコンポーネントの命令のセットを実行し、様々な実施形態のとおりに、第1のダイナミックレンジを有する画像のひな型を得て、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成するそれぞれの機能を実施するように構成されてもよい。
第1のダイナミックレンジを有する画像のひな型を決定するためのモジュール61、第2のダイナミックレンジを有する画像を得るためのモジュール62、第2のダイナミックレンジを有する画像を符号化するためのモジュール63、および上記第1のひな型を符号化するためのモジュール64もまた、符号化デバイスのメモリ内に記憶されたソフトウェアコンポーネントとして提供されてもよい。1または複数の処理ユニット66は、様々なソフトウェアプログラムおよび/またはソフトウェアコンポーネントの命令のセットを実行し、様々な実施形態のとおりに、第1のダイナミックレンジを有する画像のひな型を決定し、第2のダイナミックレンジを有する画像を得て、第2のダイナミックレンジを有する画像を符号化し、上記第1のひな型を符号化するそれぞれの機能を実施するように構成されてもよい。
第2のダイナミックレンジを有する画像を復号するためのモジュール71、第1のダイナミックレンジを有する画像のひな型を復号するためのモジュール72、および第1のダイナミックレンジを有する画像を生成するためのモジュール73は、復号デバイスのメモリ内に記憶されたソフトウェアコンポーネントとして提供されてもよい。1または複数の処理ユニット75は、様々なソフトウェアプログラムおよび/またはソフトウェアコンポーネントの命令のセットを実行し、様々な実施形態のとおりに、第2のダイナミックレンジを有する画像を復号し、第1のひな型と呼ばれる、第1のダイナミックレンジを有する画像のひな型を復号し、第1のダイナミックレンジを有する画像を第2のダイナミックレンジを有する画像および第1のひな型から生成するそれぞれの機能を実施するように構成されてもよい。
また、いくつかの代替の実施形態では、ブロック内に記載の機能は、図に記載の順序から外れて行われてもよい。たとえば、含まれる機能に応じて、連続して示されている2つのブロックは、実際には、実質的に同時に実行されてもよく、またはそれらのブロックは、逆の順序で実行されることがあってもよく、またはブロックは、交互の順序で実行されてもよい。また、ブロック図および/または流れ図の各ブロック、ならびにブロック図および/または流れ図のブロックの組合せは、指定された機能もしくは行為を実施する専用ハードウェアをベースとするシステム、または専用ハードウェアとコンピュータ命令の組合せによって実施され得る。明示的に記載されていないが、本実施形態は、任意の組合せまたはサブコンビネーションで使用され得る。
当業者には理解されるように、本原理の特徴は、システム、方法、コンピュータプログラム、またはコンピュータ可読媒体として具体化され得る。したがって、本原理の特徴は、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェアの特徴とハードウェアの特徴を組み合わせる実施形態の形態をとることができ、これらをすべて、本明細書では、全体的に「回路」「モジュール」または「システム」と呼ぶことができる。さらに、本原理の特徴は、コンピュータ可読記憶媒体の形態をとることができる。1または複数のコンピュータ可読記憶媒体の任意の組合せが使用されてもよい。
コンピュータ可読記憶媒体は、1または複数のコンピュータ可読媒体内に含まれ、コンピュータによって実行可能なコンピュータ可読プログラムコードが含まれるコンピュータ可読プログラム製品の形態をとることができる。本明細書で使用されるコンピュータ可読記憶媒体は、情報を記憶するための本来固有の能力、ならびに情報をそこから取り出すための本来固有の能力を考えると、非一時的な記憶媒体と考えられる。コンピュータ可読記憶媒体は、たとえば、それだけには限らないが、電子、磁気、光、電磁、赤外線、もしくは半導体のシステム、装置、もしくはデバイス、または前述のものの任意の好適な組合せとすることができる。本原理を適用することができるコンピュータ可読記憶媒体のより特定の例を提供するが、以下、すなわちポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、消去可能プログラム可能な読出し専用メモリ(EPROMもしくはフラッシュメモリ)、ポータブルコンパクトディスク読出し専用メモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、または前述のものの任意の好適な組合せは、当業者には容易に理解されるように、例示的なものにすぎず、網羅的なリストではないことを理解されたい。

Claims (19)

  1. 第1のダイナミックレンジを有する少なくとも1つの画像を、前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するための方法であって、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を得るステップ(11)と、
    − 第1のダイナミックレンジを有する前記画像を第2のダイナミックレンジを有する前記画像および前記第1のひな型から生成するステップ(12)と、
    を含む、前記方法。
  2. 第1のダイナミックレンジを有する前記画像を生成するステップ(12)は、
    − 第2のひな型と呼ばれる第2のダイナミックレンジを有する前記画像のひな型を、第2のダイナミックレンジを有する前記画像から決定するステップと、
    − 前記第2のひな型と第2のダイナミックレンジを有する前記画像との間の変換マップを決定するステップと、
    − 前記変換マップを前記第1のひな型に適用し、第1のダイナミックレンジを有する前記画像を生成するステップと、
    を含む、請求項1に記載の方法。
  3. 第1のダイナミックレンジを有する前記画像を生成するステップは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する前記画像をアップサンプリングすることをさらに含む、請求項1又は2に記載の方法。
  4. − 第2のダイナミックレンジを有する推定された画像を、第1の反復のために第1のダイナミックレンジを有する前記画像から、または以降の反復のために第1のダイナミックレンジを有する前記補正された画像から得るステップ、
    − 第2のダイナミックレンジを有する前記画像と第2のダイナミックレンジを有する前記推定された画像との推定誤差を決定するステップ、および
    − 前記推定誤差に応答して、第1のダイナミックレンジを有する前記画像を補正し、第1のダイナミックレンジを有する補正された画像を得るステップ
    のうちの少なくとも1つの反復を含む、請求項1から3のいずれかに記載の方法。
  5. 第1のダイナミックレンジを有する少なくとも1つの画像を復号するための方法であって、
    − 前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を復号するステップ(411)と、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を復号するステップ(412)と、
    − 第1のダイナミックレンジを有する前記画像を第2のダイナミックレンジを有する前記画像および前記第1のひな型から生成するステップ(42)と、
    を含む、前記方法。
  6. 第1のダイナミックレンジを有する前記画像を生成するステップは、
    − 第2のひな型と呼ばれる第2のダイナミックレンジを有する前記画像のひな型を、第2のダイナミックレンジを有する前記画像から決定するステップと、
    − 前記第2のひな型と第2のダイナミックレンジを有する前記画像との間の変換マップを決定するステップと、
    − 前記変換マップを前記第1のひな型に適用し、第1のダイナミックレンジを有する前記画像を生成するステップと、
    を含む、請求項5に記載の方法。
  7. 第1のダイナミックレンジを有する前記画像を生成するステップは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する前記画像をアップサンプリングすることをさらに含む、請求項5又は6に記載の方法。
  8. − 第2のダイナミックレンジを有する推定された画像を、第1の反復のために第1のダイナミックレンジを有する前記画像から、または以下の反復のために第1のダイナミックレンジを有する前記補正された画像から得るステップ、
    − 第2のダイナミックレンジを有する前記画像と第2のダイナミックレンジを有する前記推定された画像との推定誤差を決定するステップ、および
    − 前記推定誤差に応答して、第1のダイナミックレンジを有する前記画像を補正し、第1のダイナミックレンジを有する補正された画像を得るステップ
    のうちの少なくとも1つの反復を含む、請求項5に記載の方法。
  9. 第1のダイナミックレンジを有する少なくとも1つの画像を符号化するための方法であって、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を決定するステップ(31)と、
    − 前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を得るステップ(32)と、
    − 第2のダイナミックレンジを有する前記画像を符号化するステップ(331)と、
    − 前記第1のひな型を符号化するステップ(332)と、
    を含む、前記方法。
  10. 第1のダイナミックレンジを有する少なくとも1つの画像を、前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像から生成するためのデバイスであって、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を得るためのモジュール(51)と、
    − 第1のダイナミックレンジを有する前記画像を第2のダイナミックレンジを有する前記画像および前記第1のひな型から生成するためのモジュール(52)と、
    を備える、前記デバイス。
  11. 第1のダイナミックレンジを有する前記画像を生成することは、
    − 第2のひな型と呼ばれる第2のダイナミックレンジを有する前記画像のひな型を、第2のダイナミックレンジを有する前記画像から決定することと、
    − 前記第2のひな型と第2のダイナミックレンジを有する前記画像との間の変換マップを決定することと、
    − 前記変換マップを前記第1のひな型に適用し、第1のダイナミックレンジを有する前記画像を生成することと、
    を含む、請求項10に記載のデバイス。
  12. 第1のダイナミックレンジを有する前記画像を生成することは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する前記画像をアップサンプリングすることをさらに含む、請求項10又は11に記載のデバイス。
  13. 第1のダイナミックレンジを有する少なくとも1つの画像を復号するためのデバイスであって、
    − 前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を復号するためのモジュール(71)と、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を復号するためのモジュール(72)と、
    − 第1のダイナミックレンジを有する前記画像を、第2のダイナミックレンジを有する前記画像および前記第1のひな型から生成するためのモジュール(73)と、
    を備える、前記デバイス。
  14. 第1のダイナミックレンジを有する前記画像を生成することは、
    − 第2のひな型と呼ばれる第2のダイナミックレンジを有する前記画像のひな型を、第2のダイナミックレンジを有する前記画像から決定することと、
    − 前記第2のひな型と第2のダイナミックレンジを有する前記画像との間の変換マップを決定することと、
    − 前記変換マップを前記第1のひな型に適用し、第1のダイナミックレンジを有する前記画像を生成することと、
    を含む、請求項13に記載のデバイス。
  15. 第1のダイナミックレンジを有する前記画像を生成することは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する前記画像をアップサンプリングすることをさらに含む、請求項13又は14に記載のデバイス。
  16. 第1のダイナミックレンジを有する少なくとも1つの画像を符号化するためのデバイスであって、
    − 第1のひな型と呼ばれる、第1のダイナミックレンジを有する前記画像のひな型を決定するためのモジュール(61)と、
    − 前記第1のダイナミックレンジより低い第2のダイナミックレンジを有する画像を得るためのモジュール(62)と、
    − 第2のダイナミックレンジを有する前記画像を符号化するためのモジュール(63)と、
    − 前記第1のひな型を符号化するためのモジュール(64)と
    を備える、前記デバイス。
  17. プロセッサによって実行されることが可能であり、下記方法を実施するためのプログラムコード命令を含むコンピュータプログラム製品が記録されている非一時的なコンピュータ可読媒体であって、前記方法は、
    − 第1のひな型(epitome)と呼ばれる、第1のダイナミックレンジを有する画像のひな型を得るステップと、
    − 第1のダイナミックレンジを有する前記画像を第2のダイナミックレンジを有する画像および前記第1のひな型から生成するステップと、
    を含む、前記非一時的なコンピュータ可読媒体。
  18. 第1のダイナミックレンジを有する前記画像を生成するステップは、
    − 第2のひな型と呼ばれる第2のダイナミックレンジを有する前記画像のひな型を、第2のダイナミックレンジを有する前記画像から決定するステップと、
    − 前記第2のひな型と第2のダイナミックレンジを有する前記画像との間の変換マップを決定するステップと、
    − 前記変換マップを前記第1のひな型に適用し、第1のダイナミックレンジを有する前記画像を生成するステップと、
    を含む、請求項17に記載の非一時的なコンピュータ可読媒体。
  19. 第1のダイナミックレンジを有する前記画像を生成するステップは、第1のダイナミックレンジを有するアップサンプリングされた画像を生成するために、第2のダイナミックレンジを有する前記画像をアップサンプリングすることをさらに含む、請求項17又は18に記載の非一時的なコンピュータ可読媒体。
JP2016078891A 2015-04-09 2016-04-11 第1のダイナミックレンジを有する画像を生成、符号化、または復号するための方法およびデバイス、ならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体 Pending JP2016201800A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15305520.7 2015-04-09
EP15305520.7A EP3079364A1 (en) 2015-04-09 2015-04-09 Methods and devices for generating, encoding or decoding images with a first dynamic range, and corresponding computer program products and computer-readable medium

Publications (2)

Publication Number Publication Date
JP2016201800A true JP2016201800A (ja) 2016-12-01
JP2016201800A5 JP2016201800A5 (ja) 2019-04-11

Family

ID=52946495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078891A Pending JP2016201800A (ja) 2015-04-09 2016-04-11 第1のダイナミックレンジを有する画像を生成、符号化、または復号するための方法およびデバイス、ならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体

Country Status (5)

Country Link
US (1) US10271060B2 (ja)
EP (1) EP3079364A1 (ja)
JP (1) JP2016201800A (ja)
KR (1) KR20160121444A (ja)
CN (1) CN106060414A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109076256A (zh) * 2016-04-12 2018-12-21 索尼公司 发送设备、发送方法、接收设备和接收方法
EP3418972A1 (en) * 2017-06-23 2018-12-26 Thomson Licensing Method for tone adapting an image to a target peak luminance lt of a target display device
CN107942321B (zh) * 2017-11-21 2019-09-24 中国电子科技集团公司第四十一研究所 一种基于fpga的侧音测距中的测距音处理方法
WO2020046092A1 (ko) * 2018-09-02 2020-03-05 엘지전자 주식회사 비디오 신호의 부호화/복호화 방법 및 이를 위한 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7653261B2 (en) * 2004-11-12 2010-01-26 Microsoft Corporation Image tapestry
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8204338B2 (en) * 2008-02-14 2012-06-19 Microsoft Corporation Factoring repeated content within and among images
US8233739B1 (en) * 2008-08-29 2012-07-31 Adobe Systems Incorporated Patch jittering for visual artifact correction
US8340463B1 (en) * 2008-08-29 2012-12-25 Adobe Systems Incorporated Candidate pruning for patch transforms
KR101791919B1 (ko) * 2010-01-22 2017-11-02 톰슨 라이센싱 예시-기반의 초 해상도를 이용하여 비디오 압축을 위한 데이터 프루닝
WO2011097013A1 (en) * 2010-02-02 2011-08-11 Thomson Licensing Methods and apparatus for reducing vector quantization error through patch shifting
EP2591602A1 (en) * 2010-07-06 2013-05-15 Koninklijke Philips Electronics N.V. Generation of high dynamic range images from low dynamic range images
WO2012015359A1 (en) * 2010-07-26 2012-02-02 Agency For Science, Technology And Research Method and device for image processing
FR2966680A1 (fr) * 2010-10-25 2012-04-27 France Telecom Procedes et dispositifs de codage et de decodage d'au moins une image a partir d'un epitome hierarchique, signal et programme d'ordinateur correspondants
FR2966679A1 (fr) * 2010-10-25 2012-04-27 France Telecom Procedes et dispositifs de codage et de decodage d'au moins une image a partir d'un epitome, signal et programme d'ordinateur correspondants
EP2666291A1 (en) 2011-01-21 2013-11-27 Thomson Licensing Method and device for extracting an epitome
WO2012097882A1 (en) * 2011-01-21 2012-07-26 Thomson Licensing Method of coding an image epitome
US20140029672A1 (en) * 2011-01-21 2014-01-30 Thomson Licensing Method of coding a sequence of images and corresponding reconstruction method
JP6009538B2 (ja) * 2011-04-28 2016-10-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdr画像を符号化及び復号するための装置及び方法
EP2903288A1 (en) * 2014-01-30 2015-08-05 Thomson Licensing Method and apparatus for constructing an epitome from an image

Also Published As

Publication number Publication date
KR20160121444A (ko) 2016-10-19
CN106060414A (zh) 2016-10-26
US20160300335A1 (en) 2016-10-13
EP3079364A1 (en) 2016-10-12
US10271060B2 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
KR102263625B1 (ko) 티어드 신호 품질 계층에서의 모션 맵들 및 다른 보조 맵들의 업샘플링 및 다운샘플링
JP4875162B2 (ja) 画像強調
JP6214562B2 (ja) 適応型多次元データ分解
CN108028941B (zh) 用于通过超像素编码和解码数字图像的方法和装置
JP2021521517A (ja) ニューラルネットワークマッピングを用いるhdr画像表現
JP6111266B2 (ja) Hdrビデオをldrビデオと一緒にエンコードする方法および装置、一緒に符号化されたhdrビデオおよびldrビデオの一方を再構成する方法および装置ならびに非一時的な記憶媒体
KR20170031033A (ko) 과노출 정정을 위한 방법, 시스템 및 장치
WO2019001108A1 (zh) 视频处理的方法和装置
JP7416490B2 (ja) ビデオコーディングにおけるディープ・ニューラル・ネットワークに基づくフレーム間予測のための方法及び装置、およびコンピュータプログラム
EA032859B1 (ru) Многоуровневое декодирование сигнала и восстановление сигнала
KR20220124622A (ko) 이미지 압축 방법 및 이미지 압축 장치
JP6360841B2 (ja) 画像ダイナミックレンジ変換演算子を選択するための方法およびデバイス
JP2016201800A (ja) 第1のダイナミックレンジを有する画像を生成、符号化、または復号するための方法およびデバイス、ならびに対応するコンピュータプログラム製品およびコンピュータ可読媒体
CN115606179A (zh) 用于使用学习的下采样特征进行图像和视频编码的基于学习的下采样的cnn滤波器
CN111800629A (zh) 视频解码方法、编码方法以及视频解码器和编码器
Cheng et al. Iicnet: A generic framework for reversible image conversion
CN115272438A (zh) 一种面向三维场景重建的高精度单目深度估计系统及方法
WO2022266955A1 (zh) 图像解码及处理方法、装置及设备
WO2022126333A1 (zh) 图像填充方法及装置、解码方法及装置、电子设备及介质
JP2015019364A (ja) 画像圧縮装置及び方法
EP4300958A1 (en) Video image encoding method, video image decoding method and related devices
Xu et al. Joint learning of super-resolution and perceptual image enhancement for single image
CN115103118B (zh) 高动态范围图像生成方法、装置、设备及可读存储介质
US11979606B2 (en) Conditional recolor for video based point cloud coding
WO2024060161A1 (zh) 编解码方法、编码器、解码器以及存储介质

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210519