JP2021524694A - 撮像方法およびシステム - Google Patents

撮像方法およびシステム Download PDF

Info

Publication number
JP2021524694A
JP2021524694A JP2020570465A JP2020570465A JP2021524694A JP 2021524694 A JP2021524694 A JP 2021524694A JP 2020570465 A JP2020570465 A JP 2020570465A JP 2020570465 A JP2020570465 A JP 2020570465A JP 2021524694 A JP2021524694 A JP 2021524694A
Authority
JP
Japan
Prior art keywords
image
camera
ambient light
image data
light level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020570465A
Other languages
English (en)
Other versions
JP7003304B2 (ja
Inventor
ジー. ピエリ,エリザベス
ジー. ピエリ,エリザベス
アトキンス,ロビン
アン ピトラルツ,ジャクリーン
アン ピトラルツ,ジャクリーン
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション, ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2021524694A publication Critical patent/JP2021524694A/ja
Application granted granted Critical
Publication of JP7003304B2 publication Critical patent/JP7003304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6088Colour correction or control controlled by factors external to the apparatus by viewing conditions, i.e. conditions at picture output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/202Gamma control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)

Abstract

カメラなどのイメージセンサを用いて撮影された画像を処理するための、方法およびシステムを記載する。一実施形態において、前記撮影された画像の推定周囲光レベルが決定され、これは、視聴環境において、前記推定周囲光レベル下での前記画像の見かけ上のコントラストを保持するように前記画像を補正するために用いられる、光−光学伝達関数(OOTF)の算出のために用いられる。前記推定周囲光レベルは、カメラキャリブレーションから導出された露出パラメータおよびカメラ固有パラメータを含む関数を用いて、前記イメージセンサからの画素値をスケーリングすることにより決定される。

Description

関連出願への相互参照
本願は、2018年6月18日付け出願の米国仮出願第62/686,371号および2018年6月18日付け出願の欧州特許出願第18178266.5号に基づく優先権を主張し、これらの各々の全体を参考のため本願に援用する。
技術
本発明は、画像全般に関する。特に、本発明の一実施形態は、カメラまたは他のデバイスで撮影された画像に関する。
カメラによって撮影された元のシーンからのシーン画像を、様々な表示能力を有する1つ以上の表示装置(例えば、ターゲットディスプレイ)上で描画される表示画像に変換するために、しばしば画像処理動作が使用されるが、これらの動作は、ターゲットディスプレイ上に表示されたときに、元のシーンのシーン画像のコントラストおよび色度を保持しない場合がある。例えば、人間の視覚的には、ターゲットディスプレイ上で描画された表示画像は、その場で視聴者が見るもの、またはカメラが元のシーンから撮影するものとは、コントラストおよび色度が異なるように見えるかもしれない。これは、ドルビーのディスプレイマネジメントテクノロジー(Dolby’s Display Management technology)などの高度な画像処理技術が使用されている場合でも同様である。
本明細書において、「ディスプレイマネジメント」または「ディスプレイマッピング」という用語は、第1のダイナミックレンジ(例えば1000ニト)の入力ビデオ信号の画像またはピクチャを、限られた色域を有するかもしれないターゲットディスプレイを用いた第2のダイナミックレンジ(例えば500ニト)での表示にマッピングするために必要な処理(例えば、色調および色域マッピング)を意味する。ディスプレイマネジメントプロセスの例は、2016年1月14日付け出願の、「Display management for high dynamic range images」の名称を有するPCT特許出願第PCT/US2016/013352号(以下’352出願と呼ぶ)に見出すことができる。この出願の全体を参考のため本願に援用する。
典型的なコンテンツ制作パイプラインでは、映像は5ニトの周囲環境においてカラーグレーディングされる。実際には、視聴者は、例えば5ニト(暗いホームシアターで映画を見る場合など)、100〜150ニト(比較的明るいリビングルームで映画を見る場合など)、またはそれ以上(例えば、非常に明るい部屋や屋外の昼光下においてタブレットで映画を見る場合など)と、様々な周囲環境でコンテンツを表示することがあり得る。
本節に記載されているアプローチは、追求され得るアプローチであるが、必ずしも以前に想到されたり、追求されたアプローチであるとは限らない。したがって、特に明記されていない限り、本節に記載されているアプローチのいずれかが、本節に記載されているというだけで先行技術として適格であると仮定すべきではない。同様に、1つ以上のアプローチに関して特定された問題は、特に明記されていない限り、本節に基づいて先行技術において既に認識されたものであると仮定すべきではない。
本発明を、添付の図面の図において例示しているが、これに限定されるものではない。図面において、類似の参照符号は類似の要素を示している。
図1は、本発明の1つ以上の実施形態の一例をフローチャート形式で示す。 図2は、本発明の1つ以上の実施形態において使用され得る補正曲線または関数の実施形態を示す。 図3は、本発明の1つ以上の実施形態で使用可能な一連の動作を伴うシステムの例を示す。 図4は、本発明の1つ以上の実施形態を実行または実施するために使用できるデータ処理システムの一例を示す。
様々な実施形態および局面を、以下に考察する詳細を参照して説明される。添付の図面において、様々な実施形態を例示する。以下の説明および図面は例示的なものであり、これを限定するものとして解釈されるべきではない。数多くの具体的な詳細は、様々な実施形態の完全な理解を提供するために記載されている。しかしながら、特定の例においては、実施形態の簡潔な考察を提供するために、周知または従来の詳細は記載されていない。
本明細書中の「一実施形態(one embodiment)」または「ある実施形態(an embodiment)」への言及は、その実施形態に関連して記載された特定の特徴、構造、または特性が、少なくとも一実施形態に含まれ得ることを意味する。本明細書の様々な場所での「一実施形態において」という表現が現れるとき、必ずしもすべてが同じ実施形態を指すものではない。後述の図に描かれた処理は、ハードウェア(例えば、回路、専用ロジックなど)、ソフトウェア、またはその両方の組み合わせからなる処理ロジックによって実行される。以下では、いくつかの連続した動作について説明するが、説明された動作のいくつかは、異なる順序で実行されてもよいことを理解すべきである。また、一部の動作は順次ではなく並列に実行される場合がある。
本明細書に記載された実施形態は、カメラやスマートフォンなどのデバイス、またはカメラを含む他のデバイスによって撮影されたコンテンツから、見栄えの良いハイダイナミックレンジおよびスタンダードダイナミックレンジ画像ならびに映像を一貫して達成するために使用することができる。画像が撮影されたデバイスの露出および特性に関する情報を用いて、本実施形態は、画像のシーンにおける絶対的な明るさレベルを決定することができ、そしてこれを、画像の周囲条件を予測するために使用することができる。この情報を人間の明るさおよび色の知覚に関する知見と組み合わせることにより、撮影された画像は、元のシーンの周囲環境とは異なる可能性のある視聴環境で画像を表示しながら、シーンの元の環境におけるシーンの見た目を最もよく保持するような様態で、様々なディスプレイに対してマッピングすることができる。
シーン画像によって捉えられた、元のシーンのその場にいる視聴者に対する元のシーンの視覚的外観を、シーン−リファード(scene−referred)の視覚的外観と呼ぶことがある。シーン画像から導出/変換された表示画像が、表示装置上で描画されたときの視覚的外観を、ディスプレイ−リファード(display−referred)の視覚的外観と呼ぶことがある。
本明細書において、「視覚的外観」という用語は、視覚的に知覚可能なコントラストと視覚的に知覚可能な色度(色相および彩度)との組み合わせを意味し、または視覚的に知覚可能なコントラストと視覚的に知覚可能な色相との組み合わせを意味する。
本明細書に記載される手法は、元のシーンのディスプレイ−リファードの視覚的外観が、忠実に(例えば、完全に、知覚的に、人間が気付くしきい値以下で、または比較的小さな誤差の範囲内でなど)元のシーンのシーン−リファードの視覚的外観を再現することを確実にするために適用することができる。いくつかの実施形態では、元のシーンのシーン−リファードの視覚的外観とは、元のシーンから心地よい(pleasing)シーン画像を生成することを意図して選択された特定のカメラ設定および特定のカメラ画像信号処理(カメラISP)を用いた、元のシーンの視覚的外観を指すことがあることに留意すべきである。
本明細書に記載される手法の下で生成され、描画された表示画像は、視聴者(例えば、人間など)が、元のシーン、または、視聴者が指定した好みの要素を持った元のシーンと同じ視覚的外観を知覚することを可能にする。視聴者は、元のシーンのシーン−リファードの視覚的外観な意味において、視聴者(または仮想的な視聴者)が元のシーンのその場で見るであろうものを、表示画像から見ることができる。
一実施形態における方法は、以下の動作を包含し得る:カメラを介して画像を撮影する工程であって、前記撮影された画像は前記画像中の画素を表す第1の複数の画像データを含む、工程と、前記第1の複数の画像データに基づいて前記撮影された画像の推定周囲光レベルを決定する工程であって、前記推定周囲光レベルは、(前記画像が撮影されたときに前記カメラ上で用いられた)カメラ固有パラメータおよび露出パラメータを含む関数を用いて、1つ以上の絶対シーン光レベルを得るために前記カメラ内のセンサからの画素値をスケーリングすることによって決定され、前記露出パラメータは絞り設定、露光時間設定およびセンサ感度設定を含み、前記カメラ固有パラメータはカメラキャリブレーションから導出される、工程と、推定周囲光レベルに基づいて光−光学伝達関数(OOTF)を算出する工程と、前記OOTFを用いて前記第1の複数の画像データから導出された前記画像データを補正することによって、前記第1の複数の画像データから導出された画像データを変換する工程であって、前記変換は、ある視聴環境において、前記画像が前記視聴環境で表示されるとき、前記推定周囲光レベルの下での前記画像の見かけ上のコントラストを保持するように構成されている、工程と。一実施形態において、前記光−光学伝達関数は、異なる周囲光条件における人間の知覚を補償することによって、前記画像が撮影されたシーン環境に由来する前記画像の見た目を保持することができる。一実施形態において方法は、複数の異なるターゲットディスプレイにまたがってディスプレイマネジメントを提供するように適応されることができ、それら異なるターゲットディスプレイにわたって、前記撮影された画像に由来する実質的に同じ見た目を達成する。一実施形態において方法は、ターゲットディスプレイに対して構成された色調マッピング関数を介して、前記第1の複数の画像データから導出された画像データをマッピングすることにより、前記画像を前記ターゲットディスプレイ上で表示する用にマッピングする工程であって、前記色調マッピング関数は前記ターゲットディスプレイの色域および輝度パラメータに基づいて構成されている、工程を包含し得る。一実施形態において、前記変換は、前記色調マッピング関数を介した前記マッピングよりも前に、前記第1の複数の画像データから導出された前記画像データを補正することによって、前記色調マッピング関数は前記変換から導出されたデータに対して作用し得る。一実施形態において、前記色調マッピング関数は、前記ターゲットディスプレイの色域および輝度パラメータに合致するように、前記画像のダイナミックレンジを圧縮し得る。別の実施形態において、前記変換およびマッピングは、前記OOTFを組み込んだ前記色調マッピング関数によって同時に実行され得る。
一実施形態において、前記推定周囲光レベルは、前記画像の画像データとともにメタデータとして保存され、前記色調マッピングは、絶対シーン光レベルにスケーリングされた画素値に対して行われる。一実施形態において、前記カメラ固有パラメータは、カメラキャリブレーション動作から経験的に導出された定数値である。一実施形態において、前記カメラキャリブレーションは、異なる露出パラメータ設定(例えば可能な異なる露出パラメータ設定のすべて、またはそのような設定の部分集合)においてテストターゲットの画像を撮影し、前記カメラの位置における前記テストターゲットの輝度を測定して、キャリブレーションプロセス中に用いられる前記カメラ固有パラメータおよび前記露出パラメータを含む関数に最もよく合致する定数値の値を解くことを包含し得る。一実施形態において、前記カメラ固有パラメータは、前記カメラのカメラキャリブレーションから導出され、前記キャリブレーションされたカメラと同一のセンサ設計を有する同様なカメラに対して用いられるために格納される。
一実施形態において、前記推定周囲光レベルは、前記画像中のすべての画素(またはすべての画素の部分サンプリングされた集合)の輝度値の中央値または平均値、前記画像のある部分(顔やその他の前記画像のうち顕著な部分)の輝度値の中央値または平均値、前記画像内の最大輝度値と前記画像内の最小輝度値との間の輝度値のある選択された範囲における中央値または平均値、前記画像中の最大輝度値、周囲光センサの読み取り値、露出センサの読み取り値、露出の最適化専用の画素からのデータ、および手動のユーザー入力、のうちの1つから導出され得る。
一実施形態において、前記OOTFは、推定周囲光と前記視聴環境の所定のまたは動的に測定された周囲光との差に基づいて前記画像データを補正し、かつ、前記OOTFは、前記カメラが自動露出モードに設定されたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しでターゲット視聴環境中の前記ターゲットディスプレイ上に表示される。一実施形態において、前記手動露出調整は、手動露出設定または前記画像が撮影されたときにユーザーによって設定された露出アンダーまたは露出オーバー設定などの、手動選択された露出補償設定のうち1つであり得る。一実施形態において、前記視聴環境の前記所定の周囲光は5ニトであり得る。一実施形態において、前記視聴環境の前記動的に測定された周囲光は、前記ターゲットディスプレイに一体化された周囲光センサによって測定されることにより、前記OOTFは前記周囲光センサの出力によって動的に制御され得る。
一実施形態において、前記OOTFは、前記カメラが自動露出モードで用いられたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しで前記視聴環境中の前記ターゲットディスプレイ上に表示される。一実施形態において、前記カメラは、スマートフォンに一体化されたカメラ、タブレットコンピュータに一体化されたカメラ、一眼レフカメラ、ミラーレスカメラ、または前記画像を前記センサ上にフォーカスするレンズと、記憶装置と、前記センサおよび前記記憶装置に接続された制御システムとを有するデバイス、のうち1つであり得る。
一実施形態において方法は、前記絶対光レベルを用いて前記画像の白色点を推定し、色適応変換(chromatic adapting transform)を適用して、前記画像を基準適応白色点に変換することをさらに包含し得る。
一実施形態において、前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度より高い輝度を有するときには前記相対的に暗い領域におけるコントラストを減少するように調整することによって、前記見かけ上のコントラストを保持し、かつ、前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度よりも低い輝度を有するときには前記画像の前記相対的に暗い領域におけるコントラストを増大するように調節することによって、前記見かけ上のコントラストを保持する。
一実施形態において、前記メタデータは、前記画像におけるフレアを補償するために用いられ得、前記フレア補償は、前記推定周囲光レベルを表す値の関数である。この実施形態において、前記メタデータは、本明細書に記載のように導出された絶対シーン光レベルに関するメタデータを含み得る。
一実施形態において、前記色調マッピング関数は前記画像の1つ以上の領域における局所的色調マッピングを包含し得、前記局所的色調マッピングは、前記撮影された画像からスタンダードダイナミックレンジ画像を生成するためのマッピング中において用いられ得る。一実施形態において、前記メタデータは、逆マッピングを介してハイダイナミックレンジ画像を再構成するときに用いられる前記スタンダードダイナミックレンジ画像とともに、保存され得る。一実施形態において、前記メタデータは、スタンダードダイナミックレンジ画像から前記ハイダイナミックレンジ画像への逆マッピングのための多変量重回帰(MMR)係数を計算するために用いられ得る。
本明細書に記載された実施形態は、処理システム中に1つ以上のプロセッサおよびメモリを含み、かつ本明細書に記載された方法のいずれか1つを実行するように構成された装置において用いることができる。さらに、本明細書に記載された実施形態は、機械によって実行されたとき、機械に本明細書に記載された方法のいずれか1つを実行させる実行可能なコンピュータプログラム命令を格納する、非一時的な機械可読性の記憶媒体を用いて実施することができる。
図1は、本発明の一実施形態による方法の一例を示す。動作10において、デバイスは、撮影された画像および、その画像を撮影するために使用された露出パラメータを記憶することができる。一実施形態において、デバイスはカメラであることができ、露出パラメータは、絞り設定、露光時間設定、およびセンサの感度設定を含むことができる。一実施形態において、撮影された画像は、特定のカメラのためのカメラキャリブレーション動作から導出される特定のカメラパラメータ値と関連付けられることができる。カメラキャリブレーション動作の例を以下に説明する。カメラ固有パラメータ値は、撮影された画像を処理する際に使用するために取り出す(retrieve)ことができる。動作12において、デバイスは、カメラ固有パラメータ値ならびに画像が撮影されたときに使用された露出パラメータを用いて、撮影された画像内の画素値をスケーリングすることにより、絶対シーン光値を生成することができる。画素値のスケーリングは、各画素の輝度チャネルを用いて、各画素の絶対シーン光レベル値(シーンの周囲光レベルを推定するために、これを後の動作において使用することができる)を導出するために実行することができる。一実施形態において、以下のスケーリング式を使用して、画像内の各画素の輝度チャネルから絶対シーンレベルを導出することができる。
Figure 2021524694
ここで、相対カメラ露出(Relative Camera Exposure)は、イメージセンサのRGB出力から導出される画素あたりの露出値を表すことができ、絞り(Aperture)は、画像の絞り設定(例えば、f/4)であり、露光時間(Exposure Time)は、画像の露光時間設定(例えば、1/60秒)であり、ISOは、画像のセンサの感度設定(例えば、ISO=100)であり、kは、本明細書に記載されるカメラキャリブレーションから導出されるカメラ固有パラメータである。
動作14では、次に、本方法は、スケーリングされた画素値に基づいて、撮影された画像の推定周囲光レベルを決定することができる。一実施形態において、推定周囲光レベルは、画像内のすべての画素値の中央値または平均値から導出または決定することができる。別の実施形態において、推定周囲光レベルは、画像の顕著な部分(salient portion)の中央値または平均値から決定することができる。一実施形態において、推定周囲光レベルは、画像内の画素の最大値から決定することができる。一実施形態において、推定周囲光レベルは、画像内の最大輝度値と画像内の最小輝度値との間の輝度値のある選択された範囲における中央値または平均値から決定することができる。一実施形態において、撮影された画像の推定周囲光レベルは、デバイス上の周囲光センサの読み取り値、または露出センサの読み取り値、または手動のユーザー入力から決定することができる。
動作16において、本方法は、推定周囲光レベルを、後続の処理ステップにおける画像のさらなる処理で使用することができるメタデータとして保存することができる。オプションとして、メタデータは、画像に関する他のメタデータならびに、ターゲットディスプレイに関するメタデータおよび、ソースあるいは画像を撮影するために使用されたカメラなどの撮影装置に関するメタデータとともに、格納することができる。動作18において、デバイスは、次に、推定周囲光レベルおよびターゲットディスプレイの視聴環境に関するメタデータを使用して、光−光学伝達関数(optical−optical transfer function;OOTF)などの補正曲線を算出することができる。一実施形態において、OOTFは、画像が視聴環境において表示されるとき、視聴環境にある間、推定周囲光レベルの下での画像の見かけ上のコントラストを保持するように構成することができる。例えば、OOTFは、推定周囲光レベルが視聴環境の輝度よりも高い輝度を有するときに、画像の相対的に暗い領域のコントラストを減少させるように画像の相対的に暗い領域の画像データを調整することによって見かけ上のコントラストを保持することができ、逆に、推定周囲光レベルが視聴環境の輝度よりも低い輝度を有するときに、画像の相対的に暗い領域のコントラストを増加させるように画像の相対的に暗い領域の画像データを調整することによって、OOTFは見かけ上のコントラストを保持することができる。一実施形態において、視聴環境に関するメタデータは、5ニトの基準レベルなどのような、視聴環境の所定値であってもよい。別の実施形態において、メタデータは、視聴環境にある表示装置のその視聴環境の周囲光を動的に測定する周囲光センサから導出することができ、言い換えれば、周囲光センサは、ターゲットディスプレイまたはその近傍に取り付けられた周囲光センサであることができ、その周囲光センサは、ユーザーがターゲットディスプレイを使用しターゲットディスプレイ上の画像を視聴している間、視聴環境の周囲光を測定することができる。また、ターゲットディスプレイに関するメタデータは、ターゲットディスプレイの色域に関する情報と、ターゲットディスプレイがターゲット表示装置上に提示し得る最大輝度値および最小輝度値などのターゲットディスプレイの輝度パラメータに関する情報とを含むことができる。
動作20において、デバイスは、本明細書に記載するOOTFのような補正曲線を使用して、絶対シーン光値における画素値で表すことができる画像データを補正することができる。一実施形態において、動作20は、画像が撮影されたときにユーザーがカメラで手動露出補償を選択したかどうかに依存することができる。例えば、一実施形態において、画像データは、ユーザーが露出アンダーまたは露出オーバーの手動補正設定などの手動露出補償を選択した(画像が撮影されたときにユーザーによって選択された)場合には、本明細書に記載されたOOTFによって補正されないことがある。多くのカメラは、ユーザーが画像を露出アンダーまたは露出オーバーになるようにカメラを手動設定することを可能にする操作部(例えば、ノブなど)を含み、また、多くのカメラは、ユーザーが絞り、露光時間、およびISO(センサ感度)を手動選択することを可能にすることにより、露出を手動設定することを可能にしている。また、ユーザーがカメラの自動露出モードを使用しない露出設定などの手動露出設定を使用してカメラを設定したときの実施形態でも、補正をスキップすることができる。動作20がデバイス内で使用された場合(例えば、手動補償なしで自動露出が使用された場合)、1つ以上の実施形態において、本明細書に記載されるようにコントラストを保持するよう画像を補正する。
動作22が動作20に続くことができる。動作22は、リファレンスディスプレイよりも低いダイナミックレンジを有し得るターゲットディスプレイ上に表示されるために適するように、画像のダイナミックレンジを圧縮することが可能な色調マッピング関数を用いることを包含することができる。色調マッピング関数は輝度値をマッピングすることができ、また、ドルビービジョン(Dolby Vision)に関連する技術(様々な異なるターゲットディスプレイのためのディスプレイマネジメントのための技術を提供する)など当該技術分野で公知の技術を使用し、ターゲット表示装置上で彩度および色相を保持するために、他の関数がカラーチャネル値を調整することができる。一実施形態において、動作20および22は、画像データの補正および画像データの色調マッピングを同時に行う動作によって、同時に実行され得る。
動作20および22から得られる画像は、一実施形態において、その後、視聴環境におけるターゲットディスプレイ上に表示され得る。これは、図1に動作24として示されている。
図2は、一実施形態において、1つ以上の光−光学伝達関数を用いて実施され得る補正曲線の例を示す。本明細書に記載されるような光−光学伝達関数(OOTF)が、元のシーンから撮影されたシーン画像で表される元のシーンのシーン光レベルをマッピング後の光レベルに変換するために、適用されてもよい。マッピング後の光レベルを用いて、1つ以上の表示装置によって描画されるための表示画像内のディスプレイ光レベルを表現することができる。またはマッピング後の光レベルがさらにマッピングされることで、これを生成することができる。OOTFの例は、本明細書に参考として援用するRecommendation ITU−R BT.2100−0(07/2016)に記載されている。図2に示された曲線は、OOTFを用いて実施され得る異なるタイプの補正の例として意図されている。図2に示されたものとは異なる形状を有する他の曲線を、本明細書に記載された方法およびシステムにおいて画像を補正するために代替的に使用することができる。グラフ50は、入力値を表すX軸52と、関数に供給された入力値に基づいてOOTF関数から導出された出力値を表すY軸54とを示す。曲線56は、画像データを補正しない補正曲線の例を示しており、言い換えれば、すべての可能な入力値について入力値は出力値と等しくなる。一実施形態において、補正曲線56は、OOTFがここから画像データを補正するための基準補正曲線とみなすことができる。一実施形態において、基準補正曲線56は、グラフ50上で45°に傾斜した直線とは異なるものであってもよい。補正曲線58および59は、一実施形態において、周囲光レベル(元のシーンの)が視聴環境の光レベルよりも大きい場合に使用され得る補正曲線の2つの例を示す。これらの補正曲線58および59の例では、これらの曲線は、推定周囲光レベルが視聴環境の輝度よりも高い輝度を有する場合に、画像の相対的に暗い領域の画像データを調整して、相対的に暗い領域のコントラストを減少させることにより、元のシーンの見かけ上のコントラストを保持する。補正曲線60は、周囲光レベルが視聴環境の光レベルよりも低い場合に使用できる別の補正曲線である。補正曲線60は、推定周囲光レベルが視聴環境の輝度よりも低い輝度を有する場合に、画像の相対的に暗い領域の画像データを調整して、画像の相対的に暗い領域のコントラストを増加させることにより、見かけ上のコントラストを保持することができる補正の一例である。一実施形態において、視聴環境の光レベルは、5ニトなどの所定値に設定することができる。別の実施形態において、視聴環境の光レベルは、ターゲットディスプレイに一体化された周囲光センサなどの周囲光センサから動的に決定することができる。例えば、スマートフォンはターゲットディスプレイを有することができ、またスマートフォンは、視聴環境の周囲光を動的に測定するために使用することができる(これはそして本明細書に記載された1つ以上の方法に従ってOOTF関数の使用を制御することができる)、少なくとも1つの周囲光センサを有することができる。補正曲線56などの基準補正曲線が図2に示されているような直線とは異なる場合には、他の補正曲線の形状は図2に示されているものとは異なって見え得ることが理解されるであろう。一実施形態において、補正曲線への入力は、図1の動作12のスケーリング動作のようなスケーリング動作に基づいて生成された絶対シーン値であってもよい。
一実施形態における一連の処理動作の例を、図3を参照しながら説明する。図3に示すブロックは、カメラ、またはカメラを含む他のデバイス、またはカメラからデータを受信するがそれ自体はカメラではない他のデバイスに含まれることができる、データ処理システムで実行される処理動作を表し得る。図3に示されたブロックは、専用ハードウェアで処理されるか、あるいはカメラからデータを受信するように接続されているかまたはカメラをシステムの一部として含む汎用プロセッサ上で実行される、ソフトウェアで処理されることができる。動作は、システムがカメラ301からデータを受信したときに開始することができる。一実施形態において、カメラ301からのデータはテキストファイル内のテキストデータを含むことができ、これは画像の絞り設定、画像の露光時間、画像のセンサ感度レベルなどの露出メタデータ303を指定することができる。カメラ301からのデータはまた、当該技術分野で公知のRAW画像データであり得る画像データ305を含む。一実施形態において、画像データ305は、画像に対するさらなる動作に先立って画像を処理するために、当該技術分野で知られているディベイヤ処理(debayering processing)などの処理動作を実行することができる画像信号処理307によって処理され得る。一実施形態において、露出メタデータ303を、画像信号処理307における処理動作の入力として使用することができる。一実施形態において、画像信号処理307からの出力が、線形RGB画素値309をスケーラ311に提供することができる。一実施形態において、スケーラ311は、画素値を絶対画素値にスケーリングするために、露出メタデータ303およびソースデバイスデータ312を受信することができる。一実施形態において、スケーラ311は、線形RGB画素値309を絶対RGB画素値314にスケーリングするために、以下の式を使用することができる。
Figure 2021524694
ここで、相対カメラ露出(Relative Camera Exposure)は、イメージセンサのRGB出力から導出される画素あたりの露出値を表すことができ、絞り(Aperture)は、画像の絞り設定(例えば、f/4)であり、露光時間(Exposure Time)は、画像の露光時間設定(例えば、1/60秒)であり、ISOは、画像のセンサの感度設定(例えば、ISO=100)であり、kは、本明細書に記載されるカメラキャリブレーションから導出されるカメラ固有パラメータである。
式の出力は、各画素について、その画素の絶対シーン光レベルを表す絶対画素値を提供する。絶対RGB画素値314の出力は、その後、以下にさらに説明するようなさらなる処理のために、周囲光分析器315に提供され得る。スケーラ311への他の入力は、カメラキャリブレーションに基づく定数値(例えばk)を含む、ソースデバイスデータ312である。一実施形態において、カメラ製造業者の代表的なカメラまたはスマートフォン製造業者の代表的なスマートフォンを、定数値(カメラ固有パラメータ)を導出するために一連の1つ以上のキャリブレーション動作において使用することができる。この定数値はそして、そのカメラによってその特定のデバイスのために取得された画像を処理する際に使用するために、保存されることができる。一実施形態において、カメラのセンサ設計が変更されない限り、定数値は、そのカメラ(例えば、特定のカメラまたはスマートフォンのモデル)に対して有効なままであり得、図3または図1に示すかあるいは本明細書にその他記載される動作を提供するため、そのカメラと共に使用するために配布され得る処理ソフトウェアで使用され得る。一実施形態において、カメラキャリブレーション動作は、異なる露出パラメータ設定でテストターゲットの1つ以上の画像を撮影し、カメラの位置でテストターゲットの輝度を測定し、次いで、カメラ固有パラメータと露出パラメータとを含む上記の関数または式に最もよく適合する定数値の値を解くことを含むことができる。カメラ固有パラメータは、代表的なカメラから導出された後に、代表的なカメラまたはデバイスと同じセンサ設計を有する類似のカメラで使用するために記憶されることができる。この例では、カメラ固有値あるいは定数Kは、式の中で分かっていない唯一の値である。なぜならば、露出パラメータ設定および(カメラの位置での)テストターゲットの輝度は既知であり、したがって、定数値またはカメラ固有パラメータについて解くことは可能であるからである。一実施形態において、異なる露出パラメータ設定と異なる光強度で複数の画像を取得することで値の配列を提供してから、これを用いて定数値に最もよく合致する解を導き出すことができる。
周囲光分析器315は、絶対RGB画素値314を受信し、本明細書に記載するように、絶対RGB画素値314に基づいて、周囲光レベルまたは推定周囲光レベルを計算する。例えば、周囲光分析器315は、全ての絶対RGB画素値314の輝度値の平均値または中央値を計算することができる。その平均値または中央値は、シーンの推定周囲光レベル(絶対光レベルでの)を表すことができ、図2に関連して上述したような光−光学伝達関数の補正曲線を選択するために使用することができる。一実施形態において、周囲光分析器315はまた、ターゲットディスプレイなどのディスプレイに関する情報を受信することができ、この情報は、ターゲットディスプレイ316に関するメタデータ316であり得る。このメタデータ316は、周囲光分析器315からのメタデータ317中において、他のメタデータと共に提供され得る。一実施形態において、メタデータ317はターゲットディスプレイメタデータ316を含み、さらに、後述するさらなる処理動作で使用することができる、シーンの推定周囲光レベルも含む。ターゲットディスプレイメタデータ316は、画像が表示される可能性のある特定のターゲットディスプレイまたは一群のディスプレイに関するメタデータを含むことができる。例えば、ターゲットディスプレイメタデータ316は、ターゲットディスプレイの色域、ならびに最大輝度値および最小輝度値を含む様々なレベルの輝度を表示することに関してのその能力に関するメタデータ、およびターゲットディスプレイに関する他の情報を含むことができる。一実施形態において、ターゲットディスプレイメタデータは、ドルビーのディスプレイマネジメントシステム(Dolby’s Display Management system)で使用されるターゲットディスプレイメタデータと類似していてもよい。一実施形態において、ターゲットディスプレイメタデータ316は、ターゲットディスプレイの視聴環境の周囲光レベルを追加的に含むこともでき、例えば、ターゲットディスプレイが周囲光センサを備えている場合、その周囲光センサからの出力は、そのターゲットディスプレイメタデータ316の一部として視聴環境の周囲光レベルを提供するために使用することができる。
周囲光分析器315からのメタデータ317の出力は、カラーボリュームマッピング323へ提供することができる。絶対RGB画素値314を含むスケーラ311の出力は、色空間変換321への入力として提供することができる。一実施形態において、色空間変換321は、絶対RGB画素値を絶対ICTP値に変換することができ、これらの値は、知覚的量子化(PQ)を利用した色空間内にあり得る。
本明細書で使用される用語「PQ」は、知覚的量子化を意味する。人間の視覚システムは、非常に非線形的に光レベルの増加に応答する。刺激を見る人間の能力は、刺激の輝度、刺激の大きさ、刺激を構成する空間周波数(単数または複数)、および刺激を見ている特定の瞬間に目が適応している輝度レベル、およびその他の要因によって影響を受ける。好ましい実施形態では、知覚的量子化器関数は、線形入力グレーレベルを、人間の視覚システムにおけるコントラスト感度しきい値とよりよく合致する出力グレーレベルにマッピングする。PQマッピング関数の例は、J.S.Millerらによる「Perceptual luminance nonlinearity−based image data exchange across different display capabilities」の名称を有する2012年12月6日付け出願のPCT出願(Ser.Number PCT/US2012/068212)(’212出願と呼ぶ)に記載されている。この出願の全体を参考のため本願に援用する。この出願では、固定の刺激サイズが与えられたとき、すべての輝度レベル(すなわち、刺激レベル)について、その輝度レベルでの最小可視コントラストステップが、最も感度の高い適応レベルおよび最も感度の高い空間周波数(HVSモデルによる)に応じて選択される。’212出願によって決定されたPQ曲線は、物理的な陰極線管(CRT)装置の応答曲線を表し偶然にも人間の視覚システムの応答方法と非常に大まかな類似性を持ち得る従来のガンマ曲線と比較して、比較的単純な機能モデルを用いて人間の視覚システムの真の視覚応答を模倣している。
色空間変換321の出力は、カラーボリュームマッピング323に与えることができる。カラーボリュームマッピング323は、例えばターゲットディスプレイメタデータ316に基づきターゲットディスプレイまたは一群のターゲットディスプレイ上に適切に表示されるように明度を圧縮するために、色調マッピングおよびその他の画像処理動作を実行することができる。一実施形態において、カラーボリュームマッピング323は、OOTFを使用して画像データの補正を実行することができ、言い換えれば、カラーボリュームマッピング323は、図1の動作14で提供されたまたは計算された推定周囲光レベルに基づいて、選択された補正曲線を使用して画像データを補正するために、図1に示された動作18および20を実行することができる。さらに、カラーボリュームマッピング323は、ターゲットディスプレイメタデータ316などのターゲットディスプレイのメタデータに基づいて(例えば、図1の動作22において)色調マッピングを実行することができる。一実施形態において、色調マッピング関数は、ターゲットディスプレイの色域および輝度パラメータに基づいて構成され、これらのパラメータは、ターゲットディスプレイメタデータ316の一部として提供される。一実施形態において、カラーボリュームマッピング323は、ドルビーのディスプレイマネジメントシステム(Dolby’s Display Management system)に従って、色域マッピングおよび色調マッピングを実行することができる。一実施形態において、色調マッピング動作または関数は、ターゲットディスプレイの色域および輝度能力に合致するように画像のダイナミックレンジを圧縮する。一実施形態において、OOTFによる補正と色調マッピングによる補正は、OOTF関数および色調マッピング関数の両方を含む補正関数を介して同時に行うことができる。一実施形態において、カラーボリュームマッピング323は、図1に示す動作20および22の両方を実行することができる。
カラーボリュームマッピング323からの画素データの出力は色空間変換325へ提供することができる。色空間変換325は、ICTP内の画素データを、ハイダイナミックディスプレイ331上で表示するためのRGB値に変換し戻すことができる。カラーボリュームマッピング323からの画素出力は、一実施形態において、カラーボリュームマッピング327およびカラーボリュームマッピング329として示される他の2つのカラーボリュームマッピング動作にも提供することができる。カラーボリュームマッピング327およびカラーボリュームマッピング329は、カラーボリュームマッピング323によって実行される動作と同様のカラーマッピング動作を実行して、スタンダードダイナミックレンジディスプレイ337およびパネルディスプレイ339への出力を提供することができる。また、カラーボリュームマッピング327およびカラーボリュームマッピング329は、メタデータ317またはカラーボリュームマッピング323によってカラーボリュームマッピングまたは色調マッピング動作によって補正されたメタデータと同じであり得る、メタデータ319を受信する。メタデータ319は、ターゲットディスプレイのそれぞれに関するメタデータを含むことができ、特に、スタンダードダイナミックレンジディスプレイ337に関するメタデータおよびパネルディスプレイ339に関するメタデータを含むことができる。カラーマッピング327およびカラーボリュームマッピング329からの出力は、適切なディスプレイに出力を提供するために、それぞれの色空間変換動作333および335に提供される。パネルディスプレイ339は、一体化された周囲光センサを有するターゲットディスプレイの一例であってもよく、これは、一体化された周囲光センサからの出力に基づいてOOTF関数を動的に調整するために使用することができる。
一実施形態において、1つ以上のシステムまたは方法は、画像中のフレアの検出を利用することができる。フレアを検出すると、推定周囲光レベルを表す値の関数として、フレア補償を計算することができる。例えば、推定周囲光レベルは、フレアが存在するかどうかを判断し、計算された絶対光レベルが画像内のフレアによって悪影響を受け(corrupted)ないように画像内のフレアを補償するために使用することができる。
一実施形態において、スタンダードダイナミックレンジディスプレイ用のカラーボリュームマッピングは、ハイライト領域中の詳細をより良く保持するために、局所的色調マッピングを利用することができる。例えば、カラーボリュームマッピング327は、スタンダードダイナミックレンジディスプレイ337上に表示する際のハイライト領域中の詳細をより良く保持するために、画像の異なる領域に対して局所的色調マッピングを利用することができる。一実施形態において、推定周囲光レベルなどの周囲光レベルデータを含む、画像に関するメタデータは、画像と共に保存され、SDR画像のHDR画像への変換などの画像の変換において後に使用され得る。一実施形態において、HDRパイプラインは、例えば、SDR輝度のヒストグラムを用い、それを色調曲線に転送することによって、HDRヒストグラムがSDRヒストグラムに対して明るさやコントラストなどの類似特性を持つようにすることで、SDR画像から見た目の一部を継承しようとすることができる。これは、色についても、例えば3×3の行列を解いたり、RGBの色調曲線などを用いて行うことができる。絶対シーン光レベルの計算において手動露出調整を使用しないようにすることができるが、一実施形態において、問題とする領域に関するメタデータを埋めるために手動露出調整を使用することもできる。例えば、ユーザーが手動露出調整の一部として画像の一部を選択した場合、または顔検出の場合のように自動的に選択された場合、その領域の輝度を、問題とする領域に関するメタデータを埋めるための中間オフセット(mid−offset)として使用することができ、これにより、ディスプレイマネジメントは、HDRまたはSDRにマッピングする際に、この領域を優先させることができる。
図4は、本明細書に記載された1つ以上の実施形態を提供するために、カメラまたは他のデバイスによって、またはカメラまたは他のデバイス内で使用され得る、データ処理システムの例を示す。本明細書に記載されたシステムおよび方法は、汎用コンピュータシステム、専用コンピュータシステム、または汎用コンピュータシステムと専用コンピュータシステムとのハイブリッドを含む、様々な異なるデータ処理システムおよびデバイスにおいて実施することができる。本明細書に記載された方法のいずれかを用いることができるデータ処理システムは、カメラ、スマートフォン、セットトップボックス、ラップトップまたはタブレットコンピュータなどのコンピュータ、組込み機器、ゲームシステム、コンシューマー用電子機器など、またはその他の電子機器を含む。
図4は、ある実施形態によるデータ処理システムハードウェアのブロック図である。図4は、データ処理システムの様々な構成要素を図示しているが、そのような詳細は本発明には関係しないため、構成要素を相互接続するいかなる特定のアーキテクチャも様態も表すことを意図していないことに注意されたい。また、図4に示された構成要素よりも少ない構成要素または図4に示された構成要素よりも多い構成要素を有する他のタイプのデータ処理システムも、本発明の1つ以上の実施形態において用いられることができることが理解されるであろう。
図4に示すように、データ処理システムは、システムの様々な構成要素を相互接続する1つ以上のバス1309を含む。図4のシステムは、カメラを含むか、またはカメラに接続されることができる。当該技術分野で公知のように、1つ以上のプロセッサ1303は、1つ以上のバス1309に接続されている。メモリ1305は、DRAMまたは不揮発性RAMであってもよいし、フラッシュメモリまたは他のタイプのメモリであってもよいし、そのようなメモリデバイスの組み合わせであってもよい。このメモリは、当該技術分野で公知の技術を用いて、1つ以上のバス1309に接続される。データ処理システムはまた不揮発性メモリ1307を含むことができ、これは、ハードディスクドライブ、フラッシュメモリ、または磁気光学ドライブ、磁気メモリ、または光学ドライブ、またはシステムから電力が除去された後でもデータを維持する他のタイプのメモリシステムであってもよい。不揮発性メモリ1307およびメモリ1305は共に、公知のインターフェースおよび接続技術を用いて、1つ以上のバス1309に接続されている。ディスプレイコントローラ1322は、ディスプレイ331、337、または339のうちの1つであり得る表示装置上に表示される表示データを受信するために、1つ以上のバス1309に接続されている。データ処理システムはまた、1つ以上の入力/出力(I/O)コントローラ1315を含むことができ、このコントローラは、1つ以上のI/Oデバイス、例えば、1つ以上のカメラ、タッチスクリーン、周囲光センサ、および当該技術分野で公知のものを含む他の入力デバイス、および出力デバイス(例えば、スピーカ)のためのインタフェースを提供する。入出力デバイス1317は、当該技術分野で公知のように、1つ以上のI/Oコントローラ1315を介して接続される。周囲光センサは、図4のシステムに一体化することができる。
図4は、不揮発性メモリ1307およびメモリ1305が、ネットワークインターフェースを介してではなく、1つ以上のバスに直接接続されていることを示しているが、本発明は、モデムまたはイーサネットインターフェースのようなネットワークインターフェースを介してデータ処理システムに接続されたネットワーク記憶装置のような、システムから離れた不揮発性メモリを利用することができることが理解されるであろう。バス1309は、当技術分野で周知のように、様々なブリッジ、コントローラおよび/またはアダプタを介して互いに接続されることができる。一実施形態において、I/Oコントローラ1315は、USB周辺機器を制御するためのUSB(ユニバーサル・シリアル・バス)アダプタ、IEEE1394準拠の周辺機器を制御するためのIEEE1394コントローラ、またはサンダーボルト周辺機器を制御するためのサンダーボルトコントローラのうちの1つ以上を含む。一実施形態において、1つ以上のネットワークデバイス1325は、バス1309に接続され得る。ネットワークデバイス(単数または複数)1325は、カメラなどから画像を受信する有線ネットワークデバイス(例えば、イーサネット)または無線ネットワークデバイス(例えば、WiFi、Bluetoooth)であり得る。
別個の実施形態が以下に列挙されているが、これらの実施形態は、全体または部分的に組み合わせるかまたは修正されることにより、様々な異なる組み合わせにすることができることが理解されるであろう。これらの実施形態の組み合わせは、分離された実施形態のすべての可能な組み合わせのうちの任意の1つであり得る。
実施形態1は、
カメラを介して画像を撮影する工程であって、前記撮影された画像は前記画像中の画素を表す第1の複数の画像データを含む、工程と、
前記第1の複数の画像データに基づいて前記撮影された画像の推定周囲光レベルを決定する工程であって、前記推定周囲光レベルは、前記画像が撮影されたときに前記カメラ上で用いられたカメラ固有パラメータおよび露出パラメータを含む関数を用いて、1つ以上の絶対シーン光レベルを得るために前記カメラ内のセンサからの画素値をスケーリングすることによって決定され、前記露出パラメータは絞り設定、露光時間設定およびセンサ感度設定を含み、前記カメラ固有パラメータはカメラキャリブレーションから導出される、工程と、
前記推定周囲光レベルに基づいて光−光学伝達関数(OOTF)を算出する工程と、
前記OOTFを用いて前記第1の複数の画像データから導出された前記画像データを補正することによって、前記第1の複数の画像データから導出された画像データを変換する工程であって、前記変換は、ある視聴環境において、前記画像が前記視聴環境で表示されるとき、前記推定周囲光レベルの下での前記画像の見かけ上のコントラストを保持するように構成されている、工程と、
を包含する、方法である。
実施形態2は、実施形態1に記載の方法であって、
ターゲットディスプレイに対して構成された色調マッピング関数を介して、前記第1の複数の画像データから導出された画像データをマッピングすることにより、前記画像を前記ターゲットディスプレイ上で表示する用にマッピングする工程であって、前記色調マッピング関数は前記ターゲットディスプレイの色域および輝度パラメータに基づいて構成されている、工程
をさらに包含する方法である。
実施形態3は、実施形態2に記載の方法であって、前記変換は、前記色調マッピング関数を介した前記マッピングよりも前に、前記第1の複数の画像データから導出された前記画像データを補正することによって、前記色調マッピング関数は前記変換から導出されたデータに対して作用する。
実施形態4は、実施形態3に記載の方法であって、前記色調マッピング関数は、前記ターゲットディスプレイの色域および輝度パラメータに合致するように、前記画像のダイナミックレンジを圧縮する。
実施形態5は、実施形態2に記載の方法であって、前記変換および前記マッピングは、前記OOTFを組み込んだ前記色調マッピング関数によって同時に実行される。
実施形態6は、実施形態2に記載の方法であって、前記推定周囲光レベルは、前記画像の画像データとともにメタデータとして保存され、前記色調マッピングは、絶対シーン光レベルにスケーリングされた画素値に対して行われる。
実施形態7は、実施形態6に記載の方法であって、前記カメラ固有パラメータは、前記カメラキャリブレーションから経験的に導出された定数値である。
実施形態8は、実施形態7に記載の方法であって、前記カメラキャリブレーションは、異なる露出パラメータ設定においてテストターゲットの画像を撮影し、前記テストターゲットの輝度を測定して、前記カメラ固有パラメータおよび前記露出パラメータを含む関数に最もよく合致する定数値の値を解くことを包含する。
実施形態9は、実施形態8に記載の方法であって、前記カメラ固有パラメータは、前記カメラの前記カメラキャリブレーションから導出され、前記カメラと同一のセンサ設計を有する同様なカメラに対して用いられるために格納される。
実施形態10は、実施形態7に記載の方法であって、前記推定周囲光レベルは、前記画像中のすべての画素の輝度値の中央値または平均値、あるシーン画像部分の輝度値の中央値または平均値、前記画像内の最大輝度値と前記画像内の最小輝度値との間の輝度値のある選択された範囲における中央値または平均値、前記画像中の最大輝度値、周囲光センサの読み取り値、露出センサの読み取り値、露出の最適化専用の画素からのデータ、または手動のユーザー入力、のうちの1つから導出される。
実施形態11は、実施形態7に記載の方法であって、前記OOTFは、推定周囲光と前記視聴環境の所定のまたは動的に測定された周囲光との差に基づいて前記画像データを補正し、かつ、前記OOTFは、前記カメラが自動露出モードに設定されたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しで前記視聴環境中の前記ターゲットディスプレイ上に表示される。
実施形態12は、実施形態11に記載の方法であって、前記手動露出調整は、手動露出設定または手動選択された露出補償設定のうち1つを包含する。
実施形態13は、実施形態11に記載の方法であって、前記視聴環境の前記所定の周囲光は5ニトである。
実施形態14は、実施形態11に記載の方法であって、前記視聴環境の前記動的に測定された周囲光は、前記ターゲットディスプレイに一体化された周囲光センサによって測定されることにより、前記OOTFは前記周囲光センサの出力によって動的に制御される。
実施形態15は、実施形態6に記載の方法であって、前記OOTFは、前記カメラが自動露出モードで用いられたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しで前記視聴環境中の前記ターゲットディスプレイ上に表示され、かつ、前記カメラは、スマートフォンに一体化されたカメラ、タブレットコンピュータに一体化されたカメラ、一眼レフカメラ、ミラーレスカメラ、または前記画像を前記センサ上にフォーカスするレンズと、記憶装置と、前記センサおよび前記記憶装置に接続された制御システムとを備えたデバイス、のうち1つである。
実施形態16は、実施形態6に記載の方法であって、前記絶対光レベルを用いて前記画像の白色点を推定し、色適応変換(chromatic adapting transform)を適用して、前記画像を基準適応白色点に変換することをさらに包含する、方法である。
実施形態17は、実施形態6に記載の方法であって、前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度より高い輝度を有するときには前記相対的に暗い領域におけるコントラストを減少するように調整することによって、前記見かけ上のコントラストを保持し、かつ、前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度よりも低い輝度を有するときには前記画像の前記相対的に暗い領域におけるコントラストを増大するように調節することによって、前記見かけ上のコントラストを保持する。
実施形態18は、実施形態6に記載の方法であって、前記メタデータは、前記画像におけるフレアを補償するために用いられ、前記フレア補償は、前記推定周囲光レベルを表す値の関数である。
実施形態19は、実施形態6に記載の方法であって、前記色調マッピング関数は前記画像の1つ以上の領域における局所的色調マッピングを包含し、前記局所的色調マッピングは、前記撮影された画像からスタンダードダイナミックレンジ(SDR)画像を生成するためのマッピング中において用いられる。
実施形態20は、実施形態19に記載の方法であって、前記メタデータは、逆マッピングを介してハイダイナミックレンジ(HDR)画像を再構成するときに用いられる前記SDR画像とともに、保存される。
実施形態21は、実施形態20に記載の方法であって、前記メタデータは、前記SDR画像から前記HDR画像への逆マッピングのための多変量重回帰(MMR)係数を計算するために用いられる。
実施形態22は、実施形態6に記載の方法であって、前記メタデータは前記色調マッピングによって、色調マッピングされた画像の下流処理(downstream processing)をガイドするためのメタデータの中間セットに調整される。
実施形態23は、処理システムとメモリとを備えた装置であって、実施形態1〜22の方法のうちいずれか1つを実行するように構成された装置である。
実施形態24は、機械によって実行されたとき、前記機械に、実施形態1〜22の方法のうちいずれか1つを実行させる実行可能なプログラム命令を格納した、非一時的な機械可読性の記憶装置である。
本発明の1つ以上の実施形態は、少なくとも部分的にはソフトウェアで具現化されてもよいことは、本明細書から明らかであろう。すなわち、本技術は、その1つ以上のプロセッサが、非一時的な機械可読性の記憶媒体(例えばDRAMまたはフラッシュメモリ)などの記憶媒体に含まれる一連の命令を実行することに応答して、データ処理システムにおいて実行されてもよい。様々な実施形態において、本発明を実施するためにハードワイヤードな回路をソフトウェア命令と組み合わせて用いてもよい。したがって、本技術は、ハードウェア回路とソフトウェアの任意の特定の組み合わせ、またはデータ処理システムによって実行される命令のための任意の特定のソースに限定されるものではない。
前述の明細書において、特定の例示的な実施形態を記載した。以下の特許請求の範囲に記載されたより広い主旨および範囲から逸脱することなく、これらの実施形態に様々な変更を加え得ることは明らかであろう。本明細書および図面は、したがって、限定的な意味ではなく例示的な意味で捉えられるべきである。

Claims (15)

  1. カメラによって撮影された画像を受信する工程であって、前記撮影された画像は前記画像中の画素を表す第1の複数の画像データを含む、工程と、
    前記第1の複数の画像データに基づいて前記撮影された画像の推定周囲光レベルを決定する工程であって、前記推定周囲光レベルは、前記画像が撮影されたときに前記カメラ上で用いられたカメラ固有パラメータおよび露出パラメータを含む関数を用いて、1つ以上の絶対シーン光レベルを得るために前記カメラ内のセンサからの画素値をスケーリングすることによって決定され、前記露出パラメータは絞り設定、露光時間設定およびセンサ感度設定を含み、前記カメラ固有パラメータはカメラキャリブレーションから導出される、工程と、
    前記推定周囲光レベルに基づいて光−光学伝達関数(OOTF)を算出する工程と、
    前記OOTFを用いて前記第1の複数の画像データから導出された前記画像データを補正することによって、前記第1の複数の画像データから導出された画像データを変換する工程であって、前記変換は、ある視聴環境において、前記画像が前記視聴環境で表示されるとき、前記推定周囲光レベルの下での前記画像の見かけ上のコントラストを保持するように構成されている、工程と、
    を包含する、方法。
  2. ターゲットディスプレイに対して構成された色調マッピング関数を介して、前記第1の複数の画像データから導出された画像データをマッピングすることにより、前記画像を前記ターゲットディスプレイ上で表示する用にマッピングする工程であって、前記色調マッピング関数は前記ターゲットディスプレイの色域および輝度パラメータに基づいて構成されている、工程をさらに包含する請求項1に記載の方法。
  3. 前記変換は、前記色調マッピング関数を介した前記マッピングよりも前に、前記第1の複数の画像データから導出された前記画像データを補正することによって、前記色調マッピング関数は前記変換から導出されたデータに対して作用し、かつ、前記色調マッピング関数は、前記ターゲットディスプレイの色域および輝度パラメータに合致するように、前記画像のダイナミックレンジを圧縮する、請求項2に記載の方法。
  4. 前記推定周囲光レベルは、前記画像の画像データとともにメタデータとして保存され、前記色調マッピングは、絶対シーン光レベルにスケーリングされた画素値に対して行われ、かつ、前記カメラ固有パラメータは、前記カメラキャリブレーションから経験的に導出された定数値である、請求項1から3のいずれかに記載の方法。
  5. 前記カメラキャリブレーションは、異なる露出パラメータ設定においてテストターゲットの画像を撮影し、前記テストターゲットの輝度を測定して、前記カメラ固有パラメータおよび前記露出パラメータを含む関数に最もよく合致する定数値の値を解くことを包含し、かつ、前記カメラ固有パラメータは、前記カメラの前記カメラキャリブレーションから導出され、前記カメラと同一のセンサ設計を有する同様なカメラに対して用いられるために格納され、かつ、前記推定周囲光レベルは、前記画像中のすべての画素の輝度値の中央値または平均値、あるシーン画像部分の輝度値の中央値または平均値、前記画像内の最大輝度値と前記画像内の最小輝度値との間の輝度値のある選択された範囲における中央値または平均値、前記画像中の最大輝度値、周囲光センサの読み取り値、露出センサの読み取り値、露出の最適化専用の画素からのデータ、または手動のユーザー入力、のうちの1つから導出される、請求項1から4のいずれかに記載の方法。
  6. 前記OOTFは、前記推定周囲光と前記視聴環境の所定のまたは動的に測定された周囲光との差に基づいて前記画像データを補正し、かつ、前記OOTFは、前記カメラが自動露出モードに設定されたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しで前記視聴環境中の前記ターゲットディスプレイ上に表示される、請求項1から5のいずれかに記載の方法。
  7. 前記視聴環境の前記動的に測定された周囲光は、前記ターゲットディスプレイに一体化された周囲光センサによって測定されることにより、前記OOTFは前記周囲光センサの出力によって動的に制御される、請求項6に記載の方法。
  8. 前記OOTFは、前記カメラが自動露出モードで用いられたときは前記画像データを補正するが、前記カメラが手動露出調整で設定されたときは、前記画像は前記OOTF補正無しで前記視聴環境中の前記ターゲットディスプレイ上に表示され、かつ、前記カメラは、スマートフォンに一体化されたカメラ、タブレットコンピュータに一体化されたカメラ、一眼レフカメラ、ミラーレスカメラ、または前記画像を前記センサ上にフォーカスするレンズと、記憶装置と、前記センサおよび前記記憶装置に接続された制御システムとを備えたデバイス、のうち1つである、請求項1から5のいずれかに記載の方法。
  9. 前記絶対光レベルを用いて前記画像の白色点を推定し、色適応変換(chromatic adapting transform)を適用して、前記画像を基準適応白色点に変換することをさらに包含する、請求項1から8のいずれかに記載の方法。
  10. 前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度より高い輝度を有するときには前記相対的に暗い領域におけるコントラストを減少するように調整することによって、前記見かけ上のコントラストを保持し、かつ、前記OOTFは、前記画像の相対的に暗い領域における画像データを、前記推定周囲光レベルが前記視聴環境の輝度よりも低い輝度を有するときには前記画像の前記相対的に暗い領域におけるコントラストを増大するように調節することによって、前記見かけ上のコントラストを保持する、請求項1から5のいずれかに記載の方法。
  11. 前記メタデータは、前記画像におけるフレアを補償するために用いられ、前記フレア補償は、前記推定周囲光レベルを表す値の関数である、請求項1から10のいずれかに記載の方法。
  12. 前記色調マッピング関数は前記画像の1つ以上の領域における局所的色調マッピングを包含し、前記局所的色調マッピングは、前記撮影された画像からスタンダードダイナミックレンジ(SDR)画像を生成するためのマッピング中において用いられ、かつ、前記メタデータは、逆マッピングを介してハイダイナミックレンジ(HDR)画像を再構成するときに用いられる前記SDR画像とともに、保存される、請求項1から11のいずれかに記載の方法。
  13. 前記メタデータは、前記SDR画像から前記HDR画像への逆マッピングのための多変量重回帰(MMR)係数を計算するために用いられ、かつ、前記メタデータは前記色調マッピングによって、色調マッピングされた画像の下流処理(downstream processing)をガイドするためのメタデータの中間セットに調整される、請求項12に記載の方法。
  14. 処理システムとメモリとを備えた装置であって、請求項1から13のいずれかに記載の方法を実行するように構成された装置。
  15. 機械によって実行されたとき、前記機械に、請求項1から13のいずれかに記載の方法を実行させる実行可能なプログラム命令を格納した、非一時的な機械可読性の記憶装置。
JP2020570465A 2018-06-18 2019-06-13 撮像方法およびシステム Active JP7003304B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862686371P 2018-06-18 2018-06-18
EP18178266.5 2018-06-18
EP18178266 2018-06-18
US62/686,371 2018-06-18
PCT/US2019/037066 WO2019245876A1 (en) 2018-06-18 2019-06-13 Image capture methods and systems

Publications (2)

Publication Number Publication Date
JP2021524694A true JP2021524694A (ja) 2021-09-13
JP7003304B2 JP7003304B2 (ja) 2022-01-20

Family

ID=67070915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570465A Active JP7003304B2 (ja) 2018-06-18 2019-06-13 撮像方法およびシステム

Country Status (6)

Country Link
US (1) US11711486B2 (ja)
EP (1) EP3808068B1 (ja)
JP (1) JP7003304B2 (ja)
KR (1) KR102369148B1 (ja)
CN (1) CN112514359B (ja)
WO (1) WO2019245876A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7475187B2 (ja) * 2020-04-15 2024-04-26 キヤノン株式会社 表示制御装置および方法、プログラム、記憶媒体
EP4172981A1 (en) 2020-06-30 2023-05-03 Dolby Laboratories Licensing Corporation Systems and methods for ambient light compensation using pq shift
BR112022026943A2 (pt) * 2020-07-13 2023-01-24 Qualcomm Inc Correção de pixels matizados de cores capturados em condições de baixa luminosidade
CN111935423B (zh) * 2020-08-02 2023-05-05 珠海一微半导体股份有限公司 一种机器人获取深度图像数据的方法及其控制系统
US11398017B2 (en) * 2020-10-09 2022-07-26 Samsung Electronics Co., Ltd. HDR tone mapping based on creative intent metadata and ambient light
US11526968B2 (en) * 2020-11-25 2022-12-13 Samsung Electronics Co., Ltd. Content adapted black level compensation for a HDR display based on dynamic metadata
CN112565636B (zh) * 2020-12-01 2023-11-21 影石创新科技股份有限公司 图像处理方法、装置、设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044846A (ja) * 2001-04-20 2003-02-14 Agilent Technol Inc 知覚的選好ガイドラインに基づく適応型シグモイド関数を用いたデジタル・イメージ・トーン・マッピングのためのシステム及び方法
JP2009171062A (ja) * 2008-01-11 2009-07-30 Sony Corp 画像処理装置、撮像装置、方法およびプログラム
JP2016528826A (ja) * 2013-07-30 2016-09-15 ドルビー ラボラトリーズ ライセンシング コーポレイション シーン不変化されたメタデータを生成するためのシステムおよび方法
US20170034520A1 (en) * 2015-07-28 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for encoding video data for selected viewing conditions

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040097683A (ko) 2003-05-12 2004-11-18 주식회사 복스오라테크놀로지코리아 디지털 신호처리에 의한 간섭제거 시스템 및 이를 이용한중계장치
US7999863B2 (en) 2006-02-01 2011-08-16 Fujifilm Corporation Image correction apparatus and method
US8237813B2 (en) 2009-04-23 2012-08-07 Csr Technology Inc. Multiple exposure high dynamic range image capture
US8847972B2 (en) 2010-01-20 2014-09-30 Intellectual Ventures Fund 83 Llc Adapting display color for low luminance conditions
US9055227B2 (en) 2010-03-17 2015-06-09 Texas Instruments Incorporated Scene adaptive brightness/contrast enhancement
US9113114B2 (en) * 2010-05-12 2015-08-18 Samsung Electronics Co., Ltd Apparatus and method for automatically controlling image brightness in image photographing device
CN107105229B9 (zh) * 2011-04-14 2020-03-31 杜比实验室特许公司 图像解码方法、视频解码器和非暂态计算机可读存储介质
KR102105317B1 (ko) 2011-12-06 2020-04-28 돌비 레버러토리즈 라이쎈싱 코오포레이션 상이한 디스플레이 능력들을 통한 지각적 휘도 비선형성―기반 이미지 데이터 교환을 향상시키는 방법
CN103391404B (zh) * 2012-05-08 2016-12-14 展讯通信(上海)有限公司 自动曝光方法、装置、照相设备和移动终端
KR102157032B1 (ko) 2013-02-21 2020-09-18 돌비 레버러토리즈 라이쎈싱 코오포레이션 고 동적 범위 비디오에 대한 디스플레이 관리
US9275445B2 (en) 2013-08-26 2016-03-01 Disney Enterprises, Inc. High dynamic range and tone mapping imaging techniques
US9699428B2 (en) 2013-09-09 2017-07-04 Apple Inc. Lens shading modulation
GB2526047B (en) 2014-02-27 2021-04-07 British Broadcasting Corp Method and apparatus for improved signal processing for high dynamic range
CN106105177B (zh) * 2014-06-10 2019-09-27 松下知识产权经营株式会社 变换方法及变换装置
SG10201710918XA (en) * 2015-01-19 2018-02-27 Dolby Laboratories Licensing Corp Display management for high dynamic range video
JP6463179B2 (ja) * 2015-03-17 2019-01-30 キヤノン株式会社 信号処理装置、信号処理方法および撮像装置
AU2016270443B2 (en) 2015-06-05 2019-01-03 Apple Inc. Rendering and displaying high dynamic range content
US10284863B2 (en) * 2015-06-08 2019-05-07 Qualcomm Incorporated Adaptive constant-luminance approach for high dynamic range and wide color gamut video coding
GB2539917B (en) 2015-06-30 2021-04-07 British Broadcasting Corp Method and apparatus for conversion of HDR signals
US9734635B1 (en) 2015-07-13 2017-08-15 Amazon Technologies, Inc. Environment aware color visualization
AU2015207825A1 (en) 2015-07-28 2017-02-16 Canon Kabushiki Kaisha Method, apparatus and system for encoding video data for selected viewing conditions
CN107851421A (zh) 2015-07-31 2018-03-27 索尼公司 视频信号处理装置、视频信号处理方法和显示装置
US9965881B2 (en) 2015-08-28 2018-05-08 Panasonic Intellectual Property Corporation Of America Method for generating image and image generation system
JP6611543B2 (ja) 2015-10-05 2019-11-27 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10200701B2 (en) 2015-10-14 2019-02-05 Qualcomm Incorporated HDR and WCG coding architecture with SDR backwards compatibility in a single bitstream for video coding
AU2015261734A1 (en) 2015-11-30 2017-06-15 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data according to local luminance intensity
US20170289571A1 (en) 2016-04-01 2017-10-05 Intel Corporation Temporal control for spatially adaptive tone mapping of high dynamic range video
JP2017212532A (ja) 2016-05-24 2017-11-30 キヤノン株式会社 画像処理装置
US10129485B2 (en) 2016-06-10 2018-11-13 Microsoft Technology Licensing, Llc Methods and systems for generating high dynamic range images
KR102340082B1 (ko) 2016-09-20 2021-12-15 소니그룹주식회사 영상 신호 처리 장치, 영상 신호 처리 방법 및 영상 신호 처리 시스템
JP6752667B2 (ja) * 2016-09-27 2020-09-09 キヤノン株式会社 画像処理装置と画像処理方法およびプログラム
CN110447051B (zh) 2017-03-20 2023-10-31 杜比实验室特许公司 在感知上保持参考场景的对比度和色度
US10720126B2 (en) * 2018-08-31 2020-07-21 Apple Inc. Color ambient light sensor with adjustable neutral density filter

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044846A (ja) * 2001-04-20 2003-02-14 Agilent Technol Inc 知覚的選好ガイドラインに基づく適応型シグモイド関数を用いたデジタル・イメージ・トーン・マッピングのためのシステム及び方法
JP2009171062A (ja) * 2008-01-11 2009-07-30 Sony Corp 画像処理装置、撮像装置、方法およびプログラム
JP2016528826A (ja) * 2013-07-30 2016-09-15 ドルビー ラボラトリーズ ライセンシング コーポレイション シーン不変化されたメタデータを生成するためのシステムおよび方法
US20170034520A1 (en) * 2015-07-28 2017-02-02 Canon Kabushiki Kaisha Method, apparatus and system for encoding video data for selected viewing conditions

Also Published As

Publication number Publication date
EP3808068A1 (en) 2021-04-21
US11711486B2 (en) 2023-07-25
CN112514359B (zh) 2022-02-18
CN112514359A (zh) 2021-03-16
EP3808068B1 (en) 2022-06-29
WO2019245876A1 (en) 2019-12-26
KR102369148B1 (ko) 2022-03-02
US20210250564A1 (en) 2021-08-12
KR20210021062A (ko) 2021-02-24
JP7003304B2 (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7003304B2 (ja) 撮像方法およびシステム
US11375128B2 (en) Method for obtaining exposure compensation values of high dynamic range image, terminal device and non-transitory computer-readable storage medium
CN110447051B (zh) 在感知上保持参考场景的对比度和色度
US10140953B2 (en) Ambient-light-corrected display management for high dynamic range images
US9894287B2 (en) Method and apparatus for acquiring a high dynamic image using multiple cameras
CN108668093B (zh) Hdr图像的生成方法及装置
US8965120B2 (en) Image processing apparatus and method of controlling the same
CN107274351B (zh) 图像处理设备、图像处理系统和图像处理方法
JP5457652B2 (ja) 画像処理装置およびその方法
US20130155330A1 (en) Color Grading Apparatus and Methods
US10332481B2 (en) Adaptive display management using 3D look-up table interpolation
CN109478316B (zh) 实时自适应阴影和高光增强
US20170099445A1 (en) Image processing apparatus, image processing method, and medium
JP5410378B2 (ja) 映像信号補正装置および映像信号補正プログラム
US10205940B1 (en) Determining calibration settings for displaying content on a monitor
US8164650B2 (en) Image processing apparatus and method thereof
KR101642034B1 (ko) 입력 영상의 동적 범위를 변환하는 방법 및 장치
JP5810593B2 (ja) 画像処理装置、撮像装置およびプログラム
KR20110095556A (ko) 영상투사장치 및 그 영상보정방법
JP2012044560A (ja) 画像処理装置、画像処理方法及び撮像装置
WO2017096855A1 (zh) 伽马参数的动态调整方法及装置
JP2016170637A (ja) 画像処理装置および画像処理方法
KR101194083B1 (ko) 디지털 영상장치에서 화이트 밸런스 조절 방법 및 장치
EP3416364A1 (en) Color characterization of a display system having a dynamic display control unit
Jeon et al. Adaptive color balance algorithm for users' conveniences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211228

R150 Certificate of patent or registration of utility model

Ref document number: 7003304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150