JP2024510455A - 顕著性ベースのフレーム色強調のための方法および装置 - Google Patents
顕著性ベースのフレーム色強調のための方法および装置 Download PDFInfo
- Publication number
- JP2024510455A JP2024510455A JP2023555840A JP2023555840A JP2024510455A JP 2024510455 A JP2024510455 A JP 2024510455A JP 2023555840 A JP2023555840 A JP 2023555840A JP 2023555840 A JP2023555840 A JP 2023555840A JP 2024510455 A JP2024510455 A JP 2024510455A
- Authority
- JP
- Japan
- Prior art keywords
- frames
- colors
- map
- saliency
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 129
- 238000012545 processing Methods 0.000 claims abstract description 135
- 230000011218 segmentation Effects 0.000 claims abstract description 70
- 230000008859 change Effects 0.000 claims abstract description 50
- 239000003086 colorant Substances 0.000 claims description 230
- 230000006870 function Effects 0.000 claims description 31
- 238000013528 artificial neural network Methods 0.000 claims description 28
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000013473 artificial intelligence Methods 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000007619 statistical method Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 11
- 239000000872 buffer Substances 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 7
- 229920006395 saturated elastomer Polymers 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000007794 visualization technique Methods 0.000 description 2
- 239000007795 chemical reaction product Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011968 cross flow microfiltration Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- -1 i.e. Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/0666—Adjustment of display parameters for control of colour parameters, e.g. colour temperature
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Video Image Reproduction Devices For Color Tv Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本開示は、装置、たとえば、DPUを含む、表示処理のための方法およびデバイスに関する。装置は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することができる。装置はまた、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することができる。装置はまた、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに、複数のフレームに関連付けられた色空間のためのCMFを適用することができ、CMFは、後続のシーン変化または後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。
Description
[0001]本開示は、一般に処理システムに関し、より詳細には、表示処理または画像処理のための1つまたは複数の技法に関する。
[0002]コンピューティングデバイスは、ビジュアルコンテンツをレンダリングおよび表示するために、(たとえば、グラフィックス処理ユニット(GPU)、中央処理ユニット(CPU)、ディスプレイプロセッサなどを利用して)グラフィックス処理および/または表示処理を実行することが多い。そのようなコンピューティングデバイスには、たとえば、コンピュータワークステーション、スマートフォンなどのモバイルフォン、組込み型システム、パーソナルコンピュータ、タブレットコンピュータ、およびビデオゲームコンソールが含まれる場合がある。GPUは、グラフィックス処理コマンドを実行し、フレームを出力するために一緒に動作する1つまたは複数の処理段階を含むグラフィックス処理パイプラインを実行するように構成される。中央処理ユニット(CPU)は、1つまたは複数のグラフィックス処理コマンドをGPUに発行することにより、GPUの動作を制御することができる。現代のCPUは、通常、それらの各々が実行中にGPUを利用する必要があり得る、複数のアプリケーションを同時に実行することが可能である。ディスプレイプロセッサは、CPUから受け取ったデジタル情報をアナログ値に変換するように構成され、ビジュアルコンテンツを表示するためのディスプレイパネルにコマンドを発行することができる。ディスプレイ上の視覚的表現のためのコンテンツを提供するデバイスは、GPUおよび/またはディスプレイプロセッサを利用することができる。
[0003]デバイスのGPUは、グラフィックス処理パイプライン内のプロセスを実行するように構成される場合がある。さらに、ディスプレイプロセッサまたは表示処理ユニット(DPU)は、表示処理のプロセスを実行するように構成される場合がある。しかしながら、ワイヤレス通信、および小型のハンドヘルドデバイスの出現とともに、改善されたグラフィックス処理または表示処理に対する必要性の増加が生じている。
[0004]以下は、1つまたは複数の態様の基本的理解を提供するために、そのような態様の簡略化された概要を提示する。この概要は、すべての企図された態様の包括的な概観ではなく、すべての態様の主要または重要な要素を識別するものでも、いずれかまたはすべての態様の範囲を定めるものでもない。その唯一の目的は、後で提示されるより詳細な説明への導入として、1つまたは複数の態様のいくつかの概念を簡略化された形で提示することである。
[0005]本開示の一態様では、方法、コンピュータ可読媒体、および装置が提供される。装置は、表示処理ユニット(DPU)または表示処理もしくは画像処理を実行することができる任意の装置であってもよい。装置は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することができ、複数のフレームの各々は複数のピクセルを含み、複数のフレームの第1のフレームは、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する。装置はまた、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングすることができ、ダウンサンプリングされた画像は、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される。装置はまた、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップまたは深度マップのうちの少なくとも1つを生成することができ、第1のフレームは複数の第1のピクセルを含み、ダウンサンプリングされた画像は複数のダウンサンプリングされたピクセルを含む。その上、装置は、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することができ、CMFは、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。装置はまた、複数のダウンサンプリングされたピクセルの1つもしくは複数の低顕著性色、1つもしくは複数の高顕著性色、または深度情報のうちの少なくとも1つを調整することができ、深度情報は、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する。
[0006]本開示の1つまたは複数の例の詳細が、添付の図面および以下の説明に記載されている。本開示の他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになろう。
[0014]表示処理のいくつかの態様は、画像を計算するためのいくつかの可視化技法、たとえば、顕著性マップを利用する。顕著性マップは画像内の顕著性の概念を利用し、顕著性は、表示処理のコンテキストにおける画像またはフレームのいくつかの特徴、たとえば、ピクセル、解像度などを指すことができる。前述の特徴は、画像またはフレーム内の視覚的に魅力的な位置、すなわち、「顕著な」位置を描写することができる。顕著性マップは、画像またはフレーム内のこれらの視覚的に魅力的または顕著な位置の地形表現である。たとえば、顕著性マップは、画像の背景と比較して画像の前景を強調表示する助けになることができる。写真画像は、画像内のオブジェクトおよびシーンの厳密な色を正確に描写することができる。しかしながら、写真画像は、画像内のオブジェクトの深度または画像内の視覚的に魅力的な位置の深度を容易に描写することができない。対照的に、特定のペインティング技法は、遠くから見られたときにオブジェクトの外観に対して大気が有する効果を指す空気遠近感または大気遠近感に基づいて画像内の深度を描写することができる。たとえば、画像内のオブジェクトと見る人との間の距離が大きくなるにつれて、オブジェクトとその背景との間のコントラストは減少し、オブジェクト内の任意のマーキングまたは詳細のコントラストも減少する。画像内のこの空気遠近感または大気遠近感を描写するために、遠くのオブジェクトは、寒色、すなわち青みがかった色合いを有する色で描写される場合があり、より近くのオブジェクトは、暖色、すなわち赤みがかった色合いを有する色で描写される場合がある。さらに、空気遠近感または大気遠近感を利用するとき、画像内のオブジェクトの色はまた、あまり飽和せず、色の青みがかった色合いに対応することができる背景色に向かってシフトする場合がある。しかしながら、深度の錯覚を生み出すことから恩恵を受けるはずの画像内の他のオブジェクトまたは色が存在する場合がある。本開示の態様は、特定の画像、たとえば写真画像内の対象領域を検出し、深度の錯覚を生み出すことによってこれらの対象領域に焦点を合わせることができる。たとえば、本開示の態様は、空気遠近感または大気遠近感を介して画像内の対象領域に対して深度の錯覚を生み出すことができる。さらに、本開示の態様は、顕著性マップなどを介してピクセルの顕著性情報に基づいて、画像内のピクセル色を適応的に調整することができる。そうすることにより、本開示の態様は、画像内の大気遠近感または空気遠近感を生成することができる。さらに、本開示の態様は、画像の背景内の色飽和度を減少させ、画像の前景内の色飽和度を増加させることができる。
[0015]システム、装置、コンピュータプログラム製品、および方法の様々な態様が、添付の図面を参照して以下でより完全に記載される。しかしながら、本開示は多くの異なる形態で具現化されてもよく、本開示全体にわたって提示される任意の特定の構造または機能に限定されると解釈されるべきではない。むしろ、これらの態様は、本開示が完璧および完全になり、本開示の範囲を当業者に完全に伝達するように提供される。本明細書の教示に基づいて、当業者は、本開示の範囲が、本開示の他の態様とは無関係に実装されるか、本開示の他の態様と組み合わされるかにかかわらず、本明細書に開示されたシステム、装置、コンピュータプログラム製品、および方法のいかなる態様もカバーするものであることを諒解するべきである。たとえば、本明細書に記載された任意の数の態様を使用して、装置が実装され得るか、または方法が実践され得る。加えて、本開示の範囲は、本明細書に記載された本開示の様々な態様に加えて、またはそれら以外に、他の構造、機能、または構造および機能を使用して実践されるそのような装置または方法をカバーするものである。本明細書に開示されたいかなる態様も、請求項の1つまたは複数の要素によって具現化され得る。
[0016]様々な態様が本明細書に記載されるが、これらの態様の多くの変形および置換は本開示の範囲内に入る。本開示の態様のいくつかの潜在的な利益および利点が述べられるが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、異なるワイヤレス技術、システム構成、ネットワーク、および伝送プロトコルに広く適用可能なものであり、それらのうちのいくつかが、例として、図および以下の説明に示される。発明を実施するための形態および図面は、本開示を限定するのではなく例示するものにすぎず、本開示の範囲は添付の特許請求の範囲およびそれの均等物によって定義される。
[0017]様々な装置および方法に関していくつかの態様が提示される。これらの装置および方法は、以下の発明を実施するための形態に記載され、(「要素」と総称される)様々なブロック、構成要素、回路、プロセス、アルゴリズムなどによって添付の図面に示される。これらの要素は、電子ハードウェア、コンピュータソフトウェア、またはそれらの任意の組合せを使用して実装される場合がある。そのような要素がハードウェアとして実装されるか、ソフトウェアとして実装されるかは、特定の適用例および全体的なシステムに課される設計制約に依存する。
[0018]例として、要素、または要素の任意の部分、または要素の任意の組合せは、(処理ユニットと呼ばれる場合もある)1つまたは複数のプロセッサを含む「処理システム」として実装される場合がある。プロセッサの例には、マイクロプロセッサ、マイクロコントローラ、グラフィックス処理ユニット(GPU)、汎用GPU(GPGPU)、中央処理ユニット(CPU)、アプリケーションプロセッサ、デジタル信号プロセッサ(DSP)、縮小命令セットコンピューティング(RISC)プロセッサ、システムオンチップ(SOC)、ベースバンドプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブル論理デバイス(PLD)、状態機械、ゲート論理、個別ハードウェア回路、および本開示全体にわたって記載された様々な機能を実行するように構成された他の適切なハードウェアが含まれる。処理システム内の1つまたは複数のプロセッサはソフトウェアを実行することができる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語などの名称にかかわらず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェア構成要素、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行ファイル、実行スレッド、プロシージャ、関数などを意味するように広く解釈され得る。アプリケーションという用語は、ソフトウェアを指す場合がある。本明細書に記載されたように、1つまたは複数の技法は、アプリケーション、すなわち、ソフトウェアが1つまたは複数の機能を実行するように構成されることを指す場合がある。そのような例では、アプリケーションは、メモリ、たとえば、プロセッサのオンチップメモリ、システムメモリ、または任意の他のメモリに記憶される場合がある。プロセッサなどの本明細書に記載されたハードウェアは、アプリケーションを実行するように構成される場合がある。たとえば、アプリケーションは、ハードウェアによって実行されると、本明細書に記載された1つまたは複数の技法をハードウェアに実行させるコードを含むものとして記載される場合がある。一例として、ハードウェアは、本明細書に記載された1つまたは複数の技法を実行するために、メモリからコードにアクセスし、メモリからアクセスされたコードを実行することができる。いくつかの例では、構成要素は本開示において識別される。そのような例では、構成要素は、ハードウェア、ソフトウェア、またはそれらの組合せであり得る。構成要素は、別々の構成要素または単一の構成要素の副構成要素であり得る。
[0019]したがって、本明細書に記載された1つまたは複数の例では、記載された機能は、ハードウェア、ソフトウェア、またはそれらの任意の組合せで実装される場合がある。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体上に1つもしくは複数の命令またはコードとして符号化される場合がある。コンピュータ可読媒体はコンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、電気的消去可能プログラマブルROM(EEPROM(登録商標))、光ディスクストレージ、磁気ディスクストレージ、他の磁気ストレージデバイス、前述のタイプのコンピュータ可読媒体の組合せ、またコンピュータによってアクセスされ得る命令もしくはデータ構造の形態のコンピュータ実行可能コードを記憶するために使用され得る任意の他の媒体を備えることができる。
[0020]概して、本開示は、単一のデバイスまたは複数のデバイス内のグラフィックス処理パイプラインを有し、グラフィカルコンテンツのレンダリングを改善し、および/または処理ユニット、すなわち、GPUなどの本明細書に記載された1つもしくは複数の技法を実行するように構成された任意の処理ユニットの負荷を低減するための技法を記載する。たとえば、本開示は、グラフィックス処理を利用する任意のデバイスにおけるグラフィックス処理のための技法を記載する。他の例示的な利益が本開示全体にわたって記載される。
[0021]本明細書で使用される「コンテンツ」という用語のインスタンスは、「グラフィカルコンテンツ」、「画像」を指す場合があり、その逆も同様である。これは、用語が形容詞として使用されているか、名詞として使用されているか、他の品詞として使用されているかにかかわらず当てはまる。いくつかの例では、本明細書で使用される「グラフィカルコンテンツ」という用語は、グラフィックス処理パイプラインの1つまたは複数のプロセスによって生成されたコンテンツを指す場合がある。いくつかの例では、本明細書で使用される「グラフィカルコンテンツ」という用語は、グラフィックス処理を実行するように構成された処理ユニットによって生成されたコンテンツを指す場合がある。いくつかの例では、本明細書で使用される「グラフィカルコンテンツ」という用語は、グラフィックス処理ユニットによって生成されたコンテンツを指す場合がある。
[0022]いくつかの例では、本明細書で使用される「表示コンテンツ」という用語は、表示処理を実行するように構成された処理ユニットによって生成されたコンテンツを指す場合がある。いくつかの例では、本明細書で使用される「表示コンテンツ」という用語は、表示処理ユニットによって生成されたコンテンツを指す場合がある。グラフィカルコンテンツは、表示コンテンツになるように処理される場合がある。たとえば、グラフィックス処理ユニットは、(フレームバッファと呼ばれる場合がある)バッファにフレームなどのグラフィカルコンテンツを出力することができる。表示処理ユニットは、バッファから1つまたは複数のフレームなどのグラフィカルコンテンツを読み取り、表示コンテンツを生成するために、それらに対して1つまたは複数の表示処理技法を実行することができる。たとえば、表示処理ユニットは、フレームを生成するために、1つまたは複数のレンダリングされたレイヤに対して合成を実行するように構成される場合がある。別の例として、表示処理ユニットは、2つ以上のレイヤを一緒に単一のフレームに合成するか、ブレンドするか、またはさもなければ結合するように構成される場合がある。表示処理ユニットは、フレームに対してスケーリング、たとえば、アップスケーリングまたはダウンスケーリングを実行するように構成される場合がある。いくつかの例では、フレームはレイヤを指す場合がある。他の例では、フレームは、フレームを形成するためにすでに一緒にブレンドされている2つ以上のレイヤを指す場合があり、すなわち、フレームは2つ以上のレイヤを含み、2つ以上のレイヤを含むフレームは、その後ブレンドされる場合がある。
[0023]図1は、本開示の1つまたは複数の技法を実施するように構成された例示的なコンテンツ生成システム100を示すブロック図である。コンテンツ生成システム100はデバイス104を含む。デバイス104は、本明細書に記載された様々な機能を実行するための1つまたは複数の構成要素または回路を含む場合がある。いくつかの例では、デバイス104の1つまたは複数の構成要素は、SOCの構成要素であり得る。デバイス104は、本開示の1つまたは複数の技法を実行するように構成された1つまたは複数の構成要素を含む場合がある。図示された例では、デバイス104は、処理ユニット120と、コンテンツエンコーダ/デコーダ122と、システムメモリ124とを含む場合がある。いくつかの態様では、デバイス104は、いくつかのオプションの構成要素、たとえば、通信インターフェース126、トランシーバ132、受信機128、送信機130、ディスプレイプロセッサ127、および1つまたは複数のディスプレイ131を含むことができる。ディスプレイ131への言及は、1つまたは複数のディスプレイ131を指す場合がある。たとえば、ディスプレイ131は、単一のディスプレイまたは複数のディスプレイを含む場合がある。ディスプレイ131は、第1のディスプレイと第2のディスプレイとを含む場合がある。第1のディスプレイは左眼ディスプレイであり得、第2のディスプレイは右眼ディスプレイであり得る。いくつかの例では、第1および第2のディスプレイは、その上での提示のための異なるフレームを受け取る場合がある。他の例では、第1および第2のディスプレイは、その上での提示のための同じフレームを受け取る場合がある。さらなる例では、グラフィックス処理の結果はデバイス上に表示されない場合があり、たとえば、第1および第2のディスプレイは、その上での提示のためのいかなるフレームも受け取らない場合がある。代わりに、フレームまたはグラフィックス処理結果は、別のデバイスに転送される場合がある。いくつかの態様では、これは、スプリットレンダリングと呼ばれ得る。
[0024]処理ユニット120は内部メモリ121を含む場合がある。処理ユニット120は、グラフィックス処理パイプライン107などにおいてグラフィックス処理を実行するように構成される場合がある。コンテンツエンコーダ/デコーダ122は内部メモリ123を含む場合がある。いくつかの例では、デバイス104は、1つまたは複数のディスプレイ131による提示の前に処理ユニット120によって生成された1つまたは複数のフレームに対して1つまたは複数の表示処理技法を実行するために、ディスプレイプロセッサ127などのディスプレイプロセッサを含む場合がある。ディスプレイプロセッサ127は、表示処理を実行するように構成される場合がある。たとえば、ディスプレイプロセッサ127は、処理ユニット120によって生成された1つまたは複数のフレームに対して1つまたは複数の表示処理技法を実行するように構成される場合がある。1つまたは複数のディスプレイ131は、ディスプレイプロセッサ127によって処理されたフレームを表示するか、またはさもなければ提示するように構成される場合がある。いくつかの例では、1つまたは複数のディスプレイ131は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、投影ディスプレイデバイス、拡張現実ディスプレイデバイス、仮想現実ディスプレイデバイス、ヘッドマウントディスプレイ、または任意の他のタイプのディスプレイデバイスのうちの1つまたは複数を含む場合がある。
[0025]システムメモリ124などの、処理ユニット120およびコンテンツエンコーダ/デコーダ122の外部のメモリは、処理ユニット120およびコンテンツエンコーダ/デコーダ122がアクセス可能であり得る。たとえば、処理ユニット120およびコンテンツエンコーダ/デコーダ122は、システムメモリ124などの外部メモリから読み取り、および/または外部メモリに書き込むように構成される場合がある。処理ユニット120およびコンテンツエンコーダ/デコーダ122は、バスを介してシステムメモリ124に通信可能に結合される場合がある。いくつかの例では、処理ユニット120およびコンテンツエンコーダ/デコーダ122は、バスまたは異なる接続を介して互いに通信可能に結合される場合がある。
[0026]コンテンツエンコーダ/デコーダ122は、システムメモリ124および/または通信インターフェース126などの任意のソースからグラフィカルコンテンツを受け取るように構成される場合がある。システムメモリ124は、受け取った符号化または復号されたグラフィカルコンテンツを記憶するように構成される場合がある。コンテンツエンコーダ/デコーダ122は、符号化されたピクセルデータの形式で、たとえば、システムメモリ124および/または通信インターフェース126から、符号化または復号されたグラフィカルコンテンツを受け取るように構成される場合がある。コンテンツエンコーダ/デコーダ122は、任意のグラフィカルコンテンツを符号化または復号するように構成される場合がある。
[0027]内部メモリ121またはシステムメモリ124は、1つまたは複数の揮発性または不揮発性のメモリまたはストレージデバイスを含む場合がある。いくつかの例では、内部メモリ121またはシステムメモリ124は、RAM、SRAM、DRAM、消去可能プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、フラッシュメモリ、磁気データ媒体もしくは光記憶媒体、または任意の他のタイプのメモリを含む場合がある。
[0028]内部メモリ121またはシステムメモリ124は、いくつかの例によれば、非一時的記憶媒体であり得る。「非一時的」という用語は、記憶媒体が搬送波または伝搬信号では具現化されないことを示すことができる。しかしながら、「非一時的」という用語は、内部メモリ121もしくはシステムメモリ124が非可動であること、またはそれのコンテンツが静的であることを意味すると解釈されるべきではない。一例として、システムメモリ124は、デバイス104から取り外され、別のデバイスに移動される場合がある。別の例として、システムメモリ124は、デバイス104から取外し可能でない場合がある。
[0029]処理ユニット120は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、汎用GPU(GPGPU)、またはグラフィックス処理を実行するように構成される場合がある任意の他の処理ユニットであり得る。いくつかの例では、処理ユニット120は、デバイス104のマザーボードに組み込まれる場合がある。いくつかの例では、処理ユニット120は、デバイス104のマザーボード内のポートに設置されたグラフィックスカード上に存在する場合があるか、またはさもなければ、デバイス104と相互動作するように構成された周辺デバイス内に組み込まれる場合がある。処理ユニット120は、1つまたは複数のマイクロプロセッサ、GPU、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、算術論理ユニット(ALU)、デジタル信号プロセッサ(DSP)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、他の均等な集積回路もしくはディスクリート論理回路、またはそれらの任意の組合せなどの、1つまたは複数のプロセッサを含む場合がある。本技法が部分的にソフトウェアに実装される場合、処理ユニット120は、適切な非一時的コンピュータ可読記憶媒体、たとえば、内部メモリ121にソフトウェア用の命令を記憶することができ、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェア内で命令を実行することができる。ハードウェア、ソフトウェア、ハードウェアとソフトウェアの組合せなどを含む上記のいずれも、1つまたは複数のプロセッサであると見なされてもよい。
[0030]コンテンツエンコーダ/デコーダ122は、コンテンツ復号を実行するように構成された任意の処理ユニットであり得る。いくつかの例では、コンテンツエンコーダ/デコーダ122は、デバイス104のマザーボードに組み込まれる場合がある。コンテンツエンコーダ/デコーダ122は、1つまたは複数のマイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、算術論理ユニット(ALU)、デジタル信号プロセッサ(DSP)、ビデオプロセッサ、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、他の均等な集積回路もしくはディスクリート論理回路、またはそれらの任意の組合せなどの、1つまたは複数のプロセッサを含む場合がある。本技法が部分的にソフトウェアに実装される場合、コンテンツエンコーダ/デコーダ122は、適切な非一時的コンピュータ可読記憶媒体、たとえば、内部メモリ123にソフトウェア用の命令を記憶することができ、本開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェア内で命令を実行することができる。ハードウェア、ソフトウェア、ハードウェアとソフトウェアの組合せなどを含む上記のいずれも、1つまたは複数のプロセッサであると見なされてもよい。
[0031]いくつかの態様では、コンテンツ生成システム100は、オプションの通信インターフェース126を含むことができる。通信インターフェース126は、受信機128と送信機130とを含む場合がある。受信機128は、デバイス104に関して本明細書に記載された任意の受信機能を実行するように構成される場合がある。さらに、受信機128は、別のデバイスから、情報、たとえば、眼もしくは頭部の場所情報、レンダリングコマンド、または位置情報を受信するように構成される場合がある。送信機130は、デバイス104に関して本明細書に記載された任意の送信機能を実行するように構成される場合がある。たとえば、送信機130は、コンテンツに対する要求を含む場合がある情報を別のデバイスに送信するように構成される場合がある。受信機128および送信機130は、組み合わされてトランシーバ132になり得る。そのような例では、トランシーバ132は、デバイス104に関して本明細書に記載された任意の受信機能および/または送信機能を実行するように構成される場合がある。
[0032]再び図1を参照すると、いくつかの態様では、ディスプレイプロセッサ127は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出するように構成された決定構成要素198を含む場合があり、複数のフレームの各々は複数のピクセルを含み、複数のフレームの第1のフレームは、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する。決定構成要素198はまた、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングするように構成される場合があり、ダウンサンプリングされた画像は、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される。決定構成要素198はまた、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップまたは深度マップのうちの少なくとも1つを生成するように構成される場合があり、第1のフレームは複数の第1のピクセルを含み、ダウンサンプリングされた画像は複数のダウンサンプリングされたピクセルを含む。決定構成要素198はまた、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに適用するように構成される場合があり、CMFは、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。決定構成要素198はまた、複数のダウンサンプリングされたピクセルの1つもしくは複数の低顕著性色、1つもしくは複数の高顕著性色、または深度情報のうちの少なくとも1つを調整するように構成される場合があり、深度情報は、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する。以下の説明は表示処理または画像処理に焦点を当てる場合があるが、本明細書に記載された概念は他の同様の処理技法に適用可能であり得る。
[0033]本明細書に記載されたように、デバイス104などのデバイスは、本明細書に記載された1つまたは複数の技法を実行するように構成された任意のデバイス、装置、またはシステムを指す場合がある。たとえば、デバイスは、サーバ、基地局、ユーザ機器、クライアントデバイス、局、アクセスポイント、コンピュータ、たとえば、パーソナルコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、コンピュータワークステーション、もしくはメインフレームコンピュータ、最終製品、装置、電話、スマートフォン、サーバ、ビデオゲームプラットフォームもしくはコンソール、ハンドヘルドデバイス、たとえば、ポータブルビデオゲームデバイスもしくは携帯情報端末(PDA)、ウェアラブルコンピューティングデバイス、たとえば、スマートウォッチ、拡張現実デバイス、もしくは仮想現実デバイス、非ウェアラブルデバイス、ディスプレイもしくはディスプレイデバイス、テレビジョン、テレビジョンセットトップボックス、中間ネットワークデバイス、デジタルメディアプレーヤ、ビデオストリーミングデバイス、コンテンツストリーミングデバイス、車内コンピュータ、任意のモバイルデバイス、グラフィカルコンテンツを生成するように構成された任意のデバイス、または本明細書に記載された1つもしくは複数の技法を実行するように構成された任意のデバイスであり得る。本明細書のプロセスは、特定の構成要素(たとえば、GPU)によって実行されるものとして記載される場合があるが、さらなる実施形態では、開示された実施形態と一致する他の構成要素(たとえば、CPU)を使用して実行され得る。
[0034]GPUは、GPUパイプラインにおいて複数のタイプのデータまたはデータパケットを処理することができる。たとえば、いくつかの態様では、GPUは、2つのタイプのデータまたはデータパケット、たとえば、コンテキストレジスタパケットおよび描画呼出しデータを処理することができる。コンテキストレジスタパケットは、グラフィックスコンテキストがどのように処理されるかを調整することができる、一組のグローバル状態情報、たとえば、グローバルレジスタ、シェーディングプログラム、または定数データに関する情報であり得る。たとえば、コンテキストレジスタパケットは、色フォーマットに関する情報を含むことができる。コンテキストレジスタパケットのいくつかの態様では、どの作業負荷がコンテキストレジスタに属するかを示すビットがあり得る。また、同時および/または並列に稼働する複数の機能またはプログラミングがあり得る。たとえば、機能またはプログラミングは、ある特定の動作、たとえば、色モードまたは色フォーマットを記述することができる。したがって、コンテキストレジスタは、GPUの複数の状態を定義することができる。
[0035]コンテキスト状態は、個々の処理ユニット、たとえば、頂点フェッチャ(VFD)、頂点シェーダ(VS)、シェーダプロセッサ、もしくは幾何形状プロセッサがどのように機能するか、および/または処理ユニットがどのモードで機能するかを決定するために利用され得る。そうするために、GPUは、コンテキストレジスタとプログラミングデータとを使用することができる。いくつかの態様では、GPUは、モードまたは状態のコンテキストレジスタ定義に基づいて、パイプラインにおいて、作業負荷、たとえば、頂点またはピクセルの作業負荷を生成することができる。いくつかの処理ユニット、たとえば、VFDは、いくつかの機能、たとえば、頂点がどのようにアセンブルされるかを決定するために、これらの状態を使用することができる。これらのモードまたは状態は変化することができるので、GPUは、対応するコンテキストを変更する必要があり得る。さらに、モードまたは状態に対応する作業負荷は、変化するモードまたは状態に従う場合がある。
[0036]図2は、本開示の1つまたは複数の技法による、例示的なGPU200を示す。図2に示されたように、GPU200は、コマンドプロセッサ(CP)210と、描画呼出しパケット212と、VFD220と、VS222と、頂点キャッシュ(VPC)224と、三角形セットアップエンジン(TSE)226と、ラスタライザ(RAS)228と、Zプロセスエンジン(ZPE)230と、ピクセル補間器(PI)232と、フラグメントシェーダ(FS)234と、レンダバックエンド(RB)236と、レベル2(L2)キャッシュ(UCHE)238と、システムメモリ240とを含む。図2は、GPU200が処理ユニット220~238を含むことを表示するが、GPU200は、いくつかのさらなる処理ユニットを含むことができる。さらに、処理ユニット220~238は一例にすぎず、本開示によれば、処理ユニットの任意の組合せまたは順序がGPUによって使用され得る。GPU200はまた、コマンドバッファ250と、コンテキストレジスタパケット260と、コンテキスト状態261とを含む。
[0037]図2に示されたように、GPUは、CP、たとえば、CP210、またはハードウェアアクセラレータを利用して、コマンドバッファをコンテキストレジスタパケット、たとえば、コンテキストレジスタパケット260、および/または描画呼出しデータパケット、たとえば、描画呼出しパケット212に構文解析することができる。CP210は、次いで、コンテキストレジスタパケット260または描画呼出しデータパケット212を、別々の経路を通して、GPU内の処理ユニットまたは処理ブロックに送ることができる。さらに、コマンドバッファ250は、コンテキストレジスタおよび描画呼出しの異なる状態を交互にすることができる。たとえば、コマンドバッファは、以下の方式:コンテキストNのコンテキストレジスタ、コンテキストNの描画呼出し、コンテキストN+1のコンテキストレジスタ、およびコンテキストN+1の描画呼出しで構造化され得る。
[0038]表示処理または画像処理の態様では、いくつかの異なるオブジェクトまたは色が画像またはフレーム内で調整または強調される場合がある。そうすることにより、画像内のオブジェクトまたは色が改善される場合があり、それにより、画像の全体的な外観が改善される場合がある。画像内のオブジェクトまたは色を調整または強調するために、オブジェクトまたは色は、調整または強調より前に識別される必要があり得る。いくつかの事例では、このプロセスは、画像処理パイプラインまたは表示処理パイプラインにおいて実行される場合がある。その上、このプロセスは、オブジェクトまたは色の識別プロセスと呼ばれる場合がある。
[0039]図3は、表示処理または画像処理のための構成要素の図300を示す。たとえば、図3は、オブジェクトまたは色の分類プロセスのための例示的な構造を示す。図3に示されたように、図300は、入力310と、画像ダウンスケーラ320と、フレーム選択ステップ322と、ピクセル分類器330と、マルチプレクサ(MUX)340とを含む場合がある。図300はまた、GPU350および/またはビデオデコーダ352を含むことができるコンテンツソースを含むことができる。さらに、図300は、人工知能(AI)プロセッサまたはAI処理ユニット360と、CPUソフトウェア370と、メモリ380と、画像後処理ユニット390と、出力392とを含む場合がある。図300の入力310は、画像または画像シーケンスを含む場合がある。また、図300の出力392は、処理後の画像または画像シーケンスを含む場合がある。
[0040]図3に示されたように、入力310は、画像ダウンスケーラ320、ピクセル分類器330、および画像後処理ユニット390と通信することができる。また、画像ダウンスケーラ320は、たとえば、フレームまたは画像を選択するために、フレーム選択ステップ322と通信することができる。さらに、フレーム選択ステップ322は、たとえば、メモリ380を介して、AIプロセッサ360および/またはCPUソフトウェア370と、たとえば、低減された解像度の画像を通信することができる。AIプロセッサ360はまた、メモリ380を介してCPUソフトウェア370と通信することができる。GPU350およびビデオデコーダ352は、たとえば、メモリ380を介して、MUX340と通信することができる。MUX340はまた、入力310と通信することができる。また、CPUソフトウェア370は、たとえば、構成更新をピクセル分類器330および/または画像後処理ユニット390と通信することができる。ピクセル分類器330はまた、画像後処理ユニット390と通信することができる。この後、画像後処理ユニット390は、たとえば、画像または画像シーケンスを出力392と通信することができる。
[0041]図3にさらに描写されたように、画像後処理ユニット390は、前フレーム合成または後フレーム合成であり得る。いくつかの態様では、図300は、低電力リアルタイムピクセル処理パイプラインを含む場合があり、それは、入力310、画像ダウンスケーラ320、ピクセル分類器330、および/または画像後処理ユニット390を含む場合がある。また、図300は非リアルタイム処理を含む場合があり、それは選択された画像またはフレームに対して実行される場合がある。この非リアルタイム処理は、フレーム選択ステップ322と、MUX340と、GPU350と、ビデオデコーダ352と、AIプロセッサ360と、CPUソフトウェア370と、メモリ380とを含む場合がある。いくつかの態様では、AIプロセッサ360は、ニューラルネットワークプロセッサと呼ばれる場合がある。また、CPUソフトウェア370は、統計分析に利用される場合がある。
[0042]表示処理のいくつかの態様は、画像を計算するためのいくつかの可視化技法、たとえば、顕著性マップを利用する。顕著性マップは画像内の顕著性の概念を利用し、顕著性は、表示処理のコンテキストにおける画像またはフレームのいくつかの特徴、たとえば、ピクセル、解像度などを指すことができる。前述の特徴は、画像またはフレーム内の視覚的に魅力的な位置、すなわち、「顕著な」位置を描写することができる。顕著性マップは、画像またはフレーム内のこれらの視覚的に魅力的または顕著な位置の地形表現である。たとえば、顕著性マップは、画像の背景と比較して画像の前景を強調表示する助けになることができる。いくつかの事例では、顕著性マップを生成するために、ニューラルネットワーク(NN)または畳み込みニューラルネットワーク(CNN)が利用される場合がある。本開示の態様はまた、オブジェクトセグメンテーションマップを利用することができる。オブジェクトセグメンテーションマップは、各ピクセルについてのバイナリ分類を含み、各ピクセルは、画像の前景または背景のいずれかにあるものとして分類される。以下の図4は例示的なオブジェクトセグメンテーションマップであり、それは画像またはフレーム内の前景/背景セグメンテーションに使用される別の用語であってもよい。
[0043]図4は、表示処理または画像処理のための例示的な顕著性マップまたはオブジェクトセグメンテーションマップ400である。図4に示されたように、顕著性/オブジェクトセグメンテーションマップ400は、それぞれの画像または写真画像に対応する。たとえば、図4は、猫410と月420とを含む写真画像用の顕著性/オブジェクトセグメンテーションマップ400である。図4に示されたように、顕著性マップは、画像内の対象のオブジェクト、すなわち顕著なオブジェクトを強調表示する。顕著性/オブジェクトセグメンテーションマップ400によって描写されたように、猫410および月420は、対応する写真画像内の対象のオブジェクト、すなわち顕著なオブジェクトである。
[0044]写真画像は、画像内のオブジェクトおよびシーンの厳密な色を正確に描写することができる。しかしながら、写真画像は、画像内のオブジェクトの深度または画像内の視覚的に魅力的な位置の深度を容易に描写することができない。対照的に、特定のペインティング技法は、遠くから見られたときにオブジェクトの外観に対して大気が有する効果を指す空気遠近感または大気遠近感に基づいて画像内の深度を描写することができる。たとえば、画像内のオブジェクトと見る人との間の距離が大きくなるにつれて、オブジェクトとその背景との間のコントラストは減少し、オブジェクト内の任意のマーキングまたは詳細のコントラストも減少する。
[0045]画像内のこの空気遠近感または大気遠近感を描写するために、遠くのオブジェクトは、寒色、すなわち青みがかった色合いを有する色で描写される場合があり、より近くのオブジェクトは、暖色、すなわち赤みがかった色合いを有する色で描写される場合がある。さらに、空気遠近感または大気遠近感を利用するとき、画像内のオブジェクトの色はまた、あまり飽和せず、青みがかった色合いに対応することができる背景色に向かってシフトする場合がある。しかしながら、深度の錯覚を生み出すことから恩恵を受けるはずの画像内の他のオブジェクトまたは色が存在する場合がある。上記に基づいて、特定の画像、たとえば写真画像内の対象領域を検出することは有利であり得る。深度の錯覚を生み出すことによってこれらの対象領域に焦点を合わせることも有利であり得る。その上、空気遠近感または大気遠近感を介して画像内の対象領域に対して深度の錯覚を生み出すことは有利であり得る。
[0046]本開示の態様は、特定の画像、たとえば写真画像内の対象領域を検出し、深度の錯覚を生み出すことによってこれらの対象領域に焦点を合わせることができる。たとえば、本開示の態様は、空気遠近感または大気遠近感を介して画像内の対象領域に対して深度の錯覚を生み出すことができる。さらに、本開示の態様は、顕著性マップなどを介してピクセルの顕著性情報に基づいて、画像内のピクセル色を適応的に調整することができる。そうすることにより、本開示の態様は、画像内の大気遠近感または空気遠近感を生成することができる。さらに、本開示の態様は、画像の背景内の色飽和度を減少させ、画像の前景内の色飽和度を増加させることができる。
[0047]いくつかの事例では、画像内のシーン変化を検出した後などに、本開示の態様は、画像をダウンスケールまたはダウンサンプリングすることができる。本開示の態様は、ダウンサンプリングされた画像をニューラルネットワーク(NN)プロセッサ、たとえば、畳み込みニューラルネットワーク(CNN)または人工知能(AI)分析器に供給することができる。結果として、ニューラルネットワークプロセッサは、顕著性マップまたはオブジェクトセグメンテーションマップを生成(produce)または生成(generate)することができる。次いで、顕著性マップまたはオブジェクトセグメンテーションマップは、たとえば、ソフトウェアを使用してダウンサンプリングされた画像と比較される場合があり、本開示の態様は、顕著性マップ内の顕著なオブジェクトと比較されたダウンサンプリングされた画像の色を分析することができる。そのため、本開示の態様は、どの色が顕著性マップ内の顕著性グループの一部であるか、ならびにどの色が顕著性グループの一部でないかを決定することができる。顕著な色の分析に基づいて、顕著性マップは、一組の高顕著性色および一組の低顕著性色に変換される場合がある。
[0048]顕著な色の分析の後、本開示の態様は、色マッピング関数(CMF)または色処理エンジン、たとえば、3次元(3D)参照テーブル(LUT)を利用して、画像内の色を調整または再マッピングすることができる。いくつかの事例では、色マッピング関数、たとえば3D LUTは、高顕著性色をより高く飽和した高顕著性色に再マッピングし、ならびに低顕著性色をより低く飽和した低顕著性色に再マッピングすることができる。たとえば、色マッピング関数、たとえば3D LUTは、前景オブジェクトをより高く飽和した高顕著性色に再マッピングし、ならびに背景オブジェクトをより低く飽和した低顕著性色に再マッピングすることができる。そうするために、本開示の態様は、前景オブジェクトの飽和度を上げるか、または前景オブジェクトの色を暖色(すなわち、赤みがかった色)に向かってシフトすることができる。また、本開示の態様は、背景オブジェクトの飽和度を下げるか、または背景オブジェクトの色を寒色(すなわち、青みがかった色)に向かってシフトすることができる。
[0049]さらに、本開示の態様は、たとえば、DPUにおいて、各フレーム内の色の飽和度をシフトするために利用される電力量を削減することができる。たとえば、シーン変化を検出すると顕著性マップまたはオブジェクトセグメンテーションマップを分析し、色マッピング関数、たとえば3D LUTを利用して高顕著性色および低顕著性色を再マッピングすることにより、各フレーム内の色の飽和度をシフトするために利用される電力量が削減される場合がある。たとえば、色マッピング関数、たとえば3D LUTの構成は、たとえば、ニューラルネットワークによる新しい顕著性マップの分析がフレーム単位ごとに利用されない場合があるように、検出されたシーン変化の後のいくつかのフレームに使用されない場合がある。むしろ、本開示の態様は、これらのフレームに利用される電力量を削減するために、シーン変化またはしきい値量のフレーム、たとえばN個のフレームの後のいくつかのフレームに対して顕著性およびニューラルネットワークの分析を実行することができる。そのため、本開示の態様は、たとえば、DPUにおいて、特定のシーン内の色がかなりの量変化しない場合があるので、特定のシーン内のいくつかのフレームに対する顕著性およびニューラルネットワークの分析を利用することによって電力を節約することができる。したがって、本開示の態様は、別のシーン変化があるまで、またはしきい値量のフレーム、たとえばN個のフレームまで、同じ顕著性分析を利用することができる。
[0050]いくつかの事例では、本開示の態様は、ニューラルネットワークを利用して、空間マップ、たとえば、深度マップ、オブジェクトセグメンテーションマップ、または顕著性マップを計算することができる。この空間マップは、フレーム内の対象のオブジェクト、すなわち、前景/背景オブジェクトおよび/または顕著なオブジェクトを識別することができる。たとえば、本開示の態様は、統計分析を実行して、どのオブジェクトが画像の前景または背景にあるか、ならびにどのオブジェクトが顕著なオブジェクトであるかを決定することができる。次いで、本開示の態様は、空間マップ、たとえば、深度マップまたは顕著性マップを色マップに変換することができる。次いで、色マップは、シーン内の各フレームにおいて、またはしきい値量のフレームに達するまで、色を調整するために利用される場合がある。さらに、この色マップは、フレーム内の移動に耐性があり得るので、同じシーン内のフレームに新しい色マップが必要とされない場合があり、こうして電力が節約される。
[0051]図5は、本開示の1つまたは複数の技法による、色変換プロセスのための構成要素の図500である。図5に示されたように、図500は、色変換セクション502と、人工知能(AI)分析セクション504と、入力画像510と、ダウンサンプリングされた画像520と、ニューラルネットワークまたはAI分析器530と、顕著性/オブジェクトセグメンテーションマップ540と、顕著性/オブジェクトセグメンテーションマップ分析および色マッピング機能(CMF)ジェネレータ550と、色マッピング関数560と、出力画像570とを含む。より具体的には、図5の図500は、顕著性/オブジェクトセグメンテーションマップ分析およびCMF、たとえば、3次元(3D)参照テーブル(LUT)を利用する色変換プロセスを含む。図5の色変換プロセスは、画像の高顕著性色または低顕著性色を調整するために利用される場合がある。
[0052]図5に示されたように、本開示の態様は、ダウンサンプリングされた画像520を生成するために入力画像510をダウンサンプリングすることができる。次いで、このダウンサンプリングされた画像520は、ニューラルネットワーク530などを介して、顕著性/オブジェクトセグメンテーションマップ540を生成するために使用される場合がある。次に、本開示の態様は、顕著性/オブジェクトセグメンテーションマップ540の顕著性/オブジェクトセグメンテーションマップ分析550を実行し、ならびにCMFジェネレータを含むことができる。さらに、顕著性/オブジェクトセグメンテーションマップ分析550は、画像の低顕著性色または高顕著性色を決定するために、CMF560と組み合わされる場合がある。最後に、本開示は、画像の低顕著性色または高顕著性色を調整し、出力画像570を生成することができる。図5に示されたように、本開示の態様は、画像内の大気遠近感または空気遠近感を生成するように、画像の低顕著性色または高顕著性色を調整することができる。
[0053]いくつかの態様では、図5に示されたように、画像内のシーン変化を検出すると、本開示の態様は、AI分析セクション504内の構成要素、たとえば、ダウンサンプリングされた画像520、ニューラルネットワーク530、顕著性/オブジェクトセグメンテーションマップ540、および顕著性/オブジェクトセグメンテーションマップ分析550を利用する。シーン内の残りのフレームに対して、または別のシーン変化があるまで、本開示の態様は、AI分析セクション504内のステップを実行しない場合がある。すなわち、AI分析セクション504内のステップを実行した後、シーン内の各画像またはフレームは、色変換セクション502内の構成要素、たとえば、CMF560によって処理される場合がある。したがって、本開示の態様は、別のシーン変化があるまで、またはしきい値量のフレーム、たとえばN個のフレームまで、同じ顕著性分析、たとえば、色変換セクション502内のステップを利用することができる。そのため、色変換セクション502内のステップは、リアルタイム分析であり得る。そうすることにより、本開示の態様は、シーン内のフレームごとに色変換プロセスを実行するために利用される電力量を削減することができる。別のシーン変化を検出すると、本開示の態様は、AI分析セクション504内のステップを実行することができる。
[0054]上記に示されたように、本開示の態様は、画像内の高顕著性ピクセルまたは低顕著性ピクセルを検出するために、顕著性/オブジェクトセグメンテーションマップを分析することができる。次いで、これらの高顕著性ピクセルまたは低顕著性ピクセルは、画像内の高顕著性色または低顕著性色を決定するために、色ヒストグラムまたはCMFとともに分析される場合がある。たとえば、本開示の態様は、特定の色がフレーム内の高顕著性ピクセルまたは低顕著性ピクセルと関連付けられる相対的な確率を示す統計データを分析することができる。一例では、ある特定の色が、その色を有するピクセルがシーン内に現れる事例のある特定のレート、たとえば90%でその色が高顕著性ピクセルと関連付けられる場合、それは高顕著性色として識別され得る。また、ある色が事例のある特定の割合で低顕著性ピクセルと関連付けられる場合、それは低顕著性色として識別され得る。これらの高顕著性色および低顕著性色は、出力画像を生成するために調整される場合がある。
[0055]いくつかの事例では、本開示の態様は、どちらが最初に発生しても、連続するフレームの中でシーン変化を検出するか、またはしきい値数の受信されたフレーム(たとえば、N個のフレーム)を識別することができる。そうすると、本開示の態様は、特定のフレーム、たとえば、連続するフレームの中でのシーン変化の検出、またはしきい値数の受信されたフレームの識別をトリガするフレームのための顕著性/オブジェクトセグメンテーションマップを生成することができる。さらに、顕著性マップは、人工知能(AI)分析またはニューラルネットワーク(NN)、たとえば、畳み込みニューラルネットワーク(CNN)を利用することなどにより、フレームのダウンサンプリングされた画像に基づいて生成される場合がある。
[0056]さらに、本開示の態様は、特定のフレームの低顕著性色または高顕著性色を識別することができる。これらの色は、フレームの顕著性/オブジェクトセグメンテーションマップおよびダウンサンプリングされた画像の分析に基づいて識別される場合がある。そうするために、本開示の態様は、フレーム内の高顕著性の領域に関連付けられた色、すなわち、高顕著性色を検出することなどにより、フレームの顕著性/オブジェクトセグメンテーションマップをダウンサンプリングされた画像と比較することができる。本開示の態様はまた、フレーム内の低顕著性の領域に関連付けられた色、すなわち、低顕著性色を検出することなどにより、顕著性マップをダウンサンプリングされた画像と比較することができる。
[0057]上記に示されたように、本開示の態様はまた、フレームのダウンサンプリングされた画像と比較された顕著性/オブジェクトセグメンテーションマップの分析に基づいて、色マッピング関数(CMF)、たとえば、3D参照テーブル(LUT)を生成することができる。さらに、本開示の態様は、CMFまたは3D LUTなどを介して、低顕著性色および/または高顕著性色を調整することができる。たとえば、本開示の態様は、低顕著性色、すなわち画像の背景内のオブジェクトについての色飽和度を下げ、高顕著性色、すなわち画像の前景内のオブジェクトについての色飽和度を上げることができる。本開示の態様はまた、高顕著性色が飽和度の増加および/または暖色(すなわち、赤みがかった色)に向かうシフトを受けることができるように、CMF、たとえば、3D LUTの構成を生成することができる。また、生成されたCMF、たとえば、3D LUTの構成は、低顕著性色が飽和度の減少および寒色(すなわち、青みがかった色)に向かうシフトを受けることをもたらすことができる。本開示の態様はまた、新しく生成された色構成でCMF、たとえば、3D LUTを更新することができる。
[0058]本開示の態様は、初期画像を入力し、前述の技法に基づいて調整された画像を出力することができる。調整された画像は、初期画像内のピクセルの顕著性ベースの色調整に基づいて生成される場合がある。本明細書に示されたように、出力画像は、画像内の高顕著性色向けの飽和度の増加および/または暖色シフトを受けることができる。さらに、出力画像は、画像内の低顕著性色向けの飽和度の減少および/または寒色シフトを受けることができる。
[0059]本開示の態様は、いくつかの利益または利点を含む場合がある。たとえば、本開示の態様は、人工知能(AI)分析またはニューラルネットワーク(NN)を使用して強調された表示のための低電力方法を含む場合がある。いくつかの事例では、AI分析は、少量の入力フレーム、たとえば、シーン変化に対応するフレームに対して実行される場合がある。また、NNまたは畳み込みNN(CNN)は、入力フレームのダウンサンプリングされたバージョンに対して動作することができる。ピクセルは、低電力色変換ブロックを使用してフル解像度で処理される場合がある。したがって、本開示の態様は、たとえば、DPUにおいて画像処理に利用される電力量を削減することができる。その上、ピクセルは、CMF、たとえば、3D LUTに基づいてハードウェアを使用して処理される場合がある。本開示の態様は、画像またはフレーム内の対象領域を検出し、深度の錯覚を生み出すことによってそれらに焦点を合わせることができる。前述されたように、本開示のこの技法は、大気遠近法または空気遠近法と呼ばれる技法に対応することができる。
[0060]図6は、本開示の1つまたは複数の技法による、表示処理の通信フロー図600である。図6に示されたように、図600は、本開示の1つまたは複数の技法による、DPU/AI分析器602、GPU/CPU604、およびディスプレイ606の間の例示的な通信を含む。
[0061]610において、DPU602は、複数のフレーム、たとえばフレーム612の連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することができ、複数のフレームの各々は複数のピクセルを含み、複数のフレームの第1のフレームは、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する。また、複数のフレーム、たとえばフレーム612の各々は、DPU、たとえばDPU602において、GPUまたはCPU、たとえばGPU/CPU604から受信される場合がある。
[0062]620において、DPU602は、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングすることができ、ダウンサンプリングされた画像は、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される。
[0063]630において、DPU/AI分析器602は、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することができ、第1のフレームは複数の第1のピクセルを含み、ダウンサンプリングされた画像は複数のダウンサンプリングされたピクセルを含む。顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つは、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、または人工知能(AI)分析を使用して生成される場合がある。いくつかの態様では、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つは、第1のフレームの顕著性情報、第1のフレームの深度情報、または第1のフレームのオブジェクト情報のうちの少なくとも1つに基づく場合がある。また、データ632は、DPU/AI分析器602とGPU/CPU604との間で転送される場合がある。
[0064]640において、CPU604は、ダウンサンプリングされた画像内の1つまたは複数のピクセルと、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルとを分析することができる。いくつかの事例では、DPU602は、ダウンサンプリングされた画像および顕著性マップまたは深度マップのうちの少なくとも1つに対して統計分析を実行することができる。たとえば、ダウンサンプリングされた画像内の1つまたは複数のピクセルと、顕著性マップまたは深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルとを分析することは、ダウンサンプリングされた画像および顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに対して統計分析を実行することを備える場合がある。
[0065]650において、CPU604は、ダウンサンプリングされた画像と、顕著性マップまたは深度マップのうちの少なくとも1つとに基づいて、複数のダウンサンプリングされたピクセルの第1のグループの色または複数のダウンサンプリングされたピクセルの第2のグループの色のうちの少なくとも1つを識別することができる。いくつかの態様では、第1のグループの色は、1つもしくは複数の低顕著性色または深度範囲内の深度を含む1つもしくは複数の色であり得、第2のグループの色は、1つもしくは複数の高顕著性色または深度範囲外の深度を含む1つもしくは複数の色であり得る。
[0066]660において、CPU604は、ダウンサンプリングされた画像と、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つとに基づいて、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を決定することができる。いくつかの事例では、顕著性値、オブジェクトセグメンテーション分類、または深度値のうちの少なくとも1つは、複数のフレームに関連付けられた色空間の各色に対応することができ、CMFは、色空間の色ごとの顕著性値または深度値のうちの少なくとも1つに基づいて決定される場合がある。さらに、CMFは、多項式または3次元(3D)参照テーブル(LUT)であり得る。データ662は、DPU/AI分析器602とGPU/CPU604との間で転送される場合がある。
[0067]670において、DPU602は、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルにCMFを適用することができ、CMFは、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。
[0068]680において、DPU602は、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することができ、複数のダウンサンプリングされたピクセルの深度情報は、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する。1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整した後、DPU602は、1つまたは複数の調整されたフレーム、たとえばフレーム682をディスプレイ、たとえばディスプレイ606に送信することができる。
[0069]本開示の態様は、深度情報を分析して、どの深度値が所与のシーン内の低顕著性または高顕著性を有するピクセルと相関させられるかを決定することができる。ダウンサンプリングされたピクセルごとに、本開示の態様は、深度情報と、顕著性情報と、前景/背景分類とを決定することができる。これに基づいて、本開示の態様は、どの深度値が低顕著性または高顕著性と関連付けられるかの統計データを分析することができる。高顕著性に関連付けられた深度(または深度の範囲)が決定されると、本開示の態様は、この情報を使用して顕著性マップをクリーンアップすることができる。たとえば、特定の深度が高顕著性のオブジェクトを有する可能性が高い場合、本開示の態様は、そのオブジェクトを表現するピクセルにわたってより大きい一貫性を実現するために、その特定の深度を有するピクセルに顕著性を再割当てすることができる。
[0070]いくつかの態様では、DPU602は、1つもしくは複数の低顕著性色の飽和度を減少させ、1つもしくは複数の低顕著性色の輝度を減少させ、および/または1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすることができる。たとえば、1つまたは複数の低顕著性色を調整することは、1つもしくは複数の低顕著性色の飽和度を減少させること、1つもしくは複数の低顕著性色の輝度を減少させること、または1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすることのうちの少なくとも1つを備える場合がある。さらに、DPU602は、1つもしくは複数の高顕著性色の飽和度を増加させ、1つもしくは複数の高顕著性色の輝度を増加させ、および/または1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすることができる。たとえば、1つまたは複数の高顕著性色を調整することは、1つもしくは複数の高顕著性色の飽和度を増加させること、1つもしくは複数の高顕著性色の輝度を増加させること、または1つもしくは複数の高顕著性色の色温度を寒色温度に向かってシフトすることのうちの少なくとも1つを備える場合がある。
[0071]その上、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つは、複数のダウンサンプリングされたピクセルの深度情報に基づいて調整される場合がある。さらに、DPU602は、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整することができる。たとえば、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することは、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整することを備える場合がある。
[0072]図7は、本開示の1つまたは複数の技法による、グラフィックス処理の例示的な方法のフローチャート700である。方法は、表示処理もしくは画像処理用の装置、DPU、ディスプレイもしくは画像プロセッサ、ディスプレイパイプライン、ワイヤレス通信デバイス、および/または図1~図6の例に関して使用される表示処理もしくは画像処理を実行することができる任意の装置などの装置によって実行される場合がある。
[0073]702において、装置は、図1~図6の例に関して記載されたように、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することができ、複数のフレームの各々は複数のピクセルを含み、複数のフレームの第1のフレームは、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する。たとえば、DPU602は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することができ、複数のフレームの各々は複数のピクセルを含み、複数のフレームの第1のフレームは、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する。さらに、ディスプレイプロセッサ127は702を実行することができる。また、複数のフレームの各々は、DPUにおいて、GPUまたはCPUから受け取られ得る。
[0074]704において、装置は、図1~図6の例に関して記載されたように、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングすることができ、ダウンサンプリングされた画像は、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される。たとえば、DPU602は、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングすることができ、ダウンサンプリングされた画像は、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される。さらに、ディスプレイプロセッサ127は704を実行することができる。
[0075]706において、装置は、図1~図6の例に関して記載されたように、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップまたは深度マップのうちの少なくとも1つを生成することができ、第1のフレームは複数の第1のピクセルを含み、ダウンサンプリングされた画像は複数のダウンサンプリングされたピクセルを含む。たとえば、DPU602は、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップまたは深度マップのうちの少なくとも1つを生成することができ、第1のフレームは複数の第1のピクセルを含み、ダウンサンプリングされた画像は複数のダウンサンプリングされたピクセルを含む。さらに、ディスプレイプロセッサ127は706を実行することができる。顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つは、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、または人工知能(AI)分析を使用して生成される場合がある。いくつかの態様では、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つは、第1のフレームの顕著性情報、第1のフレームの深度情報、または第1のフレームのオブジェクト情報のうちの少なくとも1つに基づく場合がある。
[0076]さらに、ダウンサンプリングされた画像内の1つまたは複数のピクセル、および顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルは、図1~図6の例に関して記載されたように、分析される場合がある。いくつかの事例では、ダウンサンプリングされた画像および顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに対して、統計分析が実行される場合がある。
[0077]さらに、複数のダウンサンプリングされたピクセルの第1のグループの色または複数のダウンサンプリングされたピクセルの第2のグループの色のうちの少なくとも1つは、図1~図6の例に関して記載されたように、ダウンサンプリングされた画像と、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つとに基づいて識別される場合がある。いくつかの態様では、第1のグループの色は、1つもしくは複数の低顕著性色または深度範囲内の深度を含む1つもしくは複数の色であり得、第2のグループの色は、1つもしくは複数の高顕著性色または深度範囲外の深度を含む1つもしくは複数の色であり得る。
[0078]いくつかの事例では、顕著性値、オブジェクトセグメンテーション分類、または深度値のうちの少なくとも1つは、複数のフレームに関連付けられた色空間の各色に対応することができ、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)は、色空間の色ごとの顕著性値または深度値のうちの少なくとも1つに基づいて決定される場合がある。さらに、CMFは、多項式または3次元(3D)参照テーブル(LUT)であり得る。
[0079]708において、装置は、図1~図6の例に関して記載されたように、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することができ、CMFは、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。たとえば、DPU602は、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することができ、CMFは、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される。さらに、ディスプレイプロセッサ127は708を実行することができる。
[0080]710において、装置は、図1~図6の例に関して記載されたように、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することができ、複数のダウンサンプリングされたピクセルの深度情報は、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する。たとえば、DPU602は、複数のダウンサンプリングされたピクセルの1つもしくは複数の低顕著性色、1つもしくは複数の高顕著性色、または深度情報のうちの少なくとも1つを調整することができ、深度情報は、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する。さらに、ディスプレイプロセッサ127は710を実行することができる。複数のダウンサンプリングされたピクセルの1つもしくは複数の低顕著性色、1つもしくは複数の高顕著性色、または深度情報のうちの少なくとも1つを調整した後、装置は、1つまたは複数の調整されたフレームをディスプレイに送信することができる。
[0081]いくつかの態様では、装置は、1つもしくは複数の低顕著性色の飽和度を減少させ、1つもしくは複数の低顕著性色の輝度を減少させ、および/または1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすることができる。たとえば、1つまたは複数の低顕著性色を調整することは、1つもしくは複数の低顕著性色の飽和度を減少させること、1つもしくは複数の低顕著性色の輝度を減少させること、または1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすることのうちの少なくとも1つを備える場合がある。さらに、装置は、1つもしくは複数の高顕著性色の飽和度を増加させ、1つもしくは複数の高顕著性色の輝度を増加させ、および/または1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすることができる。たとえば、1つまたは複数の高顕著性色を調整することは、1つもしくは複数の高顕著性色の飽和度を増加させること、1つもしくは複数の高顕著性色の輝度を増加させること、または1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすることのうちの少なくとも1つを備える場合がある。
[0082]さらに、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つは、複数のダウンサンプリングされたピクセルの深度情報に基づいて調整される場合がある。その上、装置は、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整することができる。たとえば、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することは、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整することを備える場合がある。
[0083]構成において、表示処理のための方法または装置が提供される。装置は、DPU、ディスプレイもしくは画像プロセッサ、または表示処理もしくは画像処理を実行することができる何らかの他のプロセッサであってもよい。態様では、装置は、デバイス104内のディスプレイプロセッサ127であってもよく、デバイス104または別のデバイス内の何らかの他のハードウェアであってもよい。装置、たとえばディスプレイプロセッサ127は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出するための手段と、複数のフレームの各々が複数のピクセルを含み、複数のフレームの第1のフレームが、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する、第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップまたは深度マップのうちの少なくとも1つを生成するための手段と、第1のフレームが複数の第1のピクセルを含み、ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、ダウンサンプリングされた画像と、顕著性マップまたは深度マップのうちの少なくとも1つとに基づいて、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を決定するための手段と、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルにCMFを適用するための手段と、CMFが、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、ダウンサンプリングされた画像および顕著性マップまたは深度マップのうちの少なくとも1つに基づいて、複数のダウンサンプリングされたピクセルの第1のグループの色、または複数のダウンサンプリングされたピクセルの第2のグループの色のうちの少なくとも1つを識別するための手段と、複数のダウンサンプリングされたピクセルの1つもしくは複数の低顕著性色、1つもしくは複数の高顕著性色、または深度情報のうちの少なくとも1つを調整するための手段と、ここにおいて、深度情報が、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する、1つまたは複数の低顕著性色の飽和度を減少させるための手段と、1つまたは複数の低顕著性色の輝度を減少させるための手段と、1つまたは複数の低顕著性色の色温度を寒色温度に向かってシフトするための手段と、1つまたは複数の高顕著性色の飽和度を増加させるための手段と、1つまたは複数の高顕著性色の輝度を増加させるための手段と、1つまたは複数の高顕著性色の色温度を暖色温度に向かってシフトするための手段と、深度範囲内の深度を含む1つまたは複数の色に対応する深度情報を増加させるための手段と、深度範囲外の深度を含む1つまたは複数の色に対応する深度情報を増加させるための手段と、深度範囲内の深度を含む1つまたは複数の色に対応する深度情報を減少させるための手段と、深度範囲外の深度を含む1つまたは複数の色に対応する深度情報を減少させるための手段と、顕著性マップ内の1つもしくは複数のピクセルまたは深度マップ内の1つもしくは複数のピクセルのうちの少なくとも1つを調整するための手段と、ダウンサンプリングされた画像内の1つもしくは複数のピクセルと、顕著性マップまたは深度マップのうちの少なくとも1つの中の1つもしくは複数のピクセルとを分析するための手段と、ダウンサンプリングされた画像および顕著性マップまたは深度マップのうちの少なくとも1つに対して統計分析を実行するための手段と、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングするための手段と、ここにおいて、ダウンサンプリングされた画像が、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される、を含む場合がある。
[0084]本明細書に記載された主題は、1つまたは複数の利益または利点を実現するために実装され得る。たとえば、記載された表示処理技法は、DPU、ディスプレイプロセッサ、または本明細書に記載された顕著性ベースの色強調技法を実施するために表示処理もしくは画像処理を実行することができる何らかの他のプロセッサによって使用され得る。これはまた、他の表示処理技法と比較して低いコストで達成され得る。その上、本明細書の表示処理技法は、データ処理または実行を改善または加速することができる。さらに、本明細書の表示処理技法は、リソースもしくはデータの利用率および/またはリソース効率を改善することができる。さらに、本開示の態様は、DPUにおいて電力消費を削減し、メモリ帯域幅を改善し、および/またはパフォーマンスオーバーヘッドを低減するために、顕著性ベースの色強調技法を利用することができる。
[0085]開示されたプロセス/フローチャート内のブロックの特定の順序または階層は、例示的な手法の説明であることを理解されたい。設計選好に基づいて、プロセス/フローチャート内のブロックの特定の順序または階層は再構成される場合があることを理解されたい。さらに、いくつかのブロックは組み合わされるかまたは省略される場合がある。添付の方法クレームは、様々なブロックの要素をサンプルの順序で提示したものであり、提示された特定の順序または階層に限定されるものではない。
[0086]これまでの説明は、当業者が本明細書に記載された様々な態様を実践することを可能にするために提供されている。これらの態様への様々な修正は当業者には容易に明らかであり、本明細書で定義された一般原理は他の態様に適用されてもよい。したがって、特許請求の範囲は、本明細書に示された態様に限定されるものではなく、特許請求の範囲の文言と一致する全範囲を与えられるべきであり、単数形の要素への言及は、そのように明記されていない限り、「唯一無二」を意味するものではなく、むしろ「1つまたは複数」を意味するものである。「例示的」という単語は、「例、事例、または例示の働きをすること」を意味するために本明細書で使用される。「例示的」として本明細書に記載されたいかなる態様も、必ずしも他の態様よりも好ましいかまたは有利であると解釈されるべきではない。
[0087]別段に明記されていない限り、「いくつかの」という用語は1つまたは複数を指し、「または」という用語は、文脈が別段に規定しない場合、「および/または」として解釈されてもよい。「A、B、またはCのうちの少なくとも1つ」、「A、B、またはCのうちの1つまたは複数」、「A、B、およびCのうちの少なくとも1つ」、「A、B、およびCのうちの1つまたは複数」、および「A、B、C、またはそれらの任意の組合せ」などの組合せは、A、B、および/またはCの任意の組合せを含み、複数のA、複数のB、または複数のCを含む場合がある。具体的には、「A、B、またはCのうちの少なくとも1つ」、「A、B、またはCのうちの1つまたは複数」、「A、B、およびCのうちの少なくとも1つ」、「A、B、およびCのうちの1つまたは複数」、および「A、B、C、またはそれらの任意の組合せ」などの組合せは、Aのみ、Bのみ、Cのみ、AおよびB、AおよびC、BおよびC、またはAおよびBおよびCであり得、任意のそのような組合せは、A、B、またはCのうちの1つまたは複数のメンバを含む場合がある。本開示全体にわたって記載された様々な態様の要素に対するすべての構造的および機能的な均等物は、当業者に知られているか、または後で知られるようになり、参照により本明細書に明確に組み込まれ、特許請求の範囲によって包含されるものである。その上、本明細書に開示されたいかなることも、そのような開示が特許請求の範囲に明示的に列挙されているかどうかにかかわらず、公に供されるものではない。「モジュール」、「機構」、「要素」、「デバイス」などという単語は、「手段」という単語の代用ではない場合がある。そのため、いかなるクレーム要素も、その要素が「ための手段」という語句を使用して明示的に列挙されていない限り、ミーンズプラスファンクションとして解釈されるべきではない。
[0088]1つまたは複数の例では、本明細書に記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装される場合がある。たとえば、「処理ユニット」という用語が本開示全体にわたって使用されているが、そのような処理ユニットは、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装される場合がある。本明細書に記載された任意の機能、処理ユニット、技法、または他のモジュールがソフトウェアで実装される場合、本明細書に記載された機能、処理ユニット、技法、または他のモジュールは、1つもしくは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信される場合がある。
[0089]本開示によれば、文脈が別段に規定しない場合、「または」という用語は「および/または」として解釈されてもよい。さらに、「1つまたは複数」または「少なくとも1つ」などの句が、本明細書に開示されたいくつかの特徴に使用されいるが、他の特徴に使用されていない場合があり、そのような文言がそれのために使用されなかった特徴は、文脈が別段に規定しない場合、そのような暗示される意味を有するように解釈されてもよい。
[0090]1つまたは複数の例では、本明細書に記載された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装される場合がある。たとえば、「処理ユニット」という用語が本開示全体にわたって使用されているが、そのような処理ユニットは、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装される場合がある。本明細書に記載された任意の機能、処理ユニット、技法、または他のモジュールがソフトウェアで実装される場合、本明細書に記載された機能、処理ユニット、技法、または他のモジュールは、1つもしくは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、またはコンピュータ可読媒体を介して送信される場合がある。コンピュータ可読媒体は、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む、コンピュータデータ記憶媒体または通信媒体を含む場合がある。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号もしくは搬送波などの通信媒体に対応することができる。データ記憶媒体は、本開示に記載された技法の実装のための命令、コード、および/またはデータ構造を取り出すために、1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイスを備えることができる。本明細書で使用されるディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびBlu-ray(登録商標)ディスク(disc)を含み、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。コンピュータプログラム製品はコンピュータ可読媒体を含む場合がある。
[0091]コードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、算術論理ユニット(ALU)、フィールドプログラマブル論理アレイ(FPGA)、または他の均等な集積回路もしくはディスクリート論理回路などの1つまたは複数のプロセッサによって実行される場合がある。したがって、本明細書で使用される「プロセッサ」という用語は、上記の構造、または本明細書に記載された技法の実装に適した任意の他の構造のいずれかを指す場合がある。また、本技法は、1つまたは複数の回路または論理要素内に完全に実装される可能性がある。
[0092]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット、たとえばチップセットを含む、多種多様なデバイスまたは装置内に実装される場合がある。開示された技法を実行するように構成されたデバイスの機能的な態様を強調するために、様々な構成要素、モジュール、またはユニットが本開示に記載されたが、それらは、必ずしも異なるハードウェアユニットによる実現を必要としない。むしろ、上述されたように、様々なユニットは、適切なソフトウェアおよび/またはファームウェアとともに上述された1つまたは複数のプロセッサを含む、任意のハードウェアユニット内で組み合わされるか、または相互動作可能なハードウェアユニットの集合によって提供される場合がある。したがって、本明細書で使用される「プロセッサ」という用語は、上記の構造、または本明細書に記載された技法の実装に適した任意の他の構造のいずれかを指す場合がある。また、本技法は、1つまたは複数の回路または論理要素内に完全に実装される場合がある。
[0093]以下の態様は、例示的なものにすぎず、限定はしないが、本明細書に記載された他の態様または教示と組み合わされてもよい。
[0094]態様1は、表示処理または画像処理の方法である。方法は、複数のフレームの連続するフレーム間のシーン変化または複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することと、複数のフレームの各々が複数のピクセルを含み、複数のフレームの第1のフレームが、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームに対応する、第1のフレームのダウンサンプリングされた画像に基づいて、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することと、第1のフレームが複数の第1のピクセルを含み、ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、複数のフレームの1つまたは複数の後続のフレーム内の複数のピクセルに、複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することと、CMFが、複数のフレーム内の後続のシーン変化または複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、を含む。
[0095]態様2は、複数のダウンサンプリングされたピクセルの第1のグループの色または複数のダウンサンプリングされたピクセルの第2のグループの色のうちの少なくとも1つが、ダウンサンプリングされた画像と、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つとに基づいて識別される、態様1に記載の方法である。
[0096]態様3は、第1のグループの色が、1つもしくは複数の低顕著性色または深度範囲内の深度を含む1つもしくは複数の色であり、第2のグループの色が、1つもしくは複数の高顕著性色または深度範囲外の深度を含む1つもしくは複数の色である、態様1および2のいずれかに記載の方法である。
[0097]態様4は、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することをさらに含み、複数のダウンサンプリングされたピクセルの深度情報が、深度範囲内の深度を含む1つもしくは複数の色、または深度範囲外の深度を含む1つもしくは複数の色に対応する、態様1から3のいずれかに記載の方法である。
[0098]態様5は、1つまたは複数の低顕著性色を調整することが、1つもしくは複数の低顕著性色の飽和度を減少させること、1つもしくは複数の低顕著性色の輝度を減少させること、または1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすることのうちの少なくとも1つを備える、態様1から4のいずれかに記載の方法である。
[0099]態様6は、1つまたは複数の高顕著性色を調整することが、1つもしくは複数の高顕著性色の飽和度を増加させること、1つもしくは複数の高顕著性色の輝度を増加させること、または1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすることのうちの少なくとも1つを備える、態様1から5のいずれかに記載の方法である。
[0100]態様7は、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つが、複数のダウンサンプリングされたピクセルの深度情報に基づいて調整される、態様1から6のいずれかに記載の方法である。
[0101]態様8は、1つもしくは複数の低顕著性色または1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することが、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整することを備える、態様1から7のいずれかに記載の方法である。
[0102]態様9は、顕著性値、オブジェクトセグメンテーション分類、または深度値のうちの少なくとも1つが、複数のフレームに関連付けられた色空間の各色に対応し、CMFが、色空間の色ごとの顕著性値または深度値のうちの少なくとも1つに基づいて決定される、態様1から8のいずれかに記載の方法である。
[0103]態様10は、ダウンサンプリングされた画像内の1つまたは複数のピクセル、および顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルが分析される、態様1から9のいずれかに記載の方法である。
[0104]態様11は、統計分析が、ダウンサンプリングされた画像、および顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つに対して実行される、態様1から10のいずれかに記載の方法である。
[0105]態様12は、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つが、第1のフレームの顕著性情報、第1のフレームの深度情報、または第1のフレームのオブジェクト情報のうちの少なくとも1つに基づく、態様1から11のいずれかに記載の方法である。
[0106]態様13は、顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つが、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、または人工知能(AI)分析を使用して生成される、態様1から12のいずれかに記載の方法である。
[0107]態様14は、CMFが、多項式または3次元(3D)参照テーブル(LUT)である、態様1から13のいずれかに記載の方法である。
[0108]態様15は、第1のフレームのダウンサンプリングされた画像を生成するために第1のフレームの画像をダウンサンプリングすることをさらに含み、ダウンサンプリングされた画像が、連続するフレーム間のシーン変化またはしきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される、態様1から14のいずれかに記載の方法である。
[0109]態様16は、複数のフレームの各々が表示処理ユニット(DPU)において受信される、態様1から15のいずれかに記載の方法である。
[0110]態様17は、メモリに結合され、態様1から16のいずれかに記載の方法を実施するように構成された少なくとも1つのプロセッサを含む、表示処理のための装置である。
[0111]態様18は、態様1から16のいずれかに記載の方法を実施するための手段を含む、表示処理のための装置である。
[0112]態様19は、コンピュータ実行可能コードを記憶するコンピュータ可読媒体であって、コードが、少なくとも1つのプロセッサによって実行されると、態様1から16のいずれかに記載の方法を少なくとも1つのプロセッサに実施させる、コンピュータ可読媒体である。
Claims (34)
- 表示処理の方法であって、
複数のフレームの連続するフレーム間のシーン変化または前記複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することと、前記複数のフレームの各々が複数のピクセルを含み、前記複数のフレームの第1のフレームが、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームに対応する、
前記第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することと、前記第1のフレームが複数の第1のピクセルを含み、前記ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、
前記複数のフレームの1つまたは複数の後続のフレーム内の前記複数のピクセルに、前記複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することと、前記CMFが、前記複数のフレーム内の後続のシーン変化または前記複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、
を備える、方法。 - 前記複数のダウンサンプリングされたピクセルの第1のグループの色または前記複数のダウンサンプリングされたピクセルの第2のグループの色の少なくとも1つが、前記ダウンサンプリングされた画像と、前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つとに基づいて識別される、請求項1に記載の方法。
- 前記第1のグループの色が、1つもしくは複数の低顕著性色または深度範囲内の深度を含む1つもしくは複数の色であり、前記第2のグループの色が、1つもしくは複数の高顕著性色または深度範囲外の深度を含む1つもしくは複数の色である、請求項2に記載の方法。
- 前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つを調整すること、ここにおいて、前記複数の前記ダウンサンプリングされたピクセルの深度情報が、前記深度範囲内の深度を含む前記1つもしくは複数の色、または前記深度範囲外の深度を含む前記1つもしくは複数の色に対応する、
をさらに備える、請求項3に記載の方法。 - 前記1つまたは複数の低顕著性色を調整することが、
前記1つもしくは複数の低顕著性色の飽和度を減少させること、
前記1つもしくは複数の低顕著性色の輝度を減少させること、または
前記1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすること
のうちの少なくとも1つを備える、請求項4に記載の方法。 - 前記1つまたは複数の高顕著性色を調整することが、
前記1つもしくは複数の高顕著性色の飽和度を増加させること、
前記1つもしくは複数の高顕著性色の輝度を増加させること、または
前記1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすること
のうちの少なくとも1つを備える、請求項4に記載の方法。 - 前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つが、前記複数のダウンサンプリングされたピクセルの前記深度情報に基づいて調整される、請求項4に記載の方法。
- 前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することが、
前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整すること
を備える、請求項4に記載の方法。 - 顕著性値、オブジェクトセグメンテーション分類、または深度値のうちの少なくとも1つが、前記複数のフレームに関連付けられた前記色空間の各色に対応し、前記CMFが、前記色空間の色ごとの前記顕著性値または前記深度値のうちの少なくとも1つに基づいて決定される、請求項1に記載の方法。
- 前記ダウンサンプリングされた画像内の1つまたは複数のピクセル、および前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルが分析される、請求項1に記載の方法。
- 統計分析が、前記ダウンサンプリングされた画像、および前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つに対して実行される、請求項10に記載の方法。
- 前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つが、前記第1のフレームの顕著性情報、前記第1のフレームの深度情報、または前記第1のフレームのオブジェクト情報のうちの少なくとも1つに基づく、請求項1に記載の方法。
- 前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つが、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、または人工知能(AI)分析を使用して生成される、請求項1に記載の方法。
- 前記CMFが、多項式または3次元(3D)参照テーブル(LUT)である、請求項1に記載の方法。
- 前記第1のフレームの前記ダウンサンプリングされた画像を生成するために前記第1のフレームの画像をダウンサンプリングすること、ここにおいて、前記ダウンサンプリングされた画像が、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される、
をさらに備える、請求項1に記載の方法。 - 前記複数のフレームの各々が表示処理ユニット(DPU)において受信される、請求項1に記載の方法。
- 表示処理のための装置であって、
メモリと、
前記メモリに結合され、
複数のフレームの連続するフレーム間のシーン変化または前記複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することと、前記複数のフレームの各々が複数のピクセルを含み、前記複数のフレームの第1のフレームが、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームに対応する、
前記第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することと、前記第1のフレームが複数の第1のピクセルを含み、前記ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、
前記複数のフレームの1つまたは複数の後続のフレーム内の前記複数のピクセルに、前記複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することと、前記CMFが、前記複数のフレーム内の後続のシーン変化または前記複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、
を行うように構成された少なくとも1つのプロセッサと
を備える、装置。 - 前記複数のダウンサンプリングされたピクセルの第1のグループの色または前記複数のダウンサンプリングされたピクセルの第2のグループの色のうちの少なくとも1つが、前記ダウンサンプリングされた画像と、前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つとに基づいて識別される、請求項17に記載の装置。
- 前記第1のグループの色が、1つもしくは複数の低顕著性色または深度範囲内の深度を含む1つもしくは複数の色であり、前記第2のグループの色が、1つもしくは複数の高顕著性色または深度範囲外の深度を含む1つもしくは複数の色である、請求項18に記載の装置。
- 前記少なくとも1つのプロセッサが、
前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つを調整すること、ここにおいて、前記複数の前記ダウンサンプリングされたピクセルの深度情報が、前記深度範囲内の深度を含む前記1つもしくは複数の色、または前記深度範囲外の深度を含む前記1つもしくは複数の色に対応する、
を行うようにさらに構成される、請求項19に記載の装置。 - 前記1つまたは複数の低顕著性色を調整することが、
前記1つもしくは複数の低顕著性色の飽和度を減少させること、
前記1つもしくは複数の低顕著性色の輝度を減少させること、または
前記1つもしくは複数の低顕著性色の色温度を寒色温度に向かってシフトすること
のうちの少なくとも1つを行うようにさらに構成された前記少なくとも1つのプロセッサを備える、請求項20に記載の装置。 - 前記1つまたは複数の高顕著性色を調整することが、
前記1つもしくは複数の高顕著性色の飽和度を増加させること、
前記1つもしくは複数の高顕著性色の輝度を増加させること、または
前記1つもしくは複数の高顕著性色の色温度を暖色温度に向かってシフトすること
のうちの少なくとも1つを行うようにさらに構成された前記少なくとも1つのプロセッサを備える、請求項20に記載の装置。 - 前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つが、前記複数のダウンサンプリングされたピクセルの前記深度情報に基づいて調整される、請求項20に記載の装置。
- 前記1つもしくは複数の低顕著性色または前記1つもしくは複数の高顕著性色のうちの少なくとも1つを調整することが、
前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つに関連付けられた1つまたは複数のピクセルを調整する
ようにさらに構成された前記少なくとも1つのプロセッサを備える、請求項20に記載の装置。 - 顕著性値、オブジェクトセグメンテーション分類、または深度値のうちの少なくとも1つが、前記複数のフレームに関連付けられた前記色空間の各色に対応し、前記CMFが、前記色空間の色ごとの前記顕著性値または前記深度値のうちの少なくとも1つに基づいて決定される、請求項17に記載の装置。
- 前記ダウンサンプリングされた画像内の1つまたは複数のピクセル、および前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つの中の1つまたは複数のピクセルが分析される、請求項17に記載の装置。
- 統計分析が、前記ダウンサンプリングされた画像、および前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つに対して実行される、請求項26に記載の装置。
- 前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つが、前記第1のフレームの顕著性情報、前記第1のフレームの深度情報、または前記第1のフレームのオブジェクト情報のうちの少なくとも1つに基づく、請求項17に記載の装置。
- 前記顕著性マップ、前記オブジェクトセグメンテーションマップ、または前記深度マップのうちの少なくとも1つが、ニューラルネットワーク(NN)、畳み込みニューラルネットワーク(CNN)、または人工知能(AI)分析を使用して生成される、請求項17に記載の装置。
- 前記CMFが、多項式または3次元(3D)参照テーブル(LUT)である、請求項17に記載の装置。
- 前記少なくとも1つのプロセッサが、
前記第1のフレームの前記ダウンサンプリングされた画像を生成するために前記第1のフレームの画像をダウンサンプリングすること、ここにおいて、前記ダウンサンプリングされた画像が、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームのうちの少なくとも1つを検出すると生成される、
を行うようにさらに構成される、請求項17に記載の装置。 - 前記複数のフレームの各々が表示処理ユニット(DPU)において受信される、請求項17に記載の装置。
- 表示処理のための装置であって、
複数のフレームの連続するフレーム間のシーン変化または前記複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出するための手段と、前記複数のフレームの各々が複数のピクセルを含み、前記複数のフレームの第1のフレームが、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームに対応する、
前記第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成するための手段と、前記第1のフレームが複数の第1のピクセルを含み、前記ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、
前記複数のフレームの1つまたは複数の後続のフレーム内の前記複数のピクセルに、前記複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用するための手段と、前記CMFが、前記複数のフレーム内の後続のシーン変化または前記複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、
を備える、装置。 - 表示処理のためのコンピュータ実行可能コードを記憶するコンピュータ可読媒体であって、前記コードが、プロセッサによって実行されると、
複数のフレームの連続するフレーム間のシーン変化または前記複数のフレームのしきい値数の受信されたフレームのうちの少なくとも1つを検出することと、前記複数のフレームの各々が複数のピクセルを含み、前記複数のフレームの第1のフレームが、連続するフレーム間の前記シーン変化または前記しきい値数の受信されたフレームに対応する、
前記第1のフレームのダウンサンプリングされた画像に基づいて顕著性マップ、オブジェクトセグメンテーションマップ、または深度マップのうちの少なくとも1つを生成することと、前記第1のフレームが複数の第1のピクセルを含み、前記ダウンサンプリングされた画像が複数のダウンサンプリングされたピクセルを含む、
前記複数のフレームの1つまたは複数の後続のフレーム内の前記複数のピクセルに、前記複数のフレームに関連付けられた色空間のための色マッピング関数(CMF)を適用することと、前記CMFが、前記複数のフレーム内の後続のシーン変化または前記複数のフレームの後続のしきい値数の受信されたフレームのうちの少なくとも1つまで適用される、
を前記プロセッサに実行させる、コンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/082081 WO2022198383A1 (en) | 2021-03-22 | 2021-03-22 | Methods and apparatus for saliency based frame color enhancement |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024510455A true JP2024510455A (ja) | 2024-03-07 |
Family
ID=83394972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023555840A Pending JP2024510455A (ja) | 2021-03-22 | 2021-03-22 | 顕著性ベースのフレーム色強調のための方法および装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20240096042A1 (ja) |
EP (1) | EP4315820A1 (ja) |
JP (1) | JP2024510455A (ja) |
KR (1) | KR20230160247A (ja) |
CN (1) | CN116998145A (ja) |
BR (1) | BR112023018373A2 (ja) |
TW (1) | TW202240526A (ja) |
WO (1) | WO2022198383A1 (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6404920B1 (en) * | 1996-09-09 | 2002-06-11 | Hsu Shin-Yi | System for generalizing objects and features in an image |
JP5663063B2 (ja) * | 2012-07-20 | 2015-02-04 | シャープ株式会社 | 表示装置 |
EP3396936A1 (en) * | 2017-04-27 | 2018-10-31 | Thomson Licensing | Method and device for color gamut mapping |
US10552962B2 (en) * | 2017-04-27 | 2020-02-04 | Intel Corporation | Fast motion based and color assisted segmentation of video into region layers |
BR112021006706A2 (pt) * | 2018-10-09 | 2021-07-27 | V-Nova International Limited | decodificador de aprimoramento para sinais de vídeo com melhoria de múltiplos níveis e ajuste de formato de codificação |
CN111950653B (zh) * | 2020-08-24 | 2021-09-10 | 腾讯科技(深圳)有限公司 | 视频处理方法和装置、存储介质及电子设备 |
-
2021
- 2021-03-22 JP JP2023555840A patent/JP2024510455A/ja active Pending
- 2021-03-22 KR KR1020237030938A patent/KR20230160247A/ko unknown
- 2021-03-22 BR BR112023018373A patent/BR112023018373A2/pt unknown
- 2021-03-22 EP EP21932018.1A patent/EP4315820A1/en active Pending
- 2021-03-22 WO PCT/CN2021/082081 patent/WO2022198383A1/en active Application Filing
- 2021-03-22 US US18/275,803 patent/US20240096042A1/en active Pending
- 2021-03-22 CN CN202180095829.2A patent/CN116998145A/zh active Pending
-
2022
- 2022-02-24 TW TW111106759A patent/TW202240526A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
EP4315820A1 (en) | 2024-02-07 |
KR20230160247A (ko) | 2023-11-23 |
WO2022198383A1 (en) | 2022-09-29 |
TW202240526A (zh) | 2022-10-16 |
US20240096042A1 (en) | 2024-03-21 |
BR112023018373A2 (pt) | 2023-10-31 |
CN116998145A (zh) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102590644B1 (ko) | 증강 현실 콘텐츠의 아틀라스 관리를 위한 방법 및 장치 | |
US10164459B2 (en) | Selective rasterization | |
US11769234B2 (en) | Methods and apparatus for histogram based tone mapping | |
KR20230079374A (ko) | 디스플레이 패널 fps 스위칭을 위한 방법 및 장치 | |
KR20240012396A (ko) | 시간적으로 보간된 프레임들에서 마스크들을 사용한 고품질 ui 엘리먼트 경계들 | |
US20240096042A1 (en) | Methods and apparatus for saliency based frame color enhancement | |
KR20230018368A (ko) | 폐색 처리 기법을 위한 방법 및 장치 | |
US11900840B2 (en) | Chrominance optimizations in rendering pipelines | |
US11727631B2 (en) | Dynamic variable rate shading | |
US11734787B2 (en) | Foveated binned rendering associated with sample spaces | |
US20220172695A1 (en) | Methods and apparatus for plane planning for overlay composition | |
US11869115B1 (en) | Density driven variable rate shading | |
US11622113B2 (en) | Image-space function transmission | |
US11615537B2 (en) | Methods and apparatus for motion estimation based on region discontinuity | |
US20230154063A1 (en) | Non-linear filtering for color space conversions | |
WO2023225771A1 (en) | Concurrent frame buffer composition scheme | |
KR20230172469A (ko) | 상이한 동적 범위들의 이미지들의 디스플레이 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240226 |