JP2016536815A - Systems and methods for reducing visual artifacts in the display of compression and decompression digital images and video - Google Patents

Systems and methods for reducing visual artifacts in the display of compression and decompression digital images and video Download PDF

Info

Publication number
JP2016536815A
JP2016536815A JP2016515381A JP2016515381A JP2016536815A JP 2016536815 A JP2016536815 A JP 2016536815A JP 2016515381 A JP2016515381 A JP 2016515381A JP 2016515381 A JP2016515381 A JP 2016515381A JP 2016536815 A JP2016536815 A JP 2016536815A
Authority
JP
Japan
Prior art keywords
color space
image buffer
value
processing device
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016515381A
Other languages
Japanese (ja)
Inventor
ガディ,ウィリアム,エル.
セラン,ビディア
Original Assignee
エー2ゼットロジックス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エー2ゼットロジックス,インコーポレーテッド filed Critical エー2ゼットロジックス,インコーポレーテッド
Publication of JP2016536815A publication Critical patent/JP2016536815A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Abstract

符号化方法及びシステムが開示される。処理装置は、画像バッファを受信する。処理装置は、画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換する。処理装置は、1以上の画素の明度チャネルに第1の値を乗ずる。処理装置は、1以上の画素の1以上の色チャネルに第2の値を乗ずる。処理装置は、画像バッファを1以上の知覚的に均一な色空間から固有色空間に変換する。処理装置は、画像バッファを下流側装置に伝送する。【選択図】図2An encoding method and system are disclosed. The processing device receives the image buffer. The processing device converts one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces. The processing device multiplies the lightness channel of one or more pixels by a first value. The processing device multiplies one or more color channels of one or more pixels by a second value. The processing device converts the image buffer from one or more perceptually uniform color spaces to a native color space. The processing device transmits the image buffer to the downstream device. [Selection] Figure 2

Description

本開示の実施形態は画像処理に関し、より詳細には、既存の画像及び映像圧縮方法の知覚品質及び/又は効率を向上することに関する。   Embodiments of the present disclosure relate to image processing, and more particularly to improving perceived quality and / or efficiency of existing image and video compression methods.

好適な画像及び映像圧縮効率を達成するには、人間の視覚系(以下、HVSという)の差分感度を厳密に近似する画像色及び輝度のシンボル表現を選択する必要があり、そうしない場合には、ここに参照として取り込まれるJoan L.Mitchell他による「MPEG Video Compression Standard」、Chapman&Hall,Ltd.London、英国、1996年に記載されるように符号化レートが無駄になる。HVSの知覚メカニズムは複雑かつ非線形であるので、映像及び画像の圧縮、伝送及び表示についての色系列及び色空間の設計は、精度及び精密さと、システムの複雑さ及び現実的な実装とのトレードオフとなる。   In order to achieve suitable image and video compression efficiency, it is necessary to select a symbol representation of image color and brightness that closely approximates the difference sensitivity of the human visual system (hereinafter referred to as HVS), otherwise Joan L., incorporated herein by reference. “MPEG Video Compression Standard” by Mitchell et al., Chapman & Hall, Ltd. The coding rate is wasted as described in London, UK, 1996. Since the perceptual mechanism of HVS is complex and non-linear, the color sequence and color space design for video and image compression, transmission and display trades off accuracy and precision with system complexity and realistic implementation. It becomes.

国際照明委員会(Commission internationale l´eclairage(eにアクサンテギュ)について通常はCIEと略される)の色空間(以下、「CIE1931XYZ」という)は、人間の色彩感覚の粗い測定に基づいて色空間を生成する最初の試みを示す(すなわち、1931は発行年を示す)。CIE1931XYZは、「Digital Cinema System Specification Version 1.2 with Errata」DCI,LLC、2012年10月10日、において規定されるデジタルシネマパッケージによって使用されるものなど、JPEG2000に基づくコーデックシステムにおいて使用されているが、それ以外は、その複雑さ、並びにシステム実装者(又はエンドユーザ)によって提供されるべき標準輝度及び三刺激値が必要なことのために、映像伝送システムでは広くは利用されていない。HVSの色彩知覚感度に対するその良好な近似にもかかわらず、CIE1931XYZは、色差に対するHVSの感度の完全な表現にはほど遠く、必要な三刺激値及び輝度値が一定に保持されたとしても、HVSの研究の結果として得られた知識及びHVSの入念な測定、並びに参照としてここに取り込まれる国際色彩コンソーシアム「Specification ICC.1:2004−10(Profile version 4.2.0.0)Image technology colour management−Architecture、Profile format and data structure」(2006年)に記載されるその知覚感度からはほど遠い。   The International Lighting Commission (Commission international l'eclaage) is a color space (hereinafter referred to as “CIE1931XYZ”) based on rough measurement of human color sensation. Indicates the first attempt to generate (ie, 1931 indicates the year of publication). CIE1931XYZ is used in codec systems based on JPEG2000, such as those used by the Digital Cinema Package “Digital Cinema System Specification Version 1.2 with Errata” DCI, LLC, 10 October 2012 However, otherwise, it is not widely used in video transmission systems due to its complexity and the need for standard luminance and tristimulus values to be provided by the system implementer (or end user). Despite its good approximation to the color perception sensitivity of HVS, CIE 1931XYZ is far from a complete representation of HVS sensitivity to color differences, and even if the required tristimulus and luminance values are held constant, Knowledge gained as a result of the study and careful measurement of HVS, as well as the International Color Consortium “Specification ICC. 1: 2004-10 (Profile version 4.2.0.0) Image technology color management— It is far from its perceptual sensitivity described in Architecture, Profile format and data structure (2006).

CIE1931XYZの後に、カラーテレビの登場及び標準化によって、ルマ(Y)、同相(I)、直交(Q)色空間(以下「YIQ色空間」という)が、主に、厳しく帯域制限された送受信制度において色信号を符号化するやり方として1953年に開発された。YIQは、確かにそれらの発明及び普及時においてはRGB蛍光陰極線管カラーテレビによって必要なRGB色空間表現よりも人間の視覚の知覚特性の感覚的傾向の良好な近似であるが、YIQ色空間は全く理想的なものではない。YIQ色空間は、主に、同時代に利用可能となったコスト効率の良いアナログ無線周波数成分の現実的な実装目的のために、及び既存の「白黒」テレビ伝送標準との後方互換性を保持するために考えられたものである。   After the CIE1931XYZ, due to the advent and standardization of color television, the luma (Y), in-phase (I), quadrature (Q) color space (hereinafter referred to as “YIQ color space”) is mainly used in a transmission / reception system in which the band is strictly limited It was developed in 1953 as a way to encode color signals. YIQ is certainly a better approximation of the sensory trend of human visual perception than the RGB color space representation required by RGB fluorescent cathode-ray tube color televisions in their inventions and in widespread use, Not at all ideal. The YIQ color space retains backward compatibility with existing "black and white" television transmission standards, primarily for realistic implementation purposes of cost-effective analog radio frequency components that were available at the same time It was thought to do.

YCbCr及びY´CbCr色空間は、非常に効果的であるがそれでもまだ人間の視覚の知覚的色処理及び知覚的均一性の非常に粗い近似を目的としたYIQ色空間の派生物にすぎない。これらの色空間は1980年代の初頭に設計された時には現実的であったが、YCbCr及びY´CbCr色空間を用いる設計は、非常に限られた処理能力及びデジタルメモリ転送帯域を有する単純なデジタル回路及びシステムに限られていた。YCbCr及びY´CbCr色空間表現は、圧縮についてのJPEG及びMPEG標準を用いる初期及び現在の映像圧縮コーデックシステムの基礎を形成する。それらの現実性にもかかわらず、YCbCr及びY´CbCr色空間の表現は、それらが輝度及び色深度の大きなシンボルレート又はビットレートを知覚的には重要でない色差に割り当てるため、効率的ではない。   The YCbCr and Y'CbCr color spaces are very effective, yet are only derivatives of the YIQ color space aimed at a very coarse approximation of human visual perceptual color processing and perceptual uniformity. While these color spaces were realistic when designed in the early 1980s, designs using YCbCr and Y'CbCr color spaces are simple digital with very limited processing power and digital memory transfer bandwidth. Limited to circuits and systems. The YCbCr and Y'CbCr color space representations form the basis of early and current video compression codec systems that use the JPEG and MPEG standards for compression. Despite their realities, the representation of the YCbCr and Y′CbCr color spaces is not efficient because they assign symbol and bit rates with high luminance and color depth to color differences that are not perceptually important.

より最近では、「ISO 11664−4:2008(E)/CIE S 014−4/E:2007:Joint ISO/CIE Standard:Colorimetry−Part4:CIE 1976 L Color Space」(以下、CIELABという)に記載されるCIELAB標準など、HSV知覚均一性のさらに忠実な近似を表す色空間及び知覚的な差のフレームワークが発行された。CIELABは、明度及び色の次元における知覚感度、及び「CIE159:2004:A Colour Appearance Model for Colour Mnagement System:CIEAM02」(以下、CIECAM02という)に記載されるCIEAM02を考慮し、これは、E.H.Land、「The retinex theory of color vision」、Scientific American、1997年において観察される周知の空間的中心周辺レティネックス効果とともに前述のCIELABの次元を取り入れる。 More recently, “ISO 11664-4: 2008 (E) / CIE S 014-4 / E: 2007: Joint ISO / CIE Standard: Colorimetry-Part4: CIE 1976 L * a * b * Color Space” (hereinafter, CIELB) A framework of color spaces and perceptual differences that represent a more faithful approximation of HSV perceptual uniformity. CIELAB takes into account perception sensitivity in the lightness and color dimensions and CIEAM02 described in “CIE159: 2004: A Color Appearance Model for Color Management System: CIEAM02” (hereinafter referred to as CIECAM02). H. Incorporates the aforementioned CIELAB dimensions with the well-known spatial center peripheral Retinex effect observed in Land, “The retinex theory of color vision”, Scientific American, 1997.

知覚的に均一な色空間を規定する際のこれらの高度な努力でさえも、特定の観察上の例外に苛まされる。一例は「青−紫色恒常性」問題として知られ、参照によりここに取り込まれるMoroney「Assessing hue constancy using gradients」Color Imaging:Device−Independent Color、Color Hardcopy、及びGraphic Arts V、Reiner Eschbach、Gabriel G.Marcu、Editors、Proceedings of the SPIE、第3963巻、第294〜300ページ(2000年)に詳細が説明されるように、青色相の色は、明度が色空間を暗い方から明るい方に移る際に完全に線形な経路を辿らない。また、CIELABのより具体的な色恒常性の例外及びその関連の色空間が、Braun他、1998年、「Color Gamut Mapping in a Hue−Linearized CIELAB Color Space」、IS&T/SID6th Color Imaging Conference、第163〜168ページにおいて教示されるように入念に測定及びマッピングされ、単なる青−紫色恒常性問題よりも普及している。具体的には、この問題の一般的に観察される形態は、Bezold−Brucke(uにウムラント)シフトとして知られ、明らかな色相が輝度とともに変化し(及びその逆)、この効果が、他の用途の中でもとりわけ、映像及び画像伝送のための知覚的に効率的な色表現を見出す努力を挫折させてきた。 Even these advanced efforts in defining a perceptually uniform color space are frustrated by certain observational exceptions. An example is known as the “blue-purple homeostasis” problem, and Moroney “Assessing hue constitutive using gradients” Color Imaging: Device-Independent Color, Color Hard copy, and Graphic Vir. As described in detail in Marcu, Editors, Proceedings of the SPIE, Volume 3963, pp. 294-300 (2000), the color of the blue hue is when the lightness shifts from dark to bright. Does not follow a completely linear path. CIELAB's more specific color constancy exceptions and related color spaces are also described in Braun et al., 1998, “Color Gamut Mapping in a Hue-Linearized CIELAB Color Space”, IS & T / SID6 th Color Imaging Con, Carefully measured and mapped as taught on pages 163-168, it is more popular than just a blue-purple homeostasis problem. Specifically, a commonly observed form of this problem is known as the Bezold-Brucke (u-umrant) shift, where the apparent hue changes with luminance (and vice versa), and this effect is Among other applications, efforts have been frustrated to find perceptually efficient color representations for video and image transmission.

CIELAB及び関連の色空間表現を展開又は修正することに多数の試みが存在し、例えば、知覚線形性を向上するCIELUVについての交互の変換マトリクス係数を教示するTakamura及びKobayashi、2002年「Practical extension to CIELUV color space to improve uniformity」IEE ICIP002、及びBehrens「Deficiencies of the CIE−L color space and introduction of the SRLAB2 color model」「www.magnetkern.de/srlab2.tex」(以下、SRLAB2といい、参照によりここに取り込まれる)がある。SRLAB2は、CIECAM02の色適応モデルを用いて全体の新しい色空間表現を提案するが、それは、特に色空間の肌色領域において、色相角の均一性の低下に対する青−紫(色)恒常性と、色相−明度の間隔長の均一性との間のトレードオフとなる。 There have been a number of attempts to develop or modify CIELAB and related color space representations, for example, Takamura and Kobayashi, 2002, “Practical extension to teach alternating transform matrix coefficients for CIELV that improve perceptual linearity. CIELUV color space to improve uniformity "IEE ICIP002, and Behrens" Deficiencies of the CIE-L * a * b * color space and introduction of the SRLAB2 color model "," www.magnetkern.de/srlab2.tex "(hereinafter, the SRLAB2 Good, incorporated here by reference). SRLAB2 proposes an overall new color space representation using the CIECAM02 color adaptation model, which is blue-purple (color) constancy for reduced hue angle uniformity, especially in the skin color region of the color space, There is a trade-off between hue-lightness interval length uniformity.

明らかに、輝度又は明度の均一性、色恒常性、色相角の均一性及び色相−明度の間隔長均一性の特性の全てを呈する完全に知覚的に均一的な色空間は存在しないが、それらの全ては映像及び画像の符号化及び伝送のための理想色空間表現のために必要となる。   Clearly, there is no completely perceptually uniform color space that exhibits all of the properties of brightness or brightness uniformity, color constancy, hue angle uniformity, and hue-lightness interval length uniformity. Are all required for the ideal color space representation for video and image coding and transmission.

YCbCr及びY´CbCr色空間の導入時から、映像符号化システムのほとんどは、主に実施の簡略性及び現実性について、そして次に後方互換性の理由のために、現在では、YCbCr色空間を、ただし最近のものではなくより複雑であるがより知覚的に均一な色空間及び知覚差に基づく色表現を利用することに応じて標準化されている。   Since the introduction of the YCbCr and Y'CbCr color spaces, most video coding systems now use the YCbCr color space mainly for simplicity and practicality of implementation and then for reasons of backward compatibility. However, it is standardized in response to the use of more complex but more perceptually uniform color spaces and color representations based on perceptual differences rather than recent ones.

映像圧縮に対してYCbCrを色空間の基礎として用いることの非効率性は、色シンボル表現だけでなく輝度の現実化に及ぶ。例えば、CIELABは、色だけでなく明度の知覚にも非線形で非指数関数的な知覚曲線を導入するが、これは、多くの画像及び映像の符号化及び表示方式において、単純化した指数ガンマ関数によるもの以外については考慮されていない。CIELABに教示されるように、実際の観察者測定が、特に輝度範囲の低い領域において、単純な指数又は対数関係では知覚的な輝度の差を表すのに充分ではないことを実証してきた。   The inefficiency of using YCbCr as the basis of color space for video compression extends not only to color symbol representation but also to the realization of luminance. For example, CIELAB introduces a non-exponential perceptual curve that is non-linear not only for color but also for lightness perception, which is a simplified exponential gamma function in many image and video coding and display schemes. Anything other than that by is not considered. As taught by CIELAB, actual observer measurements have proven that simple exponential or logarithmic relationships are not sufficient to represent perceptual luminance differences, especially in regions of low luminance range.

さらに、本開示の時点で提案されているHEVC映像符号化標準などの現在の多くの映像及び画像符号化方式でさえ、再構成品質の低下及び符号レートの無駄などの不利益にもかかわらず、YCbCrを色空間の基礎として利用し続けている。   Furthermore, many current video and image coding schemes, such as the HEVC video coding standard proposed at the time of this disclosure, despite the disadvantages such as reduced reconstruction quality and wasted code rate. YCbCr continues to be used as the basis of color space.

現在の映像符号化方式の色空間の基礎及びシンボル表現の選択の欠点は当技術においてよく知られており、これらのコーデックの非効率性の負の影響を是正又は少なくとも緩和する幾つかの試みがなされてきた。Moroney及びFairchild、「Color space selection for JPEG image compression」、Jornal of Electronic Imaging 4(4)、373−381(1995年10月)、並びにDrukarev、「Compression−related properties of color spaces」、SPIE、第3024巻に教示されるようなものなど、画像及び映像圧縮の基礎としての知覚的に均一な色空間表現を用いる初期の試みは、リアルタイム符号化及び復号化のためのそれらのアプリケーションが複雑であるか、又はそれらがあまり利点をもたらさないことによって挫折した。また、関連技術において広く利用されるCIE1931XYZ色空間は、RGB、YIQ又はYCbCrと比較した場合に色差に対する人間の視覚系感度のより良い近似として認識されるが、双方が参照によりここに取り込まれるPoynton、Charles、「A Technical Introduction to Digital Video」、John Wiley&Sons、1996年、及び付随する「www.poynton.com/ColorFAQ.html」における「Frequently Asked Questions about Colour」(以下、Poyntonという)で説明されるように、これも80:1もの比率によって大幅に不均一となる。CIELABによって、この比率は約6:1にまで改善するが、Poyntonは、彼の執筆の時点ではCIELAB変換は映像に関して計算上非常に高価であり、リアルタイム処理には適さないことを指摘している。均一性は、多くの効率的な符号化を実現するための鍵となる概念であるが、従来技術で示すように、CIELABでさえも知覚的に均一な理想色空間からはかけ離れている。   The color space fundamentals of current video coding schemes and the disadvantages of choosing symbolic representations are well known in the art, and several attempts have been made to correct or at least mitigate the negative effects of these codec inefficiencies. Has been made. Moroney and Fairchild, "Color space selection for JPEG image compression", Journal of Electrical Imaging 4 (4), 373-381 (October 1995), and Drukarev, "recomp-splay". Early attempts to use a perceptually uniform color space representation as the basis for image and video compression, such as those taught in the volume, are their applications for real-time encoding and decoding complicated? Or frustrated by their lack of benefits. Also, the CIE 1931XYZ color space widely used in the related art is recognized as a better approximation of human visual system sensitivity to color differences when compared to RGB, YIQ or YCbCr, but both are incorporated herein by reference. , Charles, “A Technical Introduction to Digital Video”, John Wiley & Sons, 1996 and accompanying “www.poynton.com/ColorFAQ.html”. Thus, this also becomes significantly non-uniform with ratios as high as 80: 1. Although CIELAB improves this ratio to about 6: 1, Poynton points out that at the time of his writing, the CIELAB transform is computationally very expensive for video and not suitable for real-time processing. . Uniformity is a key concept for realizing many efficient encodings, but even CIELAB is far from a perceptually uniform ideal color space, as shown in the prior art.

米国特許出願公開US2012/0314943A1(以下、「Guerrero」という)に記載されるものなど、他の方法は、(1)人間の視覚系のモデルに対して最適化された色空間に適用され、色空間のエントロピー及び冗長性を減少させる量子化ファクタ、又は(2)色空間エントロピー及び冗長性を減少させるが、前段符号化段階での各画素に対するテーブル参照が必要なためにシステムのメモリ転送帯域幅要件を増加させる色テーブル参照ステップ、のいずれかを用いることによって解決策の達成を試みる。これらの方法は両方とも、適正なHVSモデル及び知覚的に均一な色空間が利用されることを条件に、色空間エントロピーをわずかに減少させる点で有効である。なお、Guerreroは知覚的に均一な色空間ではないCIE1931XYZを利用し、CIELABへの簡単な言及がなされるものの、CIELABも、上述した理由のためにこの目的のための理想的な色空間ではない。最も重要なこととして、Guerreroによって開示された方法は、空間的エントロピーを増加させることを犠牲にして色エントロピーを減少させ、JPEG及びMPEGなどの標準DCTに基づく符号器を用いる実装の利益のほとんどを減殺する。開示された量子化ファクタ又は色テーブル参照をヒストグラム圧縮関数と組み合わせることによって空間的な及び色空間のエントロピーと冗長性との双方を低減することは可能かもしれないが、ヒストグラムを展開するのに復号器端の後段処理が必要となり、また、そのようなヒストグラム圧伸のパラメータを調整するのに帯域内又は帯域外通信が必要となってしまう。Guerreroはこれらの概念を開示しておらず、実際にそれらとは反対のことを教示する。また、米国特許第8451384号で教示されるように、ヒストグラム計算を高精細でリアルタイムのスループットレートで実行すると、量販コンピュータシステム又はエンドユーザ装置におけるリアルタイムでの4K、5K及び8K解像度の映像は指数関数的に難しくなる。   Other methods, such as those described in US Patent Application Publication US2012 / 0314943A1 (hereinafter “Guerrero”), are applied to a color space optimized for a human visual system model, A quantization factor that reduces spatial entropy and redundancy, or (2) system space transfer bandwidth because it reduces color space entropy and redundancy but requires a table lookup for each pixel in the previous encoding stage Try to achieve the solution by using any of the color table lookup steps that increase the requirement. Both of these methods are effective in slightly reducing color space entropy, provided that a proper HVS model and a perceptually uniform color space are utilized. Although Guerrero uses CIE1931XYZ, which is not a perceptually uniform color space, and CIELAB is briefly referred to, CIELAB is not an ideal color space for this purpose for the reasons described above. . Most importantly, the method disclosed by Guerrero reduces the color entropy at the expense of increasing the spatial entropy, and most of the benefits of implementations using encoders based on standard DCT such as JPEG and MPEG. Attenuate. Although it may be possible to reduce both spatial and color space entropy and redundancy by combining the disclosed quantization factor or color table reference with a histogram compression function, decoding to expand the histogram Subsequent processing is required at the device end, and in-band or out-of-band communication is required to adjust such histogram companding parameters. Guerrero does not disclose these concepts and actually teaches the opposite. Also, as taught in U.S. Pat. No. 8,451,384, when histogram calculations are performed at high definition and real-time throughput rates, real-time 4K, 5K and 8K resolution images on mass-market computer systems or end-user devices are exponential functions. It becomes difficult.

符号器及び復号器の前段フィルタリング及び後段フィルタリングをそれぞれ調整する前述の帯域内又は帯域外通信の方法は、米国特許第6195394号(以下、‘394特許という)に記載されるように、当技術において周知である。‘394特許に記載される前段フィルタリング処理及び後段フィルタリング処理は空間帯域幅の削減及びその後の回復に関するものであって知覚的な色帯域幅の削減及び回復に関するものではないが、‘394特許は、前段フィルタリング処理及び後段フィルタリング処理の存在及び構成をシグナリングするための帯域外通信の方法が、復号器の付近における画像及び映像の適切な再構成を確実にするのに必要となることを論証している。   Such in-band or out-of-band communication methods for adjusting the pre-filtering and post-filtering of the encoder and decoder, respectively, are described in the art as described in US Pat. No. 6,195,394 (hereinafter referred to as the '394 patent). It is well known. The pre-filtering and post-filtering processes described in the '394 patent relate to spatial bandwidth reduction and subsequent recovery, not perceptual color bandwidth reduction and recovery, but the' 394 patent Demonstrate that out-of-band communication methods for signaling the presence and configuration of pre- and post-filtering processes are required to ensure proper reconstruction of images and video in the vicinity of the decoder. Yes.

必要であるが提供されていないものは、符号器又は復号器の装置又はシステムのいずれかに対して処理の複雑さ又はメモリ転送帯域幅の要件について過度の負荷をもたらさず、既存の画像及び映像の圧縮又は伝送システム及び方法の知覚品質及び/又は伝送若しくは記憶効率を向上する高いスループットのシステム及び方法である。そのシステム及び方法は、符号器又は復号器を交換する要件を課すものではない。システム及び方法は、符号器の前段フィルタリング及び復号器の後段フィルタリングを同期させてシステム及び方法の存在及び構成をシグナリングすることになる。   What is needed but not provided does not place undue burden on processing complexity or memory transfer bandwidth requirements on either the encoder or decoder device or system, and does not provide existing images and video A high throughput system and method that improves the perceived quality and / or transmission or storage efficiency of the current compression or transmission system and method. The system and method does not impose the requirement to replace the encoder or decoder. The system and method will signal the presence and configuration of the system and method by synchronizing the pre-filtering of the encoder and the post-filtering of the decoder.

上述の問題が対処され、技術的解決手段が、符号化方法及びシステムを提供することによって当技術において達成される。処理装置は、画像バッファを受信する。処理装置は、画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換する。処理装置は、画像バッファの1以上の画素の明度チャネルに第1の値を乗ずる。処理装置は、1以上の色チャネルの1以上の画素に第2の値を乗ずる。処理装置は、画像バッファの1以上の画素を1以上の知覚的に均一な色空間から固有色空間に変換する。処理装置は、画像バッファを下流側装置に送信する。   The above problems are addressed and technical solutions are achieved in the art by providing an encoding method and system. The processing device receives the image buffer. The processing device converts one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces. The processing device multiplies the lightness channel of one or more pixels of the image buffer by a first value. The processing device multiplies one or more pixels of one or more color channels by a second value. The processing device converts one or more pixels of the image buffer from one or more perceptually uniform color space to a native color space. The processing device transmits the image buffer to the downstream device.

知覚的に均一な色空間は、色空間において等しいデカルト距離にある2色が人間の視覚系に対して知覚的に実質的に等しく離れているような色空間である。   A perceptually uniform color space is a color space in which two colors that are at the same Cartesian distance in the color space are perceptually substantially equal to the human visual system.

一例では、第1の値は一定値であればよく、第2の値は一定値であればよい。一例では、処理装置は、第1の値及び第2の値を第2の処理装置に伝送する。処理装置は、第1の値及び第2の値を上流側装置又はメモリバッファの1つから受信することができる。処理装置は、変換された画像バッファを符号器に伝送することができ、符号器は、送信機が符号化画像バッファを下流側装置に送信する前に、画像バッファを符号化する。   In one example, the first value may be a constant value, and the second value may be a constant value. In one example, the processing device transmits the first value and the second value to the second processing device. The processing device can receive the first value and the second value from one of the upstream devices or the memory buffer. The processing device can transmit the converted image buffer to the encoder, which encodes the image buffer before the transmitter sends the encoded image buffer to the downstream device.

一例では、処理装置は、1以上の白点値を受信することができる。処理装置は、1以上の白点値に基づいて、画像バッファの画素を固有色空間から1以上の知覚的に均一な色空間に変換することができる。処理装置は、1以上の白点値を下流側装置に送信することができる。   In one example, the processing device can receive one or more white point values. The processing device can convert the pixels of the image buffer from the intrinsic color space to one or more perceptually uniform color spaces based on the one or more white point values. The processing device can transmit one or more white point values to the downstream device.

一例では、第1の値、第2の値及び1以上の白点値は、画像バッファとともにメタデータとして帯域内で下流側装置に伝送される。一例では、第1の値、第2の値及び1以上の白点値は、画像バッファとともにメタデータとして帯域外で下流側装置に送信される。   In one example, the first value, the second value, and one or more white point values are transmitted as metadata along with the image buffer to the downstream device in the band. In one example, the first value, the second value, and the one or more white point values are transmitted to the downstream device out of band as metadata along with the image buffer.

一例では、画像バッファを固有色空間から1以上の知覚的に均一な色空間に変換することが、色相を測定することに基づいていてもよい。一例では、色相を測定することは、画像バッファの各画素の色相を評価すること、及び測定された色相を用いて複数の知覚的に均一な色空間の1以上の中から選択することを含み得る。   In one example, converting the image buffer from the native color space to one or more perceptually uniform color spaces may be based on measuring hue. In one example, measuring the hue includes evaluating the hue of each pixel in the image buffer and selecting from one or more of a plurality of perceptually uniform color spaces using the measured hue. obtain.

上述の問題が対処され、技術的解決手段が、復号方法及びシステムを提供することによって当技術において達成される。第1の処理装置は、第2の処理装置から画像バッファ及び第1の値を受信する。第1の処理装置は、画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換する。第1の処理装置は、1以上の画素の明度チャネルに第1の値の逆数を乗ずる。第1の処理装置は、第2の処理装置から第2の値を受信し、1以上の色チャネルの1以上の画素に第2の値の逆数を乗ずる。第1の処理装置は、画像バッファの1以上の画素を1以上の知覚的に均一な色空間から固有色空間に変換する。第1の処理装置は、画像バッファを下流側装置に送信する。第1の値は一定値であればよく、第2の値は一定値であればよい。   The above problems are addressed and technical solutions are achieved in the art by providing decoding methods and systems. The first processing device receives the image buffer and the first value from the second processing device. The first processing device converts one or more pixels of the image buffer from the intrinsic color space to one or more perceptually uniform color spaces. The first processing device multiplies the brightness channel of one or more pixels by the reciprocal of the first value. The first processing device receives the second value from the second processing device and multiplies one or more pixels of the one or more color channels by the reciprocal of the second value. The first processing device converts one or more pixels of the image buffer from one or more perceptually uniform color spaces to a native color space. The first processing device transmits the image buffer to the downstream device. The first value may be a constant value, and the second value may be a constant value.

一例では、第1の処理装置は、第2の処置装置から1以上の白点値を受信し、1以上の白点値に基づいて、画像バッファの画素を1以上の知覚的に均一な色空間から固有色空間に変換する。一実施形態では、第1の値、第2の値及び1以上の白点値は、画像バッファとともに第2の処理装置から帯域内で受信される。一例では、第1の値、第2の値及び1以上の白点値は、画像バッファとともに第1の処理装置から帯域外で受信される。   In one example, the first processing device receives one or more white point values from the second treatment device, and based on the one or more white point values, the pixels of the image buffer are one or more perceptually uniform colors. Convert from space to intrinsic color space. In one embodiment, the first value, the second value, and one or more white point values are received in-band from the second processing device along with the image buffer. In one example, the first value, the second value, and the one or more white point values are received out-of-band from the first processing device along with the image buffer.

一例では、第1の処理装置に関連する固有色空間は、第2の処理装置に関連する固有色空間とは異なる。一例では、第1の処理装置に関連する1以上の知覚的に均一な色空間は、第2の処理装置に関連する1以上の知覚的に均一な色空間とは異なる。   In one example, the unique color space associated with the first processing device is different from the unique color space associated with the second processing device. In one example, the one or more perceptually uniform color spaces associated with the first processing device are different from the one or more perceptually uniform color spaces associated with the second processing device.

一例では、下流側装置は、ディスプレイ、符号器又は画像処理パイプラインのうちの1以上であればよい。   In one example, the downstream device may be one or more of a display, an encoder, or an image processing pipeline.

図1は、本開示の各例が動作し得る符号化コンピューティングシステムの一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of an encoded computing system in which examples of this disclosure may operate. 図2は、図1の符号化コンピューティングシステムに関連する符号化方法の一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of an encoding method associated with the encoding computing system of FIG. 図3は、本開示の各例が動作し得る復号コンピューティングシステムの一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a decoding computing system in which each example of the present disclosure may operate. 図4は、図3の符号化コンピューティングシステムに関連する復号方法の一例を示すフロー図である。FIG. 4 is a flow diagram illustrating an example of a decoding method associated with the encoded computing system of FIG. 図5は、CIELAB色空間内にプロットされたYCbCr全領域体積を示す。FIG. 5 shows the YCbCr total area volume plotted in the CIELAB color space. 図6は、Y=0、Y=0.5及びY=1で正規化されたYCbCr色空間の3つの断面を示す。FIG. 6 shows three cross sections of the YCbCr color space normalized with Y = 0, Y = 0.5 and Y = 1. 図7は、8ビット精度への量子化後の、CIELAB色空間に変換された図6の断面を示す。FIG. 7 shows the cross section of FIG. 6 converted to CIELAB color space after quantization to 8-bit precision. 図8は、CIELAB色空間に変換された図7の断面を示し、量子化輪郭境界を示す。FIG. 8 shows the cross section of FIG. 7 converted to the CIELAB color space and shows the quantized contour boundaries. 図9は、Z=1における正規化されたCIE1931XYZ色空間の断面を示す。FIG. 9 shows a cross section of the normalized CIE 1931XYZ color space at Z = 1. 図10は、8ビット精度への量子化後の、CIELAB色に変換された図9の断面を示す。FIG. 10 shows the cross section of FIG. 9 converted to CIELAB color after quantization to 8-bit precision. 図11は、量子化輪郭境界を示すように量子化された、CIELAB色空間に変換された図8の断面を示す。FIG. 11 shows the cross section of FIG. 8 converted to CIELAB color space, quantized to show quantized contour boundaries. 図12は、関連して動作する図1及び3のコンピューティングシステムの実施例のブロック図である。FIG. 12 is a block diagram of an embodiment of the computing system of FIGS. 1 and 3 operating in conjunction. 図13は、関連技術における映像伝送システムのブロック図である。FIG. 13 is a block diagram of a video transmission system in the related art. 図14は、関連技術における知覚的な色エントロピーを低減する映像伝送システムのブロック図である。FIG. 14 is a block diagram of a video transmission system that reduces perceptual color entropy in the related art. 図15は、量子化関数を色空間に適用して色エントロピーを低減することの不利益を示し、色エントロピーは空間エントロピーに置換される。FIG. 15 illustrates the disadvantage of applying a quantization function to color space to reduce color entropy, where color entropy is replaced with space entropy. 図16は、ここに記載する方法のいずれか1以上を機械に実行させるための一組の命令が実行され得るコンピュータシステムの例示形態における機械の模式的表現を示す。FIG. 16 illustrates a schematic representation of a machine in an exemplary form of a computer system in which a set of instructions for causing the machine to perform any one or more of the methods described herein may be executed.

本開示の実施形態は、既存の画像及び映像の送受信機又はコーデックシステム及び方法が、符号器又は復号器に対して処理の過度の複雑さ又はメモリ帯域の過度の要件を付加することなく輝度及び色の人間の視覚系での知覚に関する最新及び将来の発見を利用することを可能とする高スループットのシステム及び方法を提供する。本開示の実施形態は、符号器又は復号器の交換又は改造を要することなく、更なる知覚品質又は伝送符号化レート若しくはストレージサイズの効率を与える。本開示の例示のシステムの存在及び構成をシグナリングする符号器の前段フィルタリング及び復号器の後段フィルタリングを同期化するための方法が記載される。   Embodiments of the present disclosure provide that existing image and video transceivers or codec systems and methods allow brightness and resolution without adding excessive processing complexity or excessive memory bandwidth requirements to the encoder or decoder. High throughput systems and methods are provided that make it possible to take advantage of the latest and future discoveries regarding the perception of color in the human visual system. Embodiments of the present disclosure provide additional perceptual quality or transmission coding rate or storage size efficiency without requiring replacement or modification of the encoder or decoder. A method for synchronizing encoder pre-filtering and decoder post-filtering signaling the presence and configuration of an exemplary system of the present disclosure is described.

より詳細には、画像及び映像の圧縮方法の知覚品質及び/又は効率を向上するための高スループットの方法及びシステムが開示される。本開示の実施形態によるシステム及び方法は、(1)入力画像又は映像の各画素の1以上を1以上の知覚的に均一な色及び明度の表現に変換すること、(2)各画素の明度チャネルに第1の値を乗じ、各画素の色チャネルの各々に第2の値を乗ずること、(3)画像の各画素を圧縮符号器に適した色及び輝度の表現に逆変換し、画像又は映像を符号化すること、(4)ゼロでない第1及び第2の値を画像又は映像データとともに帯域内又は帯域外メタデータとして伝送又は記憶すること、の機能を実行する。   More particularly, a high-throughput method and system for improving the perceived quality and / or efficiency of image and video compression methods is disclosed. A system and method according to embodiments of the present disclosure includes (1) converting one or more of each pixel of an input image or video into one or more perceptually uniform color and lightness representations, and (2) the lightness of each pixel. Multiplying the channel by a first value and multiplying each color channel of each pixel by a second value; (3) inversely transforming each pixel of the image into a color and luminance representation suitable for a compression encoder; Or encoding the video, and (4) transmitting or storing the first and second non-zero values with the image or video data as in-band or out-of-band metadata.

本開示の実施形態によるシステム及び方法は、(5)受信画像又は映像を受信メタデータとともに読み取り、又は復号すること、(6)復号された画像又は映像の画素を1以上の知覚的に均一な色及び明度の表現に変換すること、(7)明度チャネルの各画素に第1の値の逆数を乗じ、色チャネルの各画素に第2の値の逆数を乗ずること、及び(8)表示に適した色及び輝度の表現に当該画像を逆変換すること、の機能を実行する。   A system and method according to embodiments of the present disclosure includes (5) reading or decoding a received image or video with received metadata, and (6) one or more perceptually uniform pixels of the decoded image or video. Converting to color and lightness representations, (7) multiplying each pixel in the lightness channel by the reciprocal of the first value, multiplying each pixel in the color channel by the reciprocal of the second value, and (8) display Performs the function of inverse transforming the image into a suitable color and brightness representation.

以降の説明において多数の詳細事項を説明する。ただし、本開示はこれらの具体的詳細なしで実施され得ることは当業者には明らかなはずである。ある例では、周知の構造物及び装置は、本開示の実施例を不明瞭にすることを避けるために、詳細にではなくブロック図形式で示される。   In the following description, numerous details are described. However, it should be apparent to those skilled in the art that the present disclosure may be practiced without these specific details. In some instances, well-known structures and devices are shown in block diagram form, rather than in detail, in order to avoid obscuring the embodiments of the present disclosure.

図1は、本開示の各例が動作し得る画像及び映像の圧縮方法の知覚品質及び/又は効率を向上する符号化コンピューティングシステム100の一例のブロック図である。非限定的な例として、コンピューティングシステム100は、ビデオカメラ、オンライン記憶装置又は伝送媒体のような1以上のデータ源105からデータを受信する。コンピューティングシステム100はまた、デジタル映像又は画像の撮像システム110及びコンピューティングプラットフォーム115を含み得る。デジタル映像又は画像の撮像システム110は、1以上の画像、デジタル映像のストリームなどを処理し、アナログ映像をデジタル映像に、1以上のデータ源105としてコンピューティングプラットフォーム115によって処理可能な形式に変換する。コンピューティングプラットフォーム115は、1以上の中央処理装置130a〜130nなど、例えば、処理装置125を備え得るホストシステム120を備える。処理装置125は、ホストメモリ135に結合される。ホストメモリ135は、画像データバッファ150において1以上のデータ源105から受信されたデジタル画像又は映像データを記憶することができる。   FIG. 1 is a block diagram of an example encoded computing system 100 that improves the perceptual quality and / or efficiency of image and video compression methods in which examples of this disclosure may operate. By way of non-limiting example, computing system 100 receives data from one or more data sources 105, such as a video camera, online storage device, or transmission medium. The computing system 100 may also include a digital video or image imaging system 110 and a computing platform 115. The digital video or image imaging system 110 processes one or more images, digital video streams, etc., and converts the analog video to digital video into a format that can be processed by the computing platform 115 as one or more data sources 105. . The computing platform 115 comprises a host system 120 that may comprise a processing device 125, such as one or more central processing devices 130a-130n, for example. Processing unit 125 is coupled to host memory 135. The host memory 135 can store digital image or video data received from one or more data sources 105 in the image data buffer 150.

処理装置は、グラフィック処理装置140(GPU)をさらに実装することができる。以下に限られないが、DPS、FPGA若しくはASIC、又は処理装置125自体の付属の固定機能構成など、他の協働プロセッサアーキテクチャがGPUに加えて利用され得ることが当業者には分かるはずである。携帯電話及びタブレットで見られるような「APU」としても知られるように、GPU140が中央処理装置130a〜130nと同じ物理チップ又は論理装置上に配置され得ることも当業者には分かるはずである。個別のGPU及びCPU機能は、GPUが物理的拡張カード、パーソナルコンピュータシステム及びラップトップであるコンピュータサーバシステムで見られる。GPU140は、GPUメモリ137を備え得る。ホストメモリ135及びGPUメモリ137も、APU上など、同じ物理チップ又は論理装置上に配置され得ることが当業者には分かるはずである。   The processing device may further implement a graphics processing device 140 (GPU). Those skilled in the art will recognize that other cooperating processor architectures may be utilized in addition to the GPU, such as, but not limited to, DPS, FPGA or ASIC, or the attached fixed functional configuration of the processing unit 125 itself. . Those skilled in the art will also appreciate that the GPU 140 can be located on the same physical chip or logical unit as the central processing units 130a-130n, also known as "APU" as found on mobile phones and tablets. Individual GPU and CPU functions are found in computer server systems where the GPU is a physical expansion card, personal computer system and laptop. The GPU 140 may include a GPU memory 137. One skilled in the art will appreciate that host memory 135 and GPU memory 137 may also be located on the same physical chip or logical device, such as on an APU.

処理装置125は、データ源105からデータを受信し、画像データバッファ150を受信する色空間コンバータ及びプロセッサ145(以下、「色空間プロセッサ145」という)を実装するように構成され、画像データバッファ150はGPUメモリ137に画像バッファ155として転送される。一例では、処理装置125は、GPU140の構成要素として色プロセッサ145を実装することができる。色空間プロセッサ145は、画像データバッファ155の画素の1以上を固有色空間から1以上の知覚的に均一な色空間に変換するように構成される。   The processing device 125 is configured to implement a color space converter and processor 145 that receives data from the data source 105 and receives the image data buffer 150 (hereinafter referred to as “color space processor 145”). Is transferred to the GPU memory 137 as an image buffer 155. In one example, the processing unit 125 can implement the color processor 145 as a component of the GPU 140. The color space processor 145 is configured to convert one or more of the pixels of the image data buffer 155 from a native color space to one or more perceptually uniform color spaces.

色空間プロセッサ145は、変換された画像バッファ155の各画素の明度チャネルに第1の値を乗じ、変換された画像バッファ155の各画素の色チャネルに第2の値を乗ずるように構成される。色空間プロセッサ145はさらに、画像バッファ155の1以上の画素を1以上の知覚的に均一な色空間から元の固有入力色空間又は表示出力若しくは符号器180への伝送に適した色空間に変換するように構成される。一例では、変換された画像データは、ディスプレイ170に表示され得る。他の例では、色空間プロセッサ145は、変換された画像データを符号器180に伝送することができる。一例では、符号器180は、変換された画像データを当技術で知られている符号化方法を用いて符号化することができる。符号器180は、符号化されたデータを送信機185に搬送し、送信機185は、符号化されたデータを1以上の下流側装置190に直接又はネットワーク195を介して送信する。一例では、符号器180又は送信機185の一方又は両方は、処理装置125又はコンピューティングプラットフォーム115の外部にあってもよい。他の例では、符号器180又は送信機185の一方又は両方は、処理装置125又はコンピューティングプラットフォーム115に一体化されていてもよい。   The color space processor 145 is configured to multiply the lightness channel of each pixel of the converted image buffer 155 by a first value and multiply the color channel of each pixel of the converted image buffer 155 by a second value. . The color space processor 145 further converts one or more pixels of the image buffer 155 from one or more perceptually uniform color spaces into an original native input color space or a color space suitable for display output or transmission to the encoder 180. Configured to do. In one example, the converted image data can be displayed on the display 170. In other examples, the color space processor 145 can transmit the converted image data to the encoder 180. In one example, the encoder 180 can encode the transformed image data using encoding methods known in the art. The encoder 180 conveys the encoded data to the transmitter 185, which transmits the encoded data to one or more downstream devices 190 directly or via the network 195. In one example, one or both of encoder 180 or transmitter 185 may be external to processing device 125 or computing platform 115. In other examples, one or both of encoder 180 or transmitter 185 may be integrated into processing unit 125 or computing platform 115.

図2は、既存の画像及び映像圧縮方法の知覚品質及び/又は効率を向上する符号化方法200の一例を示すフロー図である。方法200は、図1のコンピュータシステム100によって実行され、ハードウェア(例えば、回路、専用ロジック、プログラマブルロジック、マイクロコードなど)、ソフトウェア(例えば、処理装置で実行される命令)又はその組合せを備え得る。一例では、方法200は、主に図1のコンピューティングシステム100の色空間プロセッサ145によって実行される。   FIG. 2 is a flow diagram illustrating an example of an encoding method 200 that improves the perceptual quality and / or efficiency of existing image and video compression methods. The method 200 is performed by the computer system 100 of FIG. 1 and may comprise hardware (eg, circuitry, dedicated logic, programmable logic, microcode, etc.), software (eg, instructions executed on a processing device), or a combination thereof. . In one example, the method 200 is performed primarily by the color space processor 145 of the computing system 100 of FIG.

図2に示すように、コンピューティングシステム100に画像データを符号化させるために、ブロック210において、色空間プロセッサ145が画像バッファ155を受信する。ブロック220において、色空間プロセッサ145が、画像バッファ155の1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換する。知覚的に均一な色空間は、色空間において等しいデカルト距離にある2色が人間の視覚系に対して知覚的に実質的に等しく離れているような色空間である。   As shown in FIG. 2, the color space processor 145 receives the image buffer 155 at block 210 to cause the computing system 100 to encode the image data. At block 220, the color space processor 145 converts one or more pixels of the image buffer 155 from the native color space to one or more perceptually uniform color spaces. A perceptually uniform color space is a color space in which two colors that are at the same Cartesian distance in the color space are perceptually substantially equal to the human visual system.

変換された画像バッファ155の1以上の画素は複数の画素からなっていてもよく、各画素が明度チャネル及び1以上の色チャネルを備える。ブロック230において、色空間プロセッサ145が、変換された画像バッファ155の1以上の画素の明度チャネルに第1の値を乗ずる。一例では、第1の値は一定値である。ブロック240において、色空間プロセッサ145が、変換された画像バッファ155の1以上の画素の1以上の色チャネルに第2の値を乗ずる。一例では、第2の値は一定値である。   One or more pixels of the converted image buffer 155 may consist of a plurality of pixels, each pixel having a brightness channel and one or more color channels. At block 230, the color space processor 145 multiplies the lightness channel of one or more pixels of the converted image buffer 155 by a first value. In one example, the first value is a constant value. At block 240, the color space processor 145 multiplies the one or more color channels of the one or more pixels of the converted image buffer 155 by a second value. In one example, the second value is a constant value.

ブロック250において、色空間プロセッサ145が、画像バッファ155の1以上の画素を1以上の知覚的に均一な色空間から固有色空間に変換する。ブロック260において、色空間プロセッサ145は、画像バッファ155、第1の値及び第2の値を符号器180又はマルチプレクサ若しくはラッパに伝送する。ここで使用するラッパとは、映像ファイルフォーマットのSMPTE定義の意味で使用される用語であり、「エッセンス」はコーデックペイロード及びその内容を記述し、「ラッパ」はファイルフォーマット若しくは伝送フォーマット又はエッセンスのための他のペイロードパッケージを記述する。当業者には分かるように、ラッパはまた、JFIFなどの単一の画像のためのファイルフォーマットを意味するように解釈されてもよく、JFIFはファイルにカプセル化される標準態様のJPEG画像を記述する。ブロック270において、符号器180は画像バッファ155を符号化する。ブロック280において、符号器180は画像バッファ155を送信機185に伝送する。ブロック290において、送信機185は、画像バッファ155をディスプレイ170又は1以上の下流側装置190の1以上に送信する。一例では、送信機185は、画像バッファ155を1以上の下流側装置190(例えば、第2の処理装置)にネットワーク195を介して送信する。   At block 250, the color space processor 145 converts one or more pixels of the image buffer 155 from one or more perceptually uniform color spaces to a native color space. In block 260, the color space processor 145 transmits the image buffer 155, the first value and the second value to the encoder 180 or multiplexer or wrapper. The wrapper used here is a term used in the meaning of the SMPTE definition of the video file format, “essence” describes the codec payload and its contents, and “wrapper” is for file format or transmission format or essence. Describe other payload packages. As will be appreciated by those skilled in the art, a wrapper may also be interpreted to mean a file format for a single image, such as JFIF, which describes a standard mode JPEG image encapsulated in a file. To do. In block 270, the encoder 180 encodes the image buffer 155. In block 280, encoder 180 transmits image buffer 155 to transmitter 185. In block 290, the transmitter 185 transmits the image buffer 155 to one or more of the display 170 or one or more downstream devices 190. In one example, the transmitter 185 transmits the image buffer 155 to one or more downstream devices 190 (eg, a second processing device) via the network 195.

一例では、色空間プロセッサ145はさらに、「ISO 11664−4:2008(E)/CIE S 014−4/E:2007:Joint ISO/CIE Standard:Colorimetry−Part 4:CIE 1976 L Colour Space」(以下、CIELABといい、参照によりここに取り込まれる)に記載されるような1以上の基準白点三刺激値を受信することができる。色空間プロセッサ145は、1以上の白点値に基づいて画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換することができる。送信機はさらに、1以上の白点値を1以上の下流側装置190に送信することができる。第1の値、第2の値及び1以上の白点値は、画像バッファ155とともに帯域内又は帯域外で1以上の下流側装置190に送信され得る。 In one example, the color space processor 145 further includes: “ISO 11664-4: 2008 (E) / CIE S 014-4 / E: 2007: Joint ISO / CIE Standard: Colorimetry-Part 4: CIE 1976 L * a * b * One or more reference white point tristimulus values as described in "Color Space" (hereinafter referred to as CIELAB, incorporated herein by reference) can be received. The color space processor 145 can convert one or more pixels of the image buffer from the intrinsic color space to one or more perceptually uniform color spaces based on the one or more white point values. The transmitter can further transmit one or more white point values to one or more downstream devices 190. The first value, the second value, and one or more white point values may be transmitted to the one or more downstream devices 190 in-band or out-of-band with the image buffer 155.

図3は、本開示の各例が動作し得る画像及び映像の圧縮方法の知覚品質及び/又は効率を向上する例示の復号コンピューティングシステム300のブロック図である。非限定的な例示として、コンピューティングシステム300は、符号化データを1以上のデータ源305から受信するように構成される。1以上のデータ源305は、図1の符号化コンピューティングシステム100であってもよい。コンピューティングシステム300はまた、コンピューティングプラットフォーム315を含み得る。コンピューティングプラットフォーム315は、1以上の中央処理装置330a〜330nなど、例えば、処理装置325を備え得るホストシステム320を備える。処理装置325は、ホストメモリ335に結合される。ホストメモリ335は、画像データバッファ350において1以上のデータ源305から受信された符号化デジタル画像又は映像データを記憶することができる。符号化データは、受信機360によって受信され、復号器365によって復号され、画像データバッファ350に送られる。受信機360は、1以上のデータ源305から、又はネットワーク310を介して方向付けられた符号化データを受信することができる。一例では、受信機360又は復号器365の一方又は両方は、処理装置325又はコンピューティングプラットフォーム315の外部にあってもよい。他の例では、受信機360又は復号器365の一方又は両方は、処理装置325又はコンピューティングプラットフォーム315に一体化されていてもよい。   FIG. 3 is a block diagram of an exemplary decoding computing system 300 that improves the perceptual quality and / or efficiency of image and video compression methods in which examples of this disclosure may operate. By way of non-limiting example, computing system 300 is configured to receive encoded data from one or more data sources 305. The one or more data sources 305 may be the encoded computing system 100 of FIG. Computing system 300 may also include a computing platform 315. The computing platform 315 comprises a host system 320 that may comprise a processing unit 325, such as one or more central processing units 330a-330n, for example. Processing unit 325 is coupled to host memory 335. Host memory 335 can store encoded digital image or video data received from one or more data sources 305 in image data buffer 350. The encoded data is received by the receiver 360, decoded by the decoder 365, and sent to the image data buffer 350. Receiver 360 can receive encoded data directed from one or more data sources 305 or via network 310. In one example, one or both of receiver 360 or decoder 365 may be external to processing device 325 or computing platform 315. In other examples, one or both of receiver 360 or decoder 365 may be integrated into processing unit 325 or computing platform 315.

処理装置325は、グラフィック処理装置340(GPU)をさらに実装することができる。以下に限られないが、DPS、FPGA若しくはASIC、又は処理装置325自体の付属の固定機能構成など、他の協働プロセッサアーキテクチャがGPUに加えて利用され得ることが当業者には分かるはずである。携帯電話及びタブレットで見られるような「APU」としても知られるように、GPU340が中央処理装置330a〜330nと同じ物理チップ又は論理装置上に配置され得ることも当業者には分かるはずである。個別のGPU及びCPU機能は、GPUが物理的拡張カード、パーソナルコンピュータシステム及びラップトップであるコンピュータサーバシステムで見られ得る。GPU340は、GPUメモリ337を備え得る。ホストメモリ335及びGPUメモリ337も、APU上など、同じ物理チップ又は論理装置上に配置され得ることが当業者には分かるはずである。また、復号処理装置325は、符号化処理装置125とともに図1のコンピューティングシステム100に部分的又は全体的に一体化されて符号化及び復号化機能の双方を与えてもよいことが当業者には分かるはずである。   The processing device 325 can further implement a graphics processing device 340 (GPU). Those skilled in the art will appreciate that other cooperating processor architectures may be utilized in addition to the GPU, such as, but not limited to, DPS, FPGA or ASIC, or the attached fixed function configuration of the processing unit 325 itself. . One skilled in the art will also appreciate that the GPU 340 can be located on the same physical chip or logical unit as the central processing units 330a-330n, also known as "APU" as found on mobile phones and tablets. Individual GPU and CPU functions can be found in computer server systems where the GPU is a physical expansion card, personal computer system and laptop. The GPU 340 may include a GPU memory 337. One skilled in the art will appreciate that host memory 335 and GPU memory 337 may also be located on the same physical chip or logical device, such as on an APU. It should also be understood by those skilled in the art that the decoding processor 325 may be partially or wholly integrated with the encoding processor 125 in the computing system 100 of FIG. 1 to provide both encoding and decoding functions. Should be understood.

処理装置325は、符号化画像データ、第1の値及び第2の値(例えば、図1の符号化システム100で利用される第1の値及び第2の値)をデータ源305から受信機360を介して受信するように構成される。処理装置325は、第1の値及び第2の値を転送し、復号器365に対する受信符号化画像データに基づいて画像データバッファ350を生成して、画像バッファ350、第1の値及び第2の値を復号するように構成される。復号器365は、画像バッファ350、第1の値、及びGPUメモリ337に画像バッファ355として転送される第2の値を転送するように構成される。   The processing device 325 receives the encoded image data, the first value and the second value (for example, the first value and the second value used in the encoding system 100 of FIG. 1) from the data source 305. 360 for receiving. The processing device 325 transfers the first value and the second value, generates the image data buffer 350 based on the received encoded image data for the decoder 365, the image buffer 350, the first value and the second value. Configured to decode the value of. The decoder 365 is configured to transfer the image buffer 350, the first value, and the second value that is transferred to the GPU memory 337 as the image buffer 355.

処理装置325は、画像バッファ355、第1の値及び第2の値を復号器、デマルチプレクサ又はアンラッパから受信する色空間コンバータ及びプロセッサ345(以下、「色空間プロセッサ345」という)を実装するように構成される。一例では、処理装置325は、GPU340の構成要素として色プロセッサ345を実装することができる。   The processing unit 325 implements an image buffer 355, a color space converter and processor 345 (hereinafter referred to as "color space processor 345") that receives the first and second values from the decoder, demultiplexer or unwrapper. Configured. In one example, the processing device 325 can implement the color processor 345 as a component of the GPU 340.

色空間プロセッサ345は、画像バッファ355の1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換するように構成される。色空間プロセッサ345は、変換された画像バッファの1以上の画素の明度チャネルに第1の値の逆数を乗じ、変換された画像バッファの1以上の画素の色チャネルに第2の値の逆数を乗ずるように構成される。色空間プロセッサ345はさらに、画像バッファ355の1以上の画素を1以上の知覚的に均一な色空間から元の固有入力色空間に、又はディスプレイ370の表示出力若しくは1以上の下流側装置375(例えば、符号器)への送信に適した色空間に変換するように構成される。   Color space processor 345 is configured to convert one or more pixels of image buffer 355 from a native color space to one or more perceptually uniform color spaces. The color space processor 345 multiplies the lightness channel of one or more pixels of the converted image buffer by the reciprocal of the first value and the color channel of one or more pixels of the converted image buffer by the reciprocal of the second value. Configured to multiply. The color space processor 345 further moves one or more pixels of the image buffer 355 from one or more perceptually uniform color spaces to the original native input color space, or the display output of the display 370 or one or more downstream devices 375 ( For example, it is configured to convert to a color space suitable for transmission to an encoder.

図4は、既存の画像及び映像圧縮方法の知覚品質及び/又は効率を向上するための復号方法400の一例を示すフロー図である。方法400は、図3のコンピュータシステム300によって実行され、ハードウェア(例えば、回路、専用ロジック、プログラマブルロジック、マイクロコードなど)、ソフトウェア(例えば、処理装置で実行される命令)又はその組合せを備え得る。一例では、方法300は、主に図3のコンピューティングシステム300の色空間プロセッサ345によって実行される。   FIG. 4 is a flow diagram illustrating an example of a decoding method 400 for improving the perceptual quality and / or efficiency of existing image and video compression methods. The method 400 is performed by the computer system 300 of FIG. 3 and may comprise hardware (eg, circuitry, dedicated logic, programmable logic, microcode, etc.), software (eg, instructions executed on a processing device), or a combination thereof. . In one example, the method 300 is performed primarily by the color space processor 345 of the computing system 300 of FIG.

図4に示すように、コンピューティングシステム300に画像データを復号させるために、ブロック410において、受信機360が、符号化画像データ、第1の値及び第2の値をデータ源305から受信する。ブロック420において、復号器365が画像バッファ355、第1の値及び第2の値を復号し、復号データを処理装置325の画像データバッファ350に入れる。ブロック430において、処理装置325が、復号された画像バッファ355、第1の値及び第2の値をGPUメモリ337のGPU画像バッファ355に転送する。ブロック440において、色空間プロセッサ345が、画像バッファ355、第1の値及び第2の値をGPUメモリ337から受信する。   As shown in FIG. 4, to cause the computing system 300 to decode the image data, at block 410, the receiver 360 receives the encoded image data, the first value and the second value from the data source 305. . At block 420, the decoder 365 decodes the image buffer 355, the first value and the second value, and places the decoded data into the image data buffer 350 of the processing device 325. At block 430, the processing unit 325 transfers the decoded image buffer 355, the first value and the second value to the GPU image buffer 355 of the GPU memory 337. At block 440, the color space processor 345 receives the image buffer 355, the first value and the second value from the GPU memory 337.

変換された画像バッファ355は複数の画素からなっていてもよく、各画素は明度チャネル及び1以上の色チャネルを備える。ブロック450において、色空間プロセッサ345が、画像バッファ355の1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換する。ブロック460において、色空間プロセッサ345が、変換された画像バッファ355の1以上の画素の明度チャネルに第1の値の逆数を乗ずる。一例では、第1の値は一定値である。ブロック470において、色空間プロセッサ345が、変換された画像バッファ355の1以上の画素の1以上の色チャネルに第2の値の逆数を乗ずる。一例では、第2の値は一定値である。   The converted image buffer 355 may consist of a plurality of pixels, each pixel having a brightness channel and one or more color channels. At block 450, the color space processor 345 converts one or more pixels of the image buffer 355 from the native color space to one or more perceptually uniform color spaces. At block 460, the color space processor 345 multiplies the lightness channel of one or more pixels of the transformed image buffer 355 by a reciprocal of the first value. In one example, the first value is a constant value. At block 470, the color space processor 345 multiplies one or more color channels of one or more pixels of the transformed image buffer 355 by a reciprocal of the second value. In one example, the second value is a constant value.

ブロック480において、色空間プロセッサ345が、画像バッファ355を1以上の知覚的に均一な色空間から固有色空間に、又はディスプレイ370での表示出力若しくは1以上の下流側装置375(例えば、ネットワーク310を介した符号器)への送信に適した色空間に変換する。ブロック390において、色空間プロセッサ345が、画像バッファをディスプレイ370又は下流側装置375に出力する。   At block 480, the color space processor 345 moves the image buffer 355 from one or more perceptually uniform color spaces to a native color space, or a display output on the display 370 or one or more downstream devices 375 (eg, network 310 To a color space suitable for transmission to an encoder). At block 390, color space processor 345 outputs the image buffer to display 370 or downstream device 375.

一例では、色空間プロセッサ345はさらに、1以上の白点値を受信機360から受信することができる。色空間プロセッサ345は、画像バッファの1以上の画素を1以上の知覚的に均一な色空間から固有色空間に変換する際に1以上の白点値を用いることができる。一例では、第1の値、第2の値及び1以上の白点値が、帯域内又は帯域外で画像バッファ255とともにデータ源305(例えば、図1のコンピューティングシステム100)から受信される。   In one example, the color space processor 345 can further receive one or more white point values from the receiver 360. The color space processor 345 can use one or more white point values in converting one or more pixels of the image buffer from one or more perceptually uniform color spaces to a native color space. In one example, a first value, a second value, and one or more white point values are received from data source 305 (eg, computing system 100 of FIG. 1) with image buffer 255 in-band or out-of-band.

一例では、処理装置325に関連する固有色空間は、データ源305(例えば、図1の処理装置125)に関連する固有色空間とは異なっていてもよい。一例では、処理装置325に関連する知覚的に均一な色空間は、データ源305(例えば、図1の処理装置125)に関連する知覚的に均一な色空間とは異なっていてもよい。   In one example, the native color space associated with processing device 325 may be different from the native color space associated with data source 305 (eg, processing device 125 of FIG. 1). In one example, the perceptually uniform color space associated with processing device 325 may be different from the perceptually uniform color space associated with data source 305 (eg, processing device 125 of FIG. 1).

本開示の実施形態は、伝送媒体及び色空間としてYCbCrに基づく圧縮との互換性を保持しつつ、知覚色彩科学の最新又は将来の発見を利用することによって、より良い知覚品質又は減少した符号化レートを既存の適切なYCbCrに基づく圧縮システムに達成させるための高スループットの効率的なシステム及び方法を提供するように動作可能である。結果として、符号器若しくは復号器又は送信機若しくは受信機のいずれかに直接の改造を要することなく、輝度チャネル及び色差チャネルの双方においてエントロピー及び冗長性を低減することができる。   Embodiments of the present disclosure provide better perceived quality or reduced encoding by utilizing the latest or future discoveries in perceptual color science while retaining compatibility with compression based on YCbCr as the transmission medium and color space. It is operable to provide a high-throughput efficient system and method for achieving rates in existing suitable YCbCr based compression systems. As a result, entropy and redundancy can be reduced in both the luminance and chrominance channels without requiring a direct modification to either the encoder or decoder or the transmitter or receiver.

YCbCr色空間は、特に、輝度又はY−チャネル軸に沿って色空間体積の上方及び下方境界において大きな知覚的冗長性を有する。理想の画像又は映像圧縮システムはシンボル表現についての基礎として知覚的に均一な色空間を選択すべきであると長い間認識されてきた。ここで用いるように、知覚均一性は、色空間体積において等しいデカルト距離にある2色は知覚的にも等しく離れていることを意味する。   The YCbCr color space has great perceptual redundancy, especially at the upper and lower boundaries of the color space volume along the luminance or Y-channel axis. It has long been recognized that an ideal image or video compression system should select a perceptually uniform color space as the basis for symbolic representation. As used herein, perceptual uniformity means that two colors that are at the same Cartesian distance in the color space volume are also perceptually equally separated.

図5は三次元でのCIELAB色空間の投影レンダリングであり、YCbCr色空間の境界はワイヤフレーム形状で輪郭付けられる。CIELAB色空間は、YCbCr色空間よりも非常に大きな色空間である。なお、CIELAB色空間内で区画されるYCbCr全域の体積は不規則な形状を有する。CIELAB色空間内のYCbCr色空間の全域の体積を「伸張して」示す。これらの伸張された領域は、YCbCrに基づく符号化システム及び圧縮システムが、他の色に対する知覚色差を表すことに「過大な」符号化レートを充てるような体積の領域を表している。YCbCr色空間がCIELANに対して正確に知覚的に均一であったとすると、その全域の体積は立方体となるであろう。言い換えると、縮小された領域は、YCbCrに基づく符号化システムが、他の色に対する知覚色差を表すことに「過小な」符号化レートを充てるような体積の領域を表している。   FIG. 5 is a three-dimensional projection rendering of the CIELAB color space, where the boundaries of the YCbCr color space are outlined in wireframe shape. The CIELAB color space is a much larger color space than the YCbCr color space. Note that the volume of the entire YCbCr section within the CIELAB color space has an irregular shape. The volume of the entire area of the YCbCr color space within the CIELAB color space is shown “stretched”. These stretched regions represent regions of volume such that YCbCr based coding and compression systems devote “excessive” coding rates to representing perceived color differences relative to other colors. If the YCbCr color space was exactly perceptually uniform for CIELAN, the volume of the entire area would be a cube. In other words, the reduced area represents a volume area where the encoding system based on YCbCr devotes an “underly” encoding rate to representing perceived color differences relative to other colors.

図6は、Y=0、Y=0.5及びY=1において、正規化されたYCbCr色空間の3つの断面を示す。   FIG. 6 shows three cross sections of the normalized YCbCr color space at Y = 0, Y = 0.5 and Y = 1.

図7は、CIELAB色空間に変換された図6の断面を示し、これはHVS知覚感度のより均一な近似を有し、これが8ビット精度への量子化である。なお、元のYCbCr空間の色によっては他の色よりも多くの領域を占有する。   FIG. 7 shows the cross section of FIG. 6 converted to CIELAB color space, which has a more uniform approximation of HVS perceptual sensitivity, which is quantization to 8-bit precision. Depending on the color of the original YCbCr space, it occupies more area than other colors.

図8は、図7の量子化輪郭境界を示す。図7の領域は不均一分布を示し、大きな領域は、映像又は画像の符号化又は圧縮システムがYCbCr色空間を利用するときは常に「無駄となる」符号化レートを示す。YCbCr色空間が完全に効率的であったとすると、示される領域は全て同じ近似領域を有することになる。なお、図8において、無駄となる符号化レートは、Cbが0より小さい低い輝度値についてCb軸に沿って集中し、Cbが0より大きい高い輝度値についてCb軸に沿って集中している。   FIG. 8 shows the quantized contour boundary of FIG. The region of FIG. 7 shows a non-uniform distribution, and the large region shows a “waste” encoding rate whenever a video or image encoding or compression system uses the YCbCr color space. Assuming that the YCbCr color space was completely efficient, the areas shown would all have the same approximate area. In FIG. 8, wasted encoding rates are concentrated along the Cb axis for low luminance values where Cb is smaller than 0, and concentrated along the Cb axis for high luminance values where Cb is larger than 0.

JPEG、MPEG/H.262/H.263、AVC/H.264及びHEVC/H.265のようなYCbCrに基づくシステムの例では、問題は色チャネルに及ぶだけではない−YCbCrの輝度の仮定が、明度に対するHVS感度に正確には一致しないことが発見された。この理由のために、YCbCr色空間のYチャネルには、特に輝度範囲の暗い領域においてアーティファクト及び/又は伝送の非効率性に寄与し得る冗長性もある。   JPEG, MPEG / H. 262 / H. 263, AVC / H. H.264 and HEVC / H. In examples of systems based on YCbCr, such as H.265, it was discovered that the problem does not only extend to the color channel—the luminance assumption of YCbCr does not exactly match the HVS sensitivity to lightness. For this reason, the Y channel in the YCbCr color space also has redundancy that can contribute to artifacts and / or transmission inefficiencies, especially in the dark areas of the luminance range.

より詳細には、アーティファクトは、高いコントラスト及び明るい有色光を有する傾向にあるコンサート映像など、復号された高い飽和度の暗いシーンを見る場合に見られる。そのような状況では、特に、符号化レートが制限された状態又は伝送ネットワーク輻輳状態において、標準的な符号化システムでカラーバンディング又はポスタリゼーションアーティファクトがはっきりと表れる。これらの品質上の欠陥は、本開示の例がYCbCrに基づく符号化又は圧縮システムとの関連で使用される場合に防止又は緩和され得る。   More specifically, artifacts are seen when viewing a decoded high saturation dark scene, such as a concert video that tends to have high contrast and bright colored light. In such situations, color banding or posterization artifacts are particularly apparent in standard coding systems, especially in situations where the coding rate is limited or in transmission network congestion. These quality defects can be prevented or mitigated when the examples of this disclosure are used in the context of YCbCr-based encoding or compression systems.

本開示の例は、より良い知覚品質又は低減された符号レートを既存の適切なCIE1931XYZに基づく圧縮システムに達成させるための高スループットの効率的なシステム及び方法を提供する。本開示の例は、CIE1931XYZ色空間を伝送媒体及び色空間の仮定として保持しつつも、知覚色彩科学の最新又は将来の発見を利用して、符号器若しくは復号器又は送信機若しくは受信機のいずれかに直接の改造を要することなく、輝度チャネルにおけるエントロピー及び冗長性を低減することができる。   The examples of this disclosure provide a high-throughput efficient system and method for achieving better perceived quality or reduced code rate in existing suitable CIE 1931XYZ based compression systems. The example of this disclosure uses the latest or future discoveries in perceptual color science, while retaining the CIE 1931XYZ color space as an assumption of transmission media and color space, either the encoder or decoder or transmitter or receiver. The entropy and redundancy in the luminance channel can be reduced without requiring direct modification.

JPEG2000などのCIE1931XYZに基づくシステムの例では、CIE1931XYZが、明度に対するHVS感度に一致するとして知られている厳密な表現とはならないという輝度の仮定で、問題はより深刻となる。この理由のため、CIE1931XYZ色空間のYチャネルにはアーティファクト及び/又は伝送の非効率性に寄与し得る冗長性がある。   In examples of systems based on CIE 1931XYZ, such as JPEG2000, the problem becomes more serious with the assumption of brightness that CIE 1931XYZ is not an exact representation known to match HVS sensitivity to lightness. For this reason, the Y channel in the CIE 1931 XYZ color space has redundancy that can contribute to artifacts and / or transmission inefficiencies.

図9は、Z=1において正規化されたCIE1931XYZ空間の断面を示す。   FIG. 9 shows a cross section of the CIE 1931 XYZ space normalized at Z = 1.

図10は、CIELAB色空間に変換された図9の断面を示し、8ビット精度に量子化されたHVS知覚感度のより均一な近似を示す。元のCIE1931XYZ空間の色によっては他の色よりも大きな領域を占有することが分かる。   FIG. 10 shows the cross section of FIG. 9 converted to the CIELAB color space, showing a more uniform approximation of HVS perceptual sensitivity quantized to 8-bit accuracy. It can be seen that depending on the color of the original CIE 1931 XYZ space, it occupies a larger area than other colors.

図11は、図10の量子化輪郭境界を示す。図10の領域は不均一な分布を示し、大きな領域は、映像又は画像の符号化又は圧縮システムがCIE1931XYZ色空間を利用するときは常に「無駄となる」符号化レートを示す。CIE1931XYZ色空間が完全に効率的であったとすると、示される領域は全て同じ近似領域を有することになる。   FIG. 11 shows the quantized contour boundary of FIG. The region of FIG. 10 shows a non-uniform distribution, and the large region shows a “waste” encoding rate whenever the video or image encoding or compression system uses the CIE 1931XYZ color space. Assuming that the CIE 1931XYZ color space was completely efficient, the regions shown would all have the same approximate region.

現実問題として、これが意味することは、デジタルシネマパッケージなどの最近のJPEG2000に基づくシステムでさえも、顕著な知覚の差なしに、より効率的なものとすることができるということである。   As a practical matter, this means that even modern JPEG 2000 based systems such as digital cinema packages can be made more efficient without significant perceptual differences.

さらに、本開示の実施形態は、より正確なデータとしての色表現のための将来の改良及び標準を利用することができる高スループットのシステム及び方法を提供することができ、HVS色及び明度の知覚並びに処理に関する標準が利用可能となる。CIEによって発行されるような将来の色空間表現は複雑さを増し得るが、知覚的により均一な表現となる。本開示の実施形態は、HVS知覚の差に関して均一となる結果として得られる知覚的に均一な色空間変換(及びその逆変換)にのみ依存し、ここでのシステム及び方法は色参照テーブル又はいずれの非線形算術処理にも依存しないので、ここに有効なものとして記載される実施形態を可能とする。   Furthermore, embodiments of the present disclosure can provide high throughput systems and methods that can take advantage of future improvements and standards for color representation as more accurate data, and perceive HVS color and lightness. As well as processing standards. Future color space representations such as those issued by the CIE can add complexity, but are perceptually more uniform. Embodiments of the present disclosure rely only on the resulting perceptually uniform color space transformation (and vice versa) that is uniform with respect to the difference in HVS perception, where the system and method is a color lookup table or any The embodiment described herein as being valid is possible because it does not depend on the non-linear arithmetic processing.

図12は、関連して動作する図1及び3のコンピューティングシステム100及び300の実施例1200のブロック図である。図1及び3にコンピュータシステム100及び300の実施例1200は、ハードウェア(例えば、回路、専用ロジック、プログラマブルロジック、マイクロコードなど)、ソフトウェア(例えば、処理装置で実行される命令)又はその組合せを備える。   FIG. 12 is a block diagram of an embodiment 1200 of the computing systems 100 and 300 of FIGS. 1 and 3 operating in conjunction. 1 and 3 embodiment 1200 of computer systems 100 and 300 includes hardware (eg, circuitry, dedicated logic, programmable logic, microcode, etc.), software (eg, instructions executed on a processing device), or combinations thereof. Prepare.

図12に示すように、元のデジタル画像又は映像入力1205が第1の色空間変換処理1210に入力される。第1の色空間変換処理1205は、非限定的な例として、YCbCr色空間又はR´G´B´色空間などの固有色空間から、CIELAB、CIELUV又はSRLAB2などの知覚的に線形な色空間に変換する。R´G´B´色空間のL色空間への変換は、式1:
に示すようなCIE1931XYZ色空間への第1の変換を含む二工程処理である。
As shown in FIG. 12, the original digital image or video input 1205 is input to a first color space conversion process 1210. The first color space conversion processing 1205 is, as a non-limiting example, from a specific color space such as YCbCr color space or R′G′B ′ color space to a perceptually linear color space such as CIELAB, CIELV, or SRLAB2. Convert to The conversion of the R′G′B ′ color space to the L * a * b * color space is expressed by Equation 1:
Is a two-step process including a first conversion to the CIE 1931XYZ color space as shown in FIG.

次のステップは、式2:
=116f(Y/Y)−16
=500[f(X/X)−f(Y/Y)]
=200[f(Y/Y)−f(Z/Z)]
に示すような3個の仮定された基準白点三刺激値の組があるとして、L色空間へ変換するものである。ここで、式2で用いられるCIE標準D65白点についての正規化された相対輝度三刺激値は、式3:
=95.047、Y=1000、Z=108.883
に示される。ここで、式2の関数f()は、式4:
t>(6/29)の場合、f(t)=t1/3
それ以外の場合、f(t)=(1/3)(29/6)+4/29
で定義される。
The next step is Equation 2:
L * = 116f (Y / Y n) -16
a * = 500 [f (X / X n) -f (Y / Y n)]
b * = 200 [f (Y / Y n) -f (Z / Z n)]
Assuming that there are a set of three assumed reference white point tristimulus values as shown in FIG. 4, the color space is converted into the L * a * b * color space. Here, the normalized relative luminance tristimulus value for the CIE standard D65 white point used in Equation 2 is Equation 3:
X n = 95.047, Y n = 1000, Z n = 108.883
Shown in Here, the function f () of Expression 2 is expressed by Expression 4:
If t> (6/29) 3 , then f (t) = t 1/3
Otherwise, f (t) = (1/3) (29/6) 2 +4/29
Defined by

固有色空間フォーマットからL色空間への直接の変換を有効化するのに多数の方法が使用され得ること、及び上式は非限定的な例であり、説明の便宜及び明瞭化のために提供されていることが当業者には分かるはずである。さらに、当業者であれば、白点の選択は、照明、起点となるカメラ又は撮像システムの構成データによって影響を受け、入力内容及びその関連の比色メタデータに応じて変化し得ることを認識するはずである。 Numerous methods can be used to validate the direct conversion from the native color space format to the L * a * b * color space, and the above equation is a non-limiting example and is convenient and clear for explanation. Those skilled in the art will recognize that this is provided. Furthermore, those skilled in the art will recognize that the selection of the white spot is affected by the lighting, the starting camera or imaging system configuration data, and can vary depending on the input content and its associated colorimetric metadata. Should do.

次に、デジタル画像の各画素の各チャネルが、明度及び色前段プロセッサ1215によって、式5:
のように、2つのユーザにより提供された値D及びDabで乗算される。なお、Dの標準値は0.8と0.95の間にあり、Dabの標準値は0.5と0.8の間にある。
Next, each channel of each pixel of the digital image is converted by the brightness and color pre-processor 1215 into Equation 5:
Is multiplied by the values D L and D ab provided by the two users. The standard value of D L is between 0.8 and 0.95, the standard value of D ab is between 0.5 and 0.8.

次に、修正値L 、a 及びb は、第1の逆色変換処理1220によって、YCbCr色空間又はR´G´B´色空間などの元の固有色空間に逆変換される。これは、通常は二工程処理であり、第1のステップは、式6:
に示すように、CIE1931XYZ色空間への逆変換である。
ここで、f−1(t)は式7:
t>6/29の場合、f−1(t)=t
それ以外の場合、f−1(t)=3(6/29)(t−4/29)
で与えられる。
Next, the correction values L 1 * , a 1 *, and b 1 * are converted back to the original inherent color space such as the YCbCr color space or the R′G′B ′ color space by the first reverse color conversion processing 1220. Is done. This is usually a two-step process where the first step is Equation 6:
As shown in FIG. 4, the conversion is inverse to the CIE 1931XYZ color space.
Here, f −1 (t) is expressed by Equation 7:
When t> 6/29, f −1 (t) = t 3
Otherwise, f −1 (t) = 3 (6/29) 2 (t−4 / 29)
Given in.

そして、CIE1931XYZ画像バッファは元の固有色空間に逆変換され、R´G´B´色空間の場合は式8:
で与えられる。
Then, the CIE 1931XYZ image buffer is converted back to the original inherent color space, and in the case of the R′G′B ′ color space, Equation 8:
Given in.

再度になるが、L色空間から固有色空間フォーマットへの直接の変換を有効化するのに多数の方法が使用され得ること、及び上式は非限定的な例であり、説明の便宜及び明瞭化のために提供されていることが当業者には分かるはずである。 Again, a number of methods can be used to enable direct conversion from the L * a * b * color space to the native color space format, and the above equation is a non-limiting example, Those skilled in the art will appreciate that this is provided for convenience and clarity of explanation.

上述したように、「充分に良好な」近似を達成する試みがなされてきたが、完全に知覚的に均一な色空間表現は存在しない。CIELAB、CIECAM02及びSRLAB2のような最新の色空間表現の全ては、色相均一性又は輝度若しくは明度の次元に沿う色相線形性などの特定の均一性のトレードオフを有する。これらの不完全性の結果として、D及びDabの値の大きさが、可視アーティファクトがディスプレイ370において明らかとなる前に制限される。D及びDabの大きさが小さくなるほど、符号器(及び復号器)が符号化する必要のあるエントロピーが小さくなるので、この制限は、達成され得る符号化効率利得に直接影響する。 As noted above, attempts have been made to achieve a “sufficiently good” approximation, but there is no completely perceptually uniform color space representation. All modern color space representations such as CIELAB, CIECAM02 and SRLAB2 have certain uniformity tradeoffs such as hue uniformity or hue linearity along the dimension of brightness or brightness. As a result of these imperfections, the magnitude of the values of D L and D ab are limited before visible artifacts become apparent on display 370. This limitation has a direct impact on the coding efficiency gain that can be achieved since the smaller the magnitudes of D L and D ab, the less entropy the encoder (and decoder) needs to encode.

色空間プロセッサ345及び145の他の例は、この効率を、画像データバッファ入力355及び155の各画素の色相を評価することによって、及びこの色相値を用いて、マゼンタ、赤、黄及び緑間の値についての良好な色相均一特性を有するCIELAB又は緑、シアン、青及びマゼンタ間の値についての良好な色相均一特性を有するSRLAB2を用いて所与の画素を変換するかを決定することによって改善する。ここに記載する色相は、RGBから、例えば、式9:
最大RGB=最大(R,G,B)
最小RGB=最小(R,G,B)
色差=最大RGB−最小RGB
色差=0の場合、 色相=なし
最大RGB=Rの場合、色相=(G−B)/色差 mod6
最大RGB=Gの場合、色相=(B−R)/色差+2
最大RGB=Bの場合、色相=(R−G)/色差+4
によって計算される。
Another example of a color space processor 345 and 145 is that this efficiency is evaluated by evaluating the hue of each pixel in the image data buffer inputs 355 and 155 and using this hue value, between magenta, red, yellow and green. Improved by determining whether to convert a given pixel using CIELAB with good hue uniformity characteristics for values of or SRLAB2 with good hue uniformity characteristics for values between green, cyan, blue and magenta To do. The hue described here is from RGB, for example, Equation 9:
Maximum RGB = Maximum (R, G, B)
Minimum RGB = Minimum (R, G, B)
Color difference = Maximum RGB-Minimum RGB
When Color Difference = 0, Hue = None When Maximum RGB = R, Hue = (GB) / Color Difference mod6
In the case of maximum RGB = G, hue = (BR) / color difference + 2
In the case of maximum RGB = B, hue = (RG) / color difference + 4
Calculated by

一例では、以前に計算された色相が第1の色相カットオフ点、例えば、3.0(前述の色相の数値表現における緑)よりも大きい場合、又は色相が第2の色相カットオフ点、例えば、0.0(マゼンタ)よりも小さい場合、交互の色空間変換が適用可能となる。非限定的な例として、これらのカットオフ点は、RGB源とすると、式9による緑−シアン−青の範囲を表し、これは色恒常性の観点でCIELABによって多く試された色表現であり、SRLAB2は交互の色変換変形として利用され得る。あるいは、CIELABは色空間変換内で利用され得る。非限定的な例として、CIELUV、HunterLAB、又はCIECAM02など、他の近似された知覚的に均一な色変換が置換され得ることが当業者には分かるはずである。またさらに、CIELAB、CIELUV、CIECAM02、SRLAB2、又は前述の色相範囲の1以上についての実質的に知覚的に均一な色空間の将来の表現などの色空間の選択は、各々についての有効な適切な色相範囲が選択され、その利用される色相範囲内で各色空間表現が知覚的に均一である限り、本例の有効な関数において重要なことではない。この方法を利用することによって、復号されてレンダリングされる品質の可視的な低下なしに、符号器効率に対する付随的利益とともに、D及びDabの以前の最小値が0.8及び0.5から0.5及び0.11にそれぞれ拡張可能となる。色相決定処理は、発信側色プロセッサ1215及び受信側色プロセッサ1255の双方に対してローカルである。所与の画素が所与の色空間によって処理されたか否かが、色空間変換1210と逆色空間変換1220の間で、又は色空間変換1250と逆色空間変換1260の間で、4チャネル画像バッファのαチャネル若しくは別個のデータバッファを介して、又は色変換が利用される各画素について情報を搬送するのに適した任意の他の手段を介するなど、帯域外又は帯域内手段によって通信され得る。なお、色恒常性が色空間変換処理1210及び1260に関して観察される限り、色空間決定情報は、ローカル的にのみ、通信チャネルに沿って搬送される必要はない。 In one example, if the previously calculated hue is greater than a first hue cutoff point, eg, 3.0 (green in the numerical representation of the hue above), or the hue is a second hue cutoff point, eg , 0.0 (magenta), alternate color space conversion can be applied. As a non-limiting example, these cutoff points represent the green-cyan-blue range according to Equation 9 for RGB sources, which is a color representation that has been tried many times by CIELAB in terms of color constancy. , SRLAB2 can be used as an alternate color conversion variant. Alternatively, CIELAB can be utilized within a color space conversion. As a non-limiting example, one of ordinary skill in the art will recognize that other approximate perceptually uniform color transformations such as CIELV, HunterLAB, or CIECAM02 can be substituted. Still further, the choice of color space, such as CIELAB, CIEUV, CIECAM02, SRLAB2, or a future representation of a substantially perceptually uniform color space for one or more of the aforementioned hue ranges, is valid for each As long as a hue range is selected and each color space representation is perceptually uniform within the utilized hue range, it is not important in the effective function of this example. By utilizing this method, the previous minimum values of D L and D ab are 0.8 and 0.5, with the attendant benefit to encoder efficiency, without any visible degradation of the decoded and rendered quality. To 0.5 and 0.11 respectively. The hue determination process is local to both the sending color processor 1215 and the receiving color processor 1255. Whether a given pixel has been processed by a given color space is a 4-channel image between color space transformation 1210 and inverse color space transformation 1220 or between color space transformation 1250 and inverse color space transformation 1260. Can be communicated by out-of-band or in-band means, such as through the alpha channel of the buffer or a separate data buffer, or through any other means suitable for carrying information for each pixel for which color conversion is utilized . It should be noted that as long as color constancy is observed with respect to the color space conversion processes 1210 and 1260, the color space determination information need not be carried along the communication channel only locally.

第1の逆色変換処理1220は、変形された画像データを符号器1225に出力し、D及びDabの値、並びに選択的に、第1の色変換処理1210によって利用される白点X、Y及びZを、符号器1225に対して、又は送信機/マルチプレクサ/ライター1230に対して直接に搬送する。多くの場合において、ファイルフォーマットカプセル化又はストリーム多重化処理は符号器1225に配置され得ることが当業者には分かるはずである。さらに、これらの値は、それらが下流側の受信機/デマルチプレクサ/リーダー処理1240に通信され、符号器1225、復号器1245、送信機/マルチプレクサ/ライター1230又は受信機/デマルチプレクサ/リーダー1240の処理についての特注の実装を必要としないような態様で済むように、符号器1225又は送信機/マルチプレクサ/ライター1230に搬送され得る。当技術で周知のように、ファイル及びストリームのフォーマットは、これを達成する様々な態様を提供する。 First inverse color conversion processing 1220, the modified image data is output to the encoder 1225, D values of L and D ab, and selectively, the white point is utilized by the first color conversion processing 1210 X n , Y n and Z n are carried directly to the encoder 1225 or to the transmitter / multiplexer / writer 1230. One skilled in the art will appreciate that in many cases, the file format encapsulation or stream multiplexing process may be located in the encoder 1225. In addition, these values are communicated to the downstream receiver / demultiplexer / reader process 1240, where the encoder 1225, decoder 1245, transmitter / multiplexer / writer 1230 or receiver / demultiplexer / reader 1240 It can be conveyed to encoder 1225 or transmitter / multiplexer / writer 1230 so that it does not require a custom implementation of processing. As is well known in the art, file and stream formats provide various ways to accomplish this.

非限定的な例として、JPEGファイル交換フォーマット(以下、JFIFという)はJPEG圧縮像をカプセル化するのに一般に使用され、JFIFは、EXIF、ICCプロファイル及びPicture Infoを含む多数のフォーマットにおいて周知のメタデータ展開を規定し、これらのいずれもD及びDabの存在及び値並びに選択的なX、Y及びZ値についての情報を搬送するのに使用可能である。 As a non-limiting example, the JPEG file exchange format (hereinafter referred to as JFIF) is commonly used to encapsulate JPEG compressed images, and JFIF is a well-known meta-data in a number of formats including EXIF, ICC profile, and Picture Info. defining a data expansion can be used to carry information about the presence and value as well as selective X n, Y n and Z n value of these both D L and D ab.

非限定的な例として、H264符号化ビットストリームは、D及びDab並びに選択的なX、Y及びZ値が埋め込まれ得る光学的補足強化情報(SEI)ヘッダの含有をサポートする。これらの方法は、符号器(又は復号器)処理1225及び1245に変化を要しないが、これらの値を符号器1225又は送信機/マルチプレクサ/ライター1230のいずれかに出力し、それに付随してこれらの値を下流側の復号器1245又は受信機/デマルチプレクサ/リーダー1240に照会する能力だけを必要とする。 As a non-limiting example, H264 encoded bitstream supports containing optical supplemental reinforcement Information (SEI) header D L and D ab and selective X n, Y n and Z n value may be embedded . These methods do not require changes to the encoder (or decoder) processes 1225 and 1245, but output these values to either the encoder 1225 or the transmitter / multiplexer / writer 1230, associated with them. Only the ability to query the downstream decoder 1245 or receiver / demultiplexer / reader 1240 for the value of.

メタデータを搬送する他のやり方は、符号器又はコーデックフォーマットに全く結合されずに、トランスポートストリーム自体に結合される。非限定的な例として、これらは、ここに記載される目的のためにRTP拡張ヘッダも介して使用され得るMPEGトランスポートストリームのESディスクリプタを含む。   Other ways to carry metadata are not tied to the encoder or codec format at all, but to the transport stream itself. As a non-limiting example, these include an MPEG transport stream ES descriptor that may also be used via an RTP extension header for the purposes described herein.

及びDab並びに選択的にX、Y及びZ値について多数の搬送方法が可能であり、本発明のために必要な所望の特性は、符号器及び復号器の実装の独立性、並びに前述の符号器、復号器、送信機、受信機、マルチプレクサ、デマルチプレクサ、リーダー及びライターの外部の処理によるAPI又は他の方法を介したこれらの搬送メタデータへのアクセスを含むことが当業者には分かるはずである。これはまた、D及びDabの値並びに選択的にX、Y及びZ値に応じた特定の符号器及び復号器の標準化などによる完全に帯域外での搬送、又は非限定的な例として、MPEG−DASH又はHLSストリームのマニフェストファイル又は個別のファイル若しくはプロトコルなどによる他のチャネル及びコンテキストによるこれらの値の通信を含み得る。 Numerous transport methods are possible for D L and D ab and optionally X n , Y n and Z n values, and the desired property required for the present invention is the independence of the encoder and decoder implementations And access to these carrier metadata via APIs or other methods by processes external to the encoders, decoders, transmitters, receivers, multiplexers, demultiplexers, readers and writers described above. The contractor should understand. This also, D L and D ab value and selectively X n, transporting of a fully out-of-band due to standardization of a particular encoder and decoder in accordance with the Y n and Z n values, or non-limiting Examples may include communication of these values over other channels and contexts, such as a manifest file of an MPEG-DASH or HLS stream or a separate file or protocol.

圧縮画像又は映像データ自体とともに、メタデータは、上流側の送信機/マルチプレクサ/ライター1230から伝送チャネル1235又は記憶媒体を介して、画像又は映像データを復号器1245に適した形式に脱カプセル化してデータを第2の色空間変換処理1250に出力する下流側の受信機/デマルチプレクサ/リーダー1240に選択的に伝送又は通信される。第2の色空間変換処理1250は、式1から式4に記載される第1の色空間変換処理1205と同様にして、固有色空間から1以上の知覚的に均一な色空間に変換し、非限定的な例として、選択的に、特定の知覚的に均一な色空間が式9によって各画素について選択される。復号器1245によって与えられる固有色空間は符号器1225に供給されるものとは異なっていてもよく、異なる変換処理が必要となることが当業者には分かるはずである。第1の明度及び色前段プロセッサ1215によって利用される知覚的に均一な色空間は、復号器1245によって利用される1以上の知覚的に均一な色空間とは異なっていてもよく、必要となる唯一の要件は、全てが各々実質的に知覚的に均一なことであるということがさらに分かる。   Along with the compressed image or video data itself, the metadata decapsulates the image or video data from the upstream transmitter / multiplexer / writer 1230 via the transmission channel 1235 or storage medium into a format suitable for the decoder 1245. The data is selectively transmitted or communicated to a downstream receiver / demultiplexer / reader 1240 that outputs the data to the second color space conversion process 1250. The second color space conversion processing 1250 converts the intrinsic color space to one or more perceptually uniform color spaces in the same manner as the first color space conversion processing 1205 described in Equations 1 to 4. As a non-limiting example, optionally, a particular perceptually uniform color space is selected for each pixel by Equation 9. Those skilled in the art will appreciate that the eigencolor space provided by the decoder 1245 may be different from that provided to the encoder 1225 and requires a different conversion process. The perceptually uniform color space utilized by the first lightness and color pre-processor 1215 may be different from the one or more perceptually uniform color spaces utilized by the decoder 1245 and is required. It can further be seen that the only requirement is that each is substantially perceptually uniform.

変換された画像データは、明度及び色後段プロセッサ1255に出力される。さらに、受信機/デマルチプレクサ/リーダー1240又は復号器1245のいずれかが、上述のメタデータ通信方法又は相応の方法のいずれかによって、明度及び色後段プロセッサ1255にD及びDab並びに選択的にX、Y及びZ値を供給する。 The converted image data is output to the brightness and color post-processor 1255. In addition, either the receiver / demultiplexer / reader 1240 or the decoder 1245 may selectively transmit D L and D ab and optionally to the lightness and color post-processor 1255 by either the metadata communication method described above or a corresponding method. X n, and supplies the Y n and Z n value.

明度及び色後段プロセッサ1255は、式10:
のように、デジタル画像の各画素の各チャネルに、供給された2つの値D及びDabを乗ずる。
The lightness and color post-processor 1255 is represented by Equation 10:
In this way, each channel of each pixel of the digital image is multiplied by the two supplied values D L and D ab .

逆数乗算演算を適用した後に、明度及び色後段プロセッサ1255はL色空間値を第2の逆色変換処理1260に出力する。 After applying the reciprocal multiplication operation, the brightness and color post-processor 1255 outputs the L * a * b * color space value to the second inverse color conversion process 1260.

第2の逆色変換処理1260によって利用される知覚的に均一な色空間は異なり得るが、第2の逆色変換処理1260は、式5から式8によって示すような第1の逆変換処理1220と同様に機能し、出力される固有色空間は後のトランスコーダ又はディスプレイに適したものとなり、第1の色変換処理1210への入力として供給される固有色空間とは異なり得る。この画像データは、非限定的な例として、ディスプレイ、後続の符号器又は画像処理パイプラインへの出力1265となる。   Although the perceptually uniform color space utilized by the second inverse color conversion process 1260 may be different, the second inverse color conversion process 1260 is a first inverse conversion process 1220 as shown by equations 5-8. The output unique color space will be suitable for later transcoders or displays and may be different from the unique color space supplied as input to the first color conversion process 1210. This image data is, as a non-limiting example, output 1265 to a display, a subsequent encoder, or image processing pipeline.

本発明は、既存の画像及び映像圧縮システムの知覚品質並びに符号化効率を高める従来技術の方法に対する幾つかの効果を有する。   The present invention has several advantages over prior art methods that enhance the perceptual quality and encoding efficiency of existing image and video compression systems.

図13は、標準的な符号器及び復号器チェーンを示し、これは、前述した色空間及びシンボル表現の準最適な選択のために非効率なものとなってしまう。   FIG. 13 shows a standard encoder and decoder chain, which becomes inefficient due to the sub-optimal selection of the color space and symbol representation described above.

図14は、前述の非効率性に対処するGuerreroに従う従来技術の試みを示す。図14に示すように、元のデジタル画像又は映像入力が色空間変換処理に入力される。この色空間変換処理は、YCbCr色空間又はR´G´B´色空間のような固有色空間から、CIE1931XYZ色空間又はCIELAB色空間のようなHVSに従ってモデル化された色空間に変換する。そして、色参照テーブル又は等距離量子化式のいずれかが色空間の色チャネルの各々に適用される。明度、輝度又はYチャネルは扱われない。結果として、この処理は、輝度又はYチャネルの大きな冗長性を利用せず、当業者には知られているように、多数の同時期の映像及び画像の圧縮システム及び方法は、色差チャネルと比較して輝度チャネルにより多くの演算の複雑さ及びチャネル伝送帯域幅を向けるので、そこにおける冗長性をなくすことが特に重要である。   FIG. 14 illustrates a prior art attempt according to Guerrero to address the aforementioned inefficiencies. As shown in FIG. 14, the original digital image or video input is input to the color space conversion process. In this color space conversion process, the intrinsic color space such as the YCbCr color space or the R′G′B ′ color space is converted into a color space modeled in accordance with the HVS such as the CIE 1931XYZ color space or the CIELAB color space. Then either the color lookup table or the equidistant quantization formula is applied to each color channel in the color space. Lightness, brightness or Y channel is not handled. As a result, this process does not take advantage of the great redundancy of the luminance or Y channel, and as is known to those skilled in the art, a number of simultaneous video and image compression systems and methods are compared to the chrominance channel. Thus, it is particularly important to eliminate redundancy in the luminance channel since it directs more computational complexity and channel transmission bandwidth.

また、Guerreroに従う処理は、HVSに従ってモデル化された任意の色空間についての色チャネルの等距離量子化を実行することが充分であると仮定するが、図9、10及び11によって及びPoyntonによって実証されたように、CIE1931XYZ色空間は大きな不均一性を有する。CIE1931XYZ色空間がGuerreroに開示されるもののうちで最も好ましいが、CIE1931XYZ色空間が(もちろん、全ての色空間が)HVSモデルに基づく一方で、それは知覚的に均一ではないので、等距離量子化処理は、結果として得られる画像及び映像における可視アーティファクトを生成することになる。   It is also assumed that the processing according to Guerrero is sufficient to perform equidistant quantization of the color channel for any color space modeled according to HVS, but is demonstrated by FIGS. 9, 10 and 11 and by Poynton. As has been done, the CIE 1931XYZ color space has a large non-uniformity. The CIE 1931XYZ color space is the most preferred of those disclosed to Guerrero, but the CIE 1931XYZ color space is (of course, all color spaces) based on the HVS model, while it is not perceptually uniform, so the equidistant quantization process Will produce visible artifacts in the resulting images and videos.

これに対処するため、Guerreroは色マッピング関数を開示し、これは色参照テーブル(以下、「LUT」という)として有効に作用する。本開示の実施形態に対して、この方法の不利益は2つあり、第1に、固有入力色空間と出力HSVの知覚的にモデル化された色空間との各組合せについて、本開示の実施形態が要求しない個別のLUTが必要なこと、第2に、LUTの使用が符号化システムにメモリ転送帯域幅コストをもたらし、それにより、各画素は、読取り値、LUT及びそれに応じて実行される後続の書込み動作の更なる間接的な参照メモリ読取り値を、少なくとも2つの色チャネルについて有していなければならず、これは、再度になるが、本開示の実施形態が要求するものではない。Guerreroは、LUTが式によって置換される場合に複数の多項式解及び比較/分岐演算を必要とする色範囲を開示し、これは、これらの解法が変換映像ストリームの各画素について反復して実行される必要があることを考慮すると理想的ではないことを開示している。   To deal with this, Guerrero discloses a color mapping function, which effectively acts as a color lookup table (hereinafter referred to as “LUT”). There are two disadvantages of this method over the embodiments of the present disclosure. First, the implementation of the present disclosure for each combination of native input color space and perceptually modeled color space of the output HSV. The need for a separate LUT that the form does not require, and second, the use of the LUT brings memory transfer bandwidth costs to the encoding system, so that each pixel is executed accordingly with the reading, LUT and It must have additional indirect reference memory readings for subsequent write operations for at least two color channels, which again, but is not required by embodiments of the present disclosure. Guerrero discloses a color range that requires multiple polynomial solutions and comparison / branch operations when the LUT is replaced by an expression, which is performed iteratively for each pixel of the converted video stream. It is disclosed that it is not ideal considering the need to

比較として、本開示の実施形態は、変換された画像データの各チャネルの各画素について単一値の乗算演算しか必要としない。   As a comparison, embodiments of the present disclosure require only a single value multiplication operation for each pixel of each channel of transformed image data.

Guerreroは、ここに開示されるシステム及び方法でCIE1931XYZ色空間の代わりにCIELAB色空間のような知覚的に均一な色空間を利用することを予期している。しかし、色マッピング関数及び/又はLUT実装に関する前述の不利益が当てはまる。開示される量子化関数の例では、そのようにする利点は、何らかのDCTに基づく符号化手法で利用されると、色エントロピーが単に空間エントロピーに置換されて符号化レート効率の総利得がなくなることにおいて減殺される。   Guerrero expects the systems and methods disclosed herein to utilize a perceptually uniform color space, such as the CIELAB color space, instead of the CIE 1931 XYZ color space. However, the aforementioned disadvantages with respect to color mapping functions and / or LUT implementations apply. In the disclosed quantization function example, the advantage of doing so is that when used in any DCT-based coding scheme, the color entropy is simply replaced with spatial entropy, eliminating the total gain of coding rate efficiency. Be killed in

図15がこれを示し、平滑8ビットグラデーションを含む元の画像パッチが4ビットに量子化される。色エントロピーが低減されたが、新たに生成された境界エッジのはっきりとした境界と、加えて境界条件誤差のために空間エントロピーが増加し、大幅に増加した空間エネルギー及びエントロピーを表す斑な空間特徴がもたらされた。JPEG又はHEVCを含むMPEG変形のいずれかなど、DCTに基づく符号化手法では、これにより、余計なエントロピーが、より高い周波数においてDCT係数で拡張されることになる。これは、これを予期する特注の符号器で緩和され得るが、本開示の実施形態は、符号器及び復号器実装の変更も交換も要することなく、符号化及び復号化の品質及び/又は効率を増加するシステム及び方法を提供する。   FIG. 15 illustrates this, where the original image patch containing a smooth 8-bit gradation is quantized to 4 bits. Color entropy is reduced, but the newly generated boundary edges are sharply bounded, plus spatial entropy increases due to boundary condition errors, and spotty spatial features that represent significantly increased spatial energy and entropy Was brought. For DCT-based coding techniques, such as either JPEG or MPEG variants including HEVC, this will extend the extra entropy with DCT coefficients at higher frequencies. This can be mitigated with a custom encoder that anticipates this, but embodiments of the present disclosure can provide encoding and decoding quality and / or efficiency without requiring changes or replacement of the encoder and decoder implementation. Systems and methods for increasing the cost are provided.

前述した空間エントロピーの問題は、符号器及び復号器の双方の付近におけるヒストグラム関数(‘384特許で開示されるものなど)の適切な使用により、Guerreroに開示される量子化関数を用いる場合にGuerreroに開示されるような処理の固有の特徴及び問題を緩和することによって緩和され得るが、この問題は認識も言及もされておらず、Guerreroとは逆のことが教示される。本開示の実施形態はそのような処理の必要性をなくすものである。   The spatial entropy problem described above is due to the proper use of histogram functions (such as those disclosed in the '384 patent) in the vicinity of both the encoder and the decoder when using the quantization function disclosed in Guerrero. Can be mitigated by mitigating the inherent features and problems of the process as disclosed in, but this problem is neither recognized nor mentioned and teaches the opposite of Guerrero. Embodiments of the present disclosure obviate the need for such processing.

本開示の実施形態の前段符号化処理は、30fpsにおける4K映像解像度の映像についてリアルタイム超及び同時期の市場で量販されるコンピュータハードウェアでの5K及び8Kについてのリアルタイム付近、並びにリアルタイム及びリアルタイム付近での様々な解像度での多数の画像及び映像を実行するのに充分に効率的である。本開示の実施形態の後段符号化処理は、フィーチャーフォン、スマートフォン、タブレット、ラップトップ、PC、セットトップボックス及びテレビなど、映像及び画像の単一インスタンスについてフルHD解像度でのGPU、CPU又はAPUを用いる任意のエンドユーザ装置で実行するのに充分に効率的である。   The pre-encoding process of the embodiment of the present disclosure is performed in the vicinity of real-time for 5K and 8K, and in the vicinity of real-time and real-time for 4K video resolution video at 30 fps on computer hardware that is mass-marketed in the real-time and simultaneous markets. It is efficient enough to run a large number of images and videos at various resolutions. The post-encoding process of the embodiment of the present disclosure includes a GPU, CPU or APU at full HD resolution for a single instance of video and images, such as feature phones, smartphones, tablets, laptops, PCs, set-top boxes and televisions. It is efficient enough to run on any end-user device used.

この本開示の実施形態による符号器付近及び復号器付近の双方における効率性の組合せは、新たな用途を拡げる。これらの用途は、以下に限定されないが、オーバーザトップ映像配信のための映像符号器のリアルタイム性の向上、公衆無線アクセスネットワーク輻輳のコスト効率の高いリアルタイムでの低減、移動体装置からの映像及び画像データをアップロード及びダウンロードする場合のリアルタイム通過帯域テレビ配信能力の増加、衛星トランスポンダ能力の増加、コンテンツ管理システム及びネットワークDVRアーキテクチャのための記憶コストの低減、分散ネットワークコアにおける画像及び映像の高スループット処理を含む。   This combination of efficiency both near the encoder and near the decoder according to embodiments of the present disclosure opens up new applications. These applications include, but are not limited to, real-time enhancement of video encoders for over-the-top video distribution, cost-effective real-time reduction of public radio access network congestion, video and images from mobile devices Increase real-time passband television distribution capabilities when uploading and downloading data, increase satellite transponder capabilities, reduce storage costs for content management systems and network DVR architectures, high throughput processing of images and video in distributed network cores Including.

図16は、ここに記載される方法の1以上を機械に実行させるための一組の命令が実行され得るコンピュータシステム1600の例示形態における機械の模式的表現を示す。ある例では、機械はLAN、イントラネット、エクストラネット又はインターネットにおいて他の機械に接続(例えば、ネットワーク化)され得る。機械は、クライアント−サーバネットワーク環境においてサーバマシンの能力において動作することができる。機械は、パーソナルコンピュータ(PC)、セットトップボックス(STB)、サーバ、ネットワークルータ、スイッチ若しくはブリッジ、又はその機械によって採られるべき動作を特定する一組の(シーケンシャル又は他の)命令を実行することができる任意の機械であればよい。また、単一の機械のみが示されるが、用語「機械」は、個別又は協働して一組の(又は複数組の)命令を実行してここに記載される方法のいずれか1以上を実行する機械の任意の集合を含むものとしても解釈されるべきである。   FIG. 16 illustrates a schematic representation of a machine in an exemplary form of a computer system 1600 in which a set of instructions for causing the machine to perform one or more of the methods described herein may be executed. In one example, the machine may be connected (eg, networked) to other machines in a LAN, intranet, extranet or the Internet. The machine can operate at the capabilities of the server machine in a client-server network environment. The machine executes a personal computer (PC), set top box (STB), server, network router, switch or bridge, or a set of instructions (sequential or other) that specify the action to be taken by the machine Any machine can be used. Also, although only a single machine is shown, the term “machine” may be used individually or in cooperation to execute a set (or sets) of instructions to perform any one or more of the methods described herein. It should also be interpreted as including any set of machines to execute.

例示のコンピュータシステム1600は、処理装置(プロセッサ)1602、メインメモリ1604(例えば、読出し専用メモリ(ROM)、フラッシュメモリ、同期DRAM(SDRAM)などのダイナミックランダムアクセスメモリ(DRAM))、スタティックメモリ1606(例えば、フラッシュメモリ、スタティックランダムアクセスメモリ(SRAM))及びデータ記憶装置1616を含み、これらはバス1608を介して相互に通信する。   The exemplary computer system 1600 includes a processing unit (processor) 1602, a main memory 1604 (eg, dynamic random access memory (DRAM) such as read only memory (ROM), flash memory, synchronous DRAM (SDRAM)), static memory 1606 ( For example, flash memory, static random access memory (SRAM), and data storage device 1616, which communicate with each other via bus 1608.

プロセッサ1602は、マイクロプロセッサ、中央処理装置などのような1以上の汎用処理装置を表す。より詳細には、プロセッサ1602は、複合命令セットコンピューティング(CISC)マイクロプロセッサ、縮小命令セットコンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、又は他の命令セットを実行するプロセッサ若しくは命令セットの組合せを実行するプロセッサであってもよい。プロセッサ1602はまた、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサなどのような1以上の特定用途処理装置であってもよい。図1及び3にそれぞれ示す色空間プロセッサ145及び345は、ここに記載される動作及びステップを実行するように構成されたプロセッサ1602によって実行されることができる。   The processor 1602 represents one or more general-purpose processing devices such as a microprocessor, a central processing unit, and the like. More particularly, processor 1602 is a complex instruction set computing (CISC) microprocessor, reduced instruction set computing (RISC) microprocessor, very long instruction word (VLIW) microprocessor, or processor that executes other instruction sets. Alternatively, it may be a processor that executes a combination of instruction sets. The processor 1602 may also be one or more application specific processing devices such as application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), digital signal processors (DSPs), network processors, and the like. The color space processors 145 and 345 shown in FIGS. 1 and 3, respectively, can be performed by a processor 1602 that is configured to perform the operations and steps described herein.

コンピュータシステム1600は、ネットワークインターフェイス装置1622をさらに含み得る。コンピュータシステム1600はまた、映像表示部1610(例えば、液晶表示(LCD)又は陰極線管(CRT))、英数字入力装置1612(例えば、キーボード)、カーソル制御装置1614(例えば、マウス)及び信号生成装置1620(例えば、スピーカ)を含み得る。   Computer system 1600 can further include a network interface device 1622. The computer system 1600 also includes a video display 1610 (eg, liquid crystal display (LCD) or cathode ray tube (CRT)), alphanumeric input device 1612 (eg, keyboard), cursor control device 1614 (eg, mouse), and signal generator. 1620 (eg, a speaker) may be included.

駆動部1616は、ここに記載される方法又は機能のいずれか1以上を用いる1以上の組の命令(例えば、色空間プロセッサ145及び345の命令)が記憶されるコンピュータ可読媒体1624を含み得る。色空間プロセッサ145及び345の命令はまた、コンピュータ可読媒体を構成するコンピュータシステム1600、メインメモリ1604及びプロセッサ1602によるその実行中に、完全に又は少なくとも部分的に、メインメモリ1604内で及び/又はプロセッサ1602内に存在し得る。色空間プロセッサ145及び345の命令はまた、ネットワークインターフェイス装置1622を介してネットワーク上で送信又は受信され得る。   The driver 1616 can include a computer readable medium 1624 that stores one or more sets of instructions (eg, instructions of the color space processors 145 and 345) that use any one or more of the methods or functions described herein. The instructions of color space processors 145 and 345 may also be fully or at least partially within main memory 1604 and / or during execution by computer system 1600, main memory 1604 and processor 1602 comprising a computer readable medium. May exist within 1602. The instructions of color space processors 145 and 345 may also be sent or received over the network via network interface device 1622.

一例では、コンピュータ可読記憶媒体1624が単一の媒体であるものとして示されているが、用語「コンピュータ可読記憶媒体」は、1組以上の命令を記憶する単一の非一時的な媒体又は複数の非一時的な媒体(例えば、中央化若しくは分散化されたデータベース並びに/又は関連するキャッシュ及びサーバ)を含むものとして解釈されるべきである。用語「コンピュータ可読記憶媒体」はまた、機械による実行のための一組の命令を記憶、符号化又は搬送することができ、機械に本開示の方法のいずれか1以上を実行させる任意の媒体を含むものとして解釈されるべきである。したがって、用語「コンピュータ可読記憶媒体」は、以下に限定されないが、半導体メモリ、光学媒体及び磁気媒体を含むものとして解釈されるべきである。   In one example, computer readable storage medium 1624 is shown as being a single medium, but the term “computer readable storage medium” refers to a single non-transitory medium or media that stores one or more sets of instructions. Non-transitory media (e.g., centralized or distributed databases and / or associated caches and servers). The term “computer-readable storage medium” also refers to any medium that can store, encode, or carry a set of instructions for execution by a machine and that causes the machine to perform any one or more of the disclosed methods. Should be construed as including. Thus, the term “computer-readable storage medium” should be interpreted as including, but not limited to, semiconductor memory, optical media, and magnetic media.

上記説明では多数の詳細が説明されている。しかし、本開示の利益を受ける当業者には、これらの具体的詳細がなくても開示の例が実施可能であることは明らかである。ある例では、周知の構造物及び装置は、本説明の実施例を不明瞭にすることを避けるために、詳細にではなくブロック図形式で示される。   In the above description, numerous details are set forth. However, it will be apparent to one skilled in the art having the benefit of this disclosure that the disclosed examples may be practiced without these specific details. In some instances, well-known structures and devices are shown in block diagram form, rather than in detail, in order to avoid obscuring the embodiments of the present description.

詳細な説明の一部は、コンピュータメモリ内でのデータビットに対する処理のアルゴリズム及びシンボル表現の観点で提示されている。これらのアルゴリズムの記述及び表現は、最も効果的にそれらの作用の実体を当業者に分からせるようにデータ処理技術の当業者によって使用される手段である。ここでは、そして一般的に、アルゴリズムは所望の結果を導くステップの自己矛盾のないシーケンスと考えられる。ステップは、物理量の物理的操作を要するものである。通常は、必ずしもそうではないが、これらの量は、記憶され、転送され、合成され、比較され、あるいは操作されることができる電気的又は磁気的信号の形態を採る。主に一般的使用の理由のため、これらの信号をビット、値、要素、シンボル、文字、項、数字などとして言及することが時として便利であることが分かっている。   Some portions of the detailed description are presented in terms of algorithms and symbolic representations of processing on data bits within a computer memory. These algorithmic descriptions and representations are the means used by those skilled in the data processing arts to most effectively convey the substance of their work to those skilled in the art. Here, and generally, the algorithm is considered a self-consistent sequence of steps leading to the desired result. Steps are those requiring physical manipulation of physical quantities. Usually, though not necessarily, these quantities take the form of electrical or magnetic signals that can be stored, transferred, combined, compared, or manipulated. It has proven convenient at times, principally for reasons of common usage, to refer to these signals as bits, values, elements, symbols, characters, terms, numbers, or the like.

しかし、これら及び同様の用語の全ては、適切な物理量に関連付けられるものであり、これらの量に付される便利なラベルにすぎない。上述から明らかなように、特に断りがない限り、説明を通じて、「受信する」、「書き込む」、「保持する」などといった用語を用いる記載は、新たな座標系に対して、コンピュータシステムのレジスタ及びメモリ内で物理(例えば、電子)量として表現されるデータを、コンピュータシステムのメモリ若しくはレジスタ又は他のそのような情報ストレージ、伝送装置若しくは表示装置内で物理量として同様に表現される他のデータに操作及び変換するコンピュータシステム又は同様の電子コンピューティング装置の動作及び処理をいう。   However, all of these and similar terms are associated with the appropriate physical quantities and are merely convenient labels attached to these quantities. As is apparent from the above, unless otherwise noted, throughout the description, the use of terms such as “receive”, “write”, “hold”, etc. refer to the computer system registers and Data represented as physical (eg, electronic) quantities in memory to other data that is similarly represented as physical quantities in computer system memory or registers or other such information storage, transmission or display devices The operation and processing of a computer system or similar electronic computing device that operates and converts.

開示の例は、ここでの処理を実行するための装置にも関する。この装置は、要求される目的のために特別に構築されることができ、又はコンピュータに記憶されたコンピュータプログラムによって選択的に作動又は再構成された汎用コンピュータを備えることができる。既存の画像及び映像の圧縮又は伝送システム及び方法の知覚品質及び/又は伝送若しくは記憶効率を向上する、ここに開示される高スループットのシステム及び方法は、幾つかの例示であるが、オーバーザトップ映像配信のための映像符号器のリアルタイム効率性の向上、公衆無線アクセスネットワーク輻輳のコスト効率の高いリアルタイムでの低減、移動体装置からの映像及び画像データをアップロード及びダウンロードする場合のリアルタイム通過帯域テレビ配信能力の増加、衛星トランスポンダ能力の増加、コンテンツ管理システム及びネットワークDVRアーキテクチャのための記憶コストの低減、分散ネットワークコアにおける画像及び映像の高スループット処理といった多数の分野における問題を解決する。   The disclosed example also relates to an apparatus for performing the process herein. This apparatus can be specially constructed for the required purposes, or can comprise a general purpose computer selectively activated or reconfigured by a computer program stored in the computer. The high-throughput systems and methods disclosed herein that improve the perceived quality and / or transmission or storage efficiency of existing image and video compression or transmission systems and methods are several examples, but over-the-top video Improving real-time efficiency of video encoder for distribution, cost-effective real-time reduction of public radio access network congestion, real-time passband TV distribution when uploading and downloading video and image data from mobile devices It solves problems in a number of areas, such as increased capacity, increased satellite transponder capacity, reduced storage costs for content management systems and network DVR architectures, and high-throughput processing of images and video in a distributed network core.

そのようなコンピュータプログラムは、以下に限定されないが、フロッピーディスク、光学ディスク、CD−ROM及び磁気光学ディスクを含む任意のタイプのディスク、読出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気若しくは光学カード、又は電子命令を記憶するのに適した任意のタイプの媒体といったコンピュータ可読記憶媒体に記憶され得る。   Such computer programs include, but are not limited to, any type of disk including floppy disks, optical disks, CD-ROMs and magneto-optical disks, read only memory (ROM), random access memory (RAM), EPROM, It can be stored on a computer readable storage medium such as an EEPROM, a magnetic or optical card, or any type of medium suitable for storing electronic instructions.

ここに提示されるアルゴリズム及び表示は、いずれかの特定のコンピュータ又は他の装置に固有に関係するものではない。種々の汎用システムが、ここでの教示に応じたプログラムで使用され、より特化した装置を構築して必要な方法のステップを実行することが便利である。これらの様々なシステムのための例示の構造はここでの説明から明らかである。さらに、本開示は、いずれの特定のプログラミング言語を参照して記載されるものでもない。ここで記載される開示による教示を実施するのに、様々なプログラミング言語が使用され得ることが分かるはずである。   The algorithms and displays presented herein are not inherently related to any particular computer or other apparatus. Various general purpose systems may be used in the program according to the teachings herein to construct a more specialized device to perform the necessary method steps. Exemplary structures for these various systems are apparent from the description herein. In addition, the present disclosure is not described with reference to any particular programming language. It should be appreciated that a variety of programming languages may be used to implement the teachings according to the disclosure described herein.

上記の説明は、例示的なものであって限定的なものではないことが理解されるべきである。上記説明を読み、理解すれば、当業者には他の多数の例が明らかとなる。したがって、開示の範囲は、添付の特許請求の範囲を参照して、そのような特許請求の範囲が付与される均等の全範囲とともに決定されるべきである。   It should be understood that the above description is illustrative and not restrictive. Many other examples will be apparent to those of skill in the art upon reading and understanding the above description. Accordingly, the scope of the disclosure should be determined with reference to the appended claims, along with the full scope of equivalents to which such claims are entitled.

Claims (27)

処理装置において、画像バッファを受信するステップ、
前記処理装置を用いて、前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換するステップ、
前記処理装置を用いて、前記画像バッファの前記1以上の画素の明度チャネルに第1の値を乗ずるステップ、
前記処理装置を用いて、前記画像バッファの前記1以上の画素を前記1以上の知覚的に均一な色空間から前記固有色空間に変換するステップ、及び
前記画像バッファを下流側装置に伝送するステップ
を備える方法。
Receiving at the processing device an image buffer;
Converting one or more pixels of the image buffer from a native color space to one or more perceptually uniform color space using the processing device;
Multiplying a lightness channel of the one or more pixels of the image buffer by a first value using the processing device;
Using the processing device to convert the one or more pixels of the image buffer from the one or more perceptually uniform color spaces to the intrinsic color space; and transmitting the image buffer to a downstream device. A method comprising:
前記1以上の知覚的に均一な色空間が、前記色空間において等しいデカルト距離にある2色が人間の視覚系に対して実質的に等しく離れているような色空間である請求項1に記載の方法。   The one or more perceptually uniform color spaces are color spaces such that two colors at equal Cartesian distances in the color space are substantially equally separated from the human visual system. the method of. 前記処理装置を用いて、前記画像バッファの1以上の色チャネルの1以上の画素に第2の値を乗ずるステップをさらに備える請求項1に記載の方法。   The method of claim 1, further comprising multiplying one or more pixels of one or more color channels of the image buffer by a second value using the processing device. 前記第1の値及び前記第2の値を前記下流側装置に伝送するステップをさらに備える請求項3に記載の方法。   4. The method of claim 3, further comprising transmitting the first value and the second value to the downstream device. 前記処理装置において、前記第1の値及び前記第2の値を上流側装置又はメモリバッファから受信するステップをさらに備える請求項3に記載の方法。   4. The method of claim 3, further comprising receiving at the processing device the first value and the second value from an upstream device or a memory buffer. 前記処理装置によって、変換された前記画像バッファを符号器に伝送するステップをさらに備え、前記符号器が前記画像バッファを符号化するように動作可能である請求項1に記載の方法。   The method of claim 1, further comprising the step of transmitting the transformed image buffer to an encoder by the processing device, the encoder being operable to encode the image buffer. 前記処理装置において、1以上の白点値を受信するステップ、
前記1以上の白点値に基づいて、前記画像バッファの1以上の画素を前記固有色空間から1以上の知覚的に均一な色空間に変換するステップ、及び
前記1以上の白点値を前記下流側装置に伝送するステップ
をさらに備える請求項3の方法。
Receiving at least one white point value in the processing device;
Converting one or more pixels of the image buffer from the intrinsic color space to one or more perceptually uniform color spaces based on the one or more white point values; and The method of claim 3, further comprising the step of transmitting to the downstream device.
前記第1の値、前記第2の値及び前記1以上の白点値が前記画像バッファとともに帯域内で前記下流側装置に伝送される請求項7に記載の方法。   The method of claim 7, wherein the first value, the second value, and the one or more white point values are transmitted to the downstream device in-band with the image buffer. 前記第1の値、前記第2の値及び前記1以上の白点値が前記画像バッファとともに帯域外で前記下流側装置に伝送される請求項7に記載の方法。   The method of claim 7, wherein the first value, the second value, and the one or more white point values are transmitted out of band with the image buffer to the downstream device. 前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換するステップが、前記画像バッファの各画素の色相を評価すること及び評価された前記色相を用いて複数の知覚的に均一な色空間から選択することに基づく請求項1に記載の方法。   Converting one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces, evaluating the hue of each pixel of the image buffer and using the evaluated hue The method of claim 1 based on selecting from a plurality of perceptually uniform color spaces. 前記画像バッファの1以上の画素を1以上の知覚的に均一な色空間から前記固有色空間に変換するステップが、各画素の以前に評価された前記色相に基づく請求項10に記載の方法。   The method of claim 10, wherein converting one or more pixels of the image buffer from one or more perceptually uniform color spaces to the native color space is based on the previously evaluated hue of each pixel. 画像バッファを受信する処理装置のメモリと、
前記メモリに結合されて前記メモリを使用する、前記処理装置の色空間プロセッサであって、
前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換し、
前記画像バッファの前記1以上の画素の明度チャネルに第1の値を乗じ、
前記画像バッファの前記1以上の画素を前記1以上の知覚的に均一な色空間から前記固有色空間に変換し、
前記画像バッファを下流側装置に伝送する、前記色空間プロセッサと
を備えたシステム。
A memory of the processing device for receiving the image buffer;
A color space processor of the processing device coupled to the memory and using the memory,
Converting one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces;
Multiplying the brightness channel of the one or more pixels of the image buffer by a first value;
Converting the one or more pixels of the image buffer from the one or more perceptually uniform color spaces to the native color space;
A system comprising the color space processor for transmitting the image buffer to a downstream device;
前記1以上の知覚的に均一な色空間が、前記色空間において等しいデカルト距離にある2色が人間の視覚系に対して実質的に等しく離れているような色空間である請求項12に記載のシステム。   The one or more perceptually uniform color spaces are color spaces such that two colors that are at an equal Cartesian distance in the color space are substantially equally separated from the human visual system. System. 前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換することが、前記画像バッファの各画素の色相を評価すること及び評価された前記色相を用いて複数の知覚的に均一な色空間から選択することに基づく請求項12に記載のシステム。   Converting one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces, evaluating the hue of each pixel of the image buffer and using the evaluated hue The system of claim 12, based on selecting from a plurality of perceptually uniform color spaces. 前記色プロセッサが、マイクロプロセッサ、マイクロコントローラ、グラフィック処理装置、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ又は特定用途向け集積回路の1つとして実装された請求項14に記載のシステム。   15. The system of claim 14, wherein the color processor is implemented as one of a microprocessor, microcontroller, graphics processing unit, digital signal processor, field programmable gate array or application specific integrated circuit. 第1の処理装置において第2の処理装置から画像バッファ及び第1の値を受信するステップ、
前記第1の処理装置を用いて、前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換するステップ、
前記第1の処理装置を用いて、前記画像バッファの前記1以上の画素の明度チャネルに前記第1の値の逆数を乗ずるステップ、
前記第1の処理装置を用いて、前記画像バッファの前記1以上の画素を前記1以上の知覚的に均一な色空間から前記固有色空間に変換するステップ、及び
前記第1の処理装置を用いて、前記画像バッファを下流側装置に伝送するステップ
を備える方法。
Receiving an image buffer and a first value from a second processing device at a first processing device;
Using the first processing device to convert one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces;
Multiplying the brightness channel of the one or more pixels of the image buffer by a reciprocal of the first value using the first processing unit;
Using the first processing device to convert the one or more pixels of the image buffer from the one or more perceptually uniform color spaces to the intrinsic color space; and using the first processing device. And transmitting the image buffer to a downstream device.
前記1以上の知覚的に均一な色空間が、前記色空間において等しいデカルト距離にある2色が人間の視覚系に対して実質的に等しく離れているような色空間である請求項16に記載の方法。   The one or more perceptually uniform color spaces are color spaces such that two colors that are at an equal Cartesian distance in the color space are substantially equally separated from the human visual system. the method of. 前記第1の処理装置において前記第2の処理装置から第2の値を受信するステップ、及び
前記第1の処理装置を用いて、前記画像バッファの前記1以上の画素の1以上の色チャネルに前記第2の値の逆数を乗ずるステップ
をさらに備える請求項16に記載の方法。
Receiving a second value from the second processing device in the first processing device; and using the first processing device to one or more color channels of the one or more pixels of the image buffer. The method of claim 16, further comprising multiplying a reciprocal of the second value.
前記第1の処理装置において前記第2の処理装置から1以上の白点値を受信するステップ、及び
前記第1の処理装置を用いて、前記1以上の白点値に基づいて前記画像バッファの前記1以上の画素を前記1以上の知覚的に均一な色空間から前記固有色空間に変換するステップ
をさらに備える請求項18に記載の方法。
Receiving at least one white point value from the second processing unit in the first processing unit; and using the first processing unit, based on the at least one white point value, The method of claim 18, further comprising converting the one or more pixels from the one or more perceptually uniform color spaces to the native color space.
前記第1の値、前記第2の値及び前記1以上の白点値が前記画像バッファとともに帯域内で前記第2の処理装置から受信される請求項19に記載の方法。   The method of claim 19, wherein the first value, the second value, and the one or more white point values are received from the second processing device in-band with the image buffer. 前記第1の値、前記第2の値及び前記1以上の白点値が前記画像バッファとともに帯域外で前記第1の処理装置から受信される請求項19に記載の方法。   20. The method of claim 19, wherein the first value, the second value, and the one or more white point values are received from the first processing device out of band with the image buffer. 前記第1の処理装置に関連する少なくとも1つの前記固有色空間が、前記第2の処理装置に関連する少なくとも1つの固有色空間とは異なる請求項16に記載の方法。   The method of claim 16, wherein at least one unique color space associated with the first processing device is different from at least one unique color space associated with the second processing device. 前記第1の処理装置に関連する前記1以上の知覚的に均一な色空間が、前記第2の処理装置に関連する前記1以上の知覚的に均一な色空間とは異なる請求項16に記載の方法。   The one or more perceptually uniform color spaces associated with the first processing device are different from the one or more perceptually uniform color spaces associated with the second processing device. the method of. 前記下流側装置が、ディスプレイ、符号器又は画像処理パイプラインの1つ以上である請求項16に記載の方法。   The method of claim 16, wherein the downstream device is one or more of a display, an encoder, or an image processing pipeline. 画像バッファ及び第1の値を第2の処理装置から受信する第1の処理装置のメモリと、
前記メモリに結合されて前記メモリを使用する、前記第1の処理装置の色空間プロセッサであって、
前記画像バッファの1以上の画素を固有色空間から1以上の知覚的に均一な色空間に変換し、
前記画像バッファの前記1以上の画素の明度チャネルに第1の値の逆数を乗じ、
前記画像バッファの前記1以上の画素を前記1以上の知覚的に均一な色空間から前記固有色空間に変換し、
前記画像バッファを下流側装置に伝送する、前記色空間プロセッサと
を備えたシステム。
A memory of the first processing device for receiving the image buffer and the first value from the second processing device;
A color space processor of the first processing unit coupled to the memory and using the memory,
Converting one or more pixels of the image buffer from a native color space to one or more perceptually uniform color spaces;
Multiplying the brightness channel of the one or more pixels of the image buffer by a reciprocal of a first value;
Converting the one or more pixels of the image buffer from the one or more perceptually uniform color spaces to the native color space;
A system comprising the color space processor for transmitting the image buffer to a downstream device;
前記1以上の知覚的に均一な色空間が、前記色空間において等しいデカルト距離にある2色が人間の視覚系に対して実質的に等しく離れているような色空間である請求項25に記載のシステム。   26. The one or more perceptually uniform color spaces are color spaces such that two colors that are at an equal Cartesian distance in the color space are substantially equally separated from the human visual system. System. 前記色プロセッサが、マイクロプロセッサ、マイクロコントローラ、グラフィック処理装置、デジタル信号プロセッサ、フィールドプログラマブルゲートアレイ又は特定用途向け集積回路の1つとして実装された請求項25に記載のシステム。   26. The system of claim 25, wherein the color processor is implemented as one of a microprocessor, microcontroller, graphics processing unit, digital signal processor, field programmable gate array or application specific integrated circuit.
JP2016515381A 2013-09-20 2013-09-20 Systems and methods for reducing visual artifacts in the display of compression and decompression digital images and video Pending JP2016536815A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2013/060942 WO2015041681A1 (en) 2013-09-20 2013-09-20 System and method for reducing visible artifacts in the display of compressed and decompressed digital images and video

Publications (1)

Publication Number Publication Date
JP2016536815A true JP2016536815A (en) 2016-11-24

Family

ID=52689217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016515381A Pending JP2016536815A (en) 2013-09-20 2013-09-20 Systems and methods for reducing visual artifacts in the display of compression and decompression digital images and video

Country Status (8)

Country Link
EP (1) EP3047428A4 (en)
JP (1) JP2016536815A (en)
KR (1) KR20160058153A (en)
CN (1) CN105637534A (en)
BR (1) BR112016006047A2 (en)
CA (1) CA2924461A1 (en)
SG (1) SG11201602136TA (en)
WO (1) WO2015041681A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473209B (en) * 2019-08-02 2021-08-13 武汉高德智感科技有限公司 Infrared image processing method, device and computer storage medium
CN113810675B (en) * 2020-06-12 2024-03-12 北京小米移动软件有限公司 Image processing method, device, equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03127278A (en) * 1989-10-13 1991-05-30 Matsushita Electric Ind Co Ltd System and device for color picture processing
JPH0678320A (en) * 1992-08-25 1994-03-18 Matsushita Electric Ind Co Ltd Color adjustment device
JP2005039542A (en) * 2003-07-15 2005-02-10 Fuji Photo Film Co Ltd Image processor and method and program
JP2007325037A (en) * 2006-06-01 2007-12-13 Sharp Corp Image processing method, and image processor
JP2011015341A (en) * 2009-07-06 2011-01-20 Ricoh Co Ltd Image processing apparatus, image processing method, program and recording medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69031202T2 (en) * 1989-10-13 1998-02-19 Matsushita Electric Ind Co Ltd Method and device for color compensation in color images
JPH11146209A (en) * 1997-11-12 1999-05-28 Sharp Corp Color reproducing method
US6608925B1 (en) * 1999-03-01 2003-08-19 Kodak Polychrome Graphics, Llc Color processing
JP2001078235A (en) * 1999-09-08 2001-03-23 Ricoh Co Ltd Method and system for image evaluation
US7426312B2 (en) * 2005-07-05 2008-09-16 Xerox Corporation Contrast enhancement of images
US8462171B2 (en) * 2009-02-06 2013-06-11 Micrososft Corporation Saturation contrast image enhancement
US8325385B2 (en) * 2009-03-27 2012-12-04 Konica Minolta Laboratory U.S.A., Inc. System and methods for processing color data in converting color data from one color space to another color space
US8773457B2 (en) * 2010-11-19 2014-07-08 Apple Inc. Color space conversion
JP5863424B2 (en) * 2011-12-01 2016-02-16 キヤノン株式会社 Color processing apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03127278A (en) * 1989-10-13 1991-05-30 Matsushita Electric Ind Co Ltd System and device for color picture processing
JPH0678320A (en) * 1992-08-25 1994-03-18 Matsushita Electric Ind Co Ltd Color adjustment device
JP2005039542A (en) * 2003-07-15 2005-02-10 Fuji Photo Film Co Ltd Image processor and method and program
JP2007325037A (en) * 2006-06-01 2007-12-13 Sharp Corp Image processing method, and image processor
JP2011015341A (en) * 2009-07-06 2011-01-20 Ricoh Co Ltd Image processing apparatus, image processing method, program and recording medium

Also Published As

Publication number Publication date
KR20160058153A (en) 2016-05-24
BR112016006047A2 (en) 2017-08-01
WO2015041681A1 (en) 2015-03-26
EP3047428A1 (en) 2016-07-27
EP3047428A4 (en) 2017-02-08
SG11201602136TA (en) 2016-04-28
CN105637534A (en) 2016-06-01
CA2924461A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
US8836716B1 (en) System and method for reducing visible artifacts in the display of compressed and decompressed digital images and video
KR102129541B1 (en) Color volume transformations in coding of high dynamic range and wide color gamut sequences
US11509902B2 (en) Colour conversion within a hierarchical coding scheme
US11671550B2 (en) Method and device for color gamut mapping
JP2018525883A (en) Method and device for encoding and decoding color pictures
JP6719391B2 (en) Method and apparatus for signaling within a bitstream the picture/video format of an LDR picture and the picture/video format of a decoded HDR picture obtained from this LDR picture and an illumination picture
EP3616395A1 (en) Method and device for color gamut mapping
US11006152B2 (en) Method and apparatus for encoding/decoding a high dynamic range picture into a coded bitstream
WO2019203973A1 (en) Method and device for encoding an image or video with optimized compression efficiency preserving image or video fidelity
JP2016536815A (en) Systems and methods for reducing visual artifacts in the display of compression and decompression digital images and video
US20230412813A1 (en) Enhancement decoder for video signals with multi-level enhancement and coding format adjustment
US10721484B2 (en) Determination of a co-located luminance sample of a color component sample, for HDR coding/decoding

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180301