KR20130082163A - 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상 - Google Patents

고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상 Download PDF

Info

Publication number
KR20130082163A
KR20130082163A KR1020137013116A KR20137013116A KR20130082163A KR 20130082163 A KR20130082163 A KR 20130082163A KR 1020137013116 A KR1020137013116 A KR 1020137013116A KR 20137013116 A KR20137013116 A KR 20137013116A KR 20130082163 A KR20130082163 A KR 20130082163A
Authority
KR
South Korea
Prior art keywords
image data
mapping
bit depth
image
metadata
Prior art date
Application number
KR1020137013116A
Other languages
English (en)
Other versions
KR101496755B1 (ko
Inventor
피터 더블유. 롱허스트
루이스 존슨
닐 더블유. 메스머
Original Assignee
돌비 레버러토리즈 라이쎈싱 코오포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 레버러토리즈 라이쎈싱 코오포레이션 filed Critical 돌비 레버러토리즈 라이쎈싱 코오포레이션
Publication of KR20130082163A publication Critical patent/KR20130082163A/ko
Application granted granted Critical
Publication of KR101496755B1 publication Critical patent/KR101496755B1/ko

Links

Images

Classifications

    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/64Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor
    • H04N1/644Systems for the transmission or the storage of the colour picture signal; Details therefor, e.g. coding or decoding means therefor using a reduced set of representative colours, e.g. each representing a particular range in a colour space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

이미지 데이터는 저 비트―심도 포맷에서의 분배를 위해 인코딩된다. 이미지 데이터는 최대 범위보다 작은 범위를 갖고, 저 비트 심도 표현의 최대 범위에 대한 저 비트 심도 표현의 범위의 비율이 이미지 데이터의 최대 범위에 대한 이미지 데이터의 범위의 비율보다 크게 하는 맵핑을 이용하여 저 비트 심도 포맷으로 맵핑된다. 상기 맵핑을 특성화하는 메타데이터는 저 비트 심도 표현과 연계되어 있다. 메타데이터는 맵핑을 역방향시킴으로써 톤 디테일이 더욱 잘 재생성되도록 후속 진행에 이용될 수 있다.

Description

고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상{CONTENT METADATA ENHANCEMENT OF HIGH DYNAMIC RANGE IMAGES}
본 출원은 2010년 11월 23일자 미국 특허 가출원 번호 61/416,728에 우선권을 주장하고 있으며, 여기에 전체적으로 참조로 포함되어 있다.
이 공개는 비트 심도(bit depth) m으로 인코딩된 이미지가 비트 심도 n을 갖는 디스플레이 상에서 디스플레이될 때(여기서 m〈 n), 바람직하지 않은 시각적으로 인지 가능한 아티팩트(visually perceptible artifact)들의 감소를 고안한다. 이미지와 함께 분배된(distributed) 메타데이터(metadata)는 이미지의 휘도 범위(luminance range)를 특성화한다.
디스플레이의 비트 심도는 디스플레이의 픽셀들 각각이 재현하거나 디스플레이할 수 있는 명도(brightness) 값들의 수에 해당한다. 높은 비트 심도 디스플레이들일수록 명도의 보다 많은 이산 값(discrete level)들을 재현할 수 있다. 예를 들어, 1의 비트 심도를 갖는 디스플레이는 각각의 픽셀에서 명도의 21=2 값들 중 어느 하나를 표현할 수 있다(예를 들어, 각각의 픽셀은 온 또는 오프될 수 있음). 반대로, 10의 비트 심도를 갖는 디스플레이에서, 상기 디스플레이는 명도의 210=1024의 고유한 값(distinct level)들 중 하나를 갖도록 각각의 픽셀을 제어할 수 있다.
컬러 디스플레이는 다수의 기본 컬러들 각각에 대해 개별의 서브―픽셀들을 제공할 수 있다. 예를 들어, 디스플레이는 적색, 녹색, 청색인 서브―픽셀들을 포함하는 픽셀들을 제공할 수 있다. 픽셀의 휘도 및 컬러는 각각의 서브―픽셀의 명도를 변화시킴으로써 제어될 수 있다. 서브―픽셀들의 제어에 의해 비트―심도가 커질수록 휘도의 더욱 많은 이산 값들이 표현되게 하고, 또한 컬러 디스플레이가 더욱 많은 다른 컬러들을 디스플레이하게 한다. 각각의 서브―픽셀에 대한 한 비트―심도에 있어서, 하나의 서브―픽셀은 흑색 또는 적색일 수 있고, 다른 서브―픽셀은 흑색 또는 녹색일 수 있고, 세번째 서브―픽셀은 흑색 또는 청색일 수 있다. 이러한 경우, 픽셀은 21x21x21=23=8 컬러들 중 어느 것을 표현할 수 있다.
8의 비트 심도를 갖는 컬러 디스플레이는 각각의 디스플레이된 서브―픽셀에서 명도의 28=256 값들 중 어느 하나를 표현하는 것이 가능하다. 예를 들어, 0의 값은 서브―픽셀의 휘도 범위의 최하 값(일반적으로 흑색)을 표현할 수 있고, 255의 값은 서브―픽셀의 휘도 범위의 최상 값을 표현할 수 있다. 상기 디스플레이는 이론적으로 각각의 픽셀에서 28ㆍ28ㆍ28=224=16,777,216 컬러들 중 어느 하나를 디스플레이할 수 있다.
이들 디스플레이를 가능하게 하기 위해서, 이미지들은 다양한 코딩 방식들을 이용하여 인코딩된다. 비트 심도는 이들 방식들의 결과가 된다. 이미지가 8의 비트 심도를 이용하여 인코딩되는 경우, 상기 인코딩된 이미지의 서브―픽셀들(또는 흑백 이미지(monochrome image)인 경우의 픽셀들)의 각각은 명도의 28=256 값들 중 어느 하나를 표현할 수 있다. 동일한 이미지가 10의 비트 심도를 이용하여 인코딩되는 경우, 인코딩된 이미지의 서브―픽셀들(또는 흑백 이미지인 경우의 픽셀들)의 각각은 명도의 210=1,024 값들 중 어느 하나를 표현할 수 있다. 따라서, 고 비트 심도일수록 픽셀들의 휘도 범위 내에서 더욱 미세한 입상도(granularity)를 제공한다.
컬러 이미지들에 대한 일부 인코딩 방식들은 개별 서브―픽셀들의 명도를 직접적으로 지정하지는 않는다. 예를 들어, LUV 방식은 픽셀에 대한 전체 휘도(L)를 지정하고, 2개의 크로마 좌표(chroma coordinate) 값들 U 및 V를 이용하여 픽셀에 대한 컬러를 지정한다. 또한, 비트 심도가 클수록 이미지 데이터에 의해 표현될 수 있는 컬러들 및/또는 고유한 휘도 스텝들의 수를 증가시키는 데에 이용될 수 있다.
일반적으로, 디스플레이된 이미지에서 휘도 스텝들은 한 스텝의 휘도차가 HVS(human visual system)에서 용이하게 인지할 수 없을 정도로 작은 것이 바람직하다. 스텝들이 이보다 크면, 특히 휘도가 서서히 변화하는 이미지 영역에서 밴딩(banding)과 같이 시각적으로 인지 가능한 아티팩트들이 생기게 될 수 있다. 고 비트 심도들일수록 더욱 미세한 스텝들을 만들어 낼 수 있기 때문에, 고 비트 심도들일수록 높은 휘도 범위들을 갖는 이미지들을 디스플레이하는 데 바람직하다. 그러나, 고 비트 심도들로 인코딩된 이미지들은 저 비트 심도(lower bit depth)들로 인코딩된 이미지들보다 크고(즉, 보다 큰 컴퓨터 메모리나 저장 공간과, 통신 링크들 상에서 보다 넓은 대역폭을 소비함), 이에 따라 이미지들이 디스플레이될 수 있기까지는 증가된 컴퓨터 프로세싱 시간과 리소스들을 필요로 한다. 결론적으로, 이미지들은 고 비트 심도 기능들을 갖는 디스플레이들의 유효성과, 이미지들이 처음에 가끔만 고 비트 심도들로 얻어진다는 사실에도 불구하고, 종종 최적의 비트 심도들보다 낮게 분배되도록 인코딩된다.
원하는 이미지 품질을 갖는 이미지들(스틸(still)과 비디오 이미지들 모두)을 분배 및 재현하기 위한 실용적이고 비용면에서 효율적인 방법 및 장치가 요구되고 있다.
본 발명은 이미지 데이터의 분배, 프로세싱 및 디스플레이에 적용될 수 있는 방법 및 장치를 제공한다. 본 발명의 양태들은: 분배를 위해 이미지 데이터를 저 비트 심도 포맷에서 인코딩하기 위한 방법; 디스플레이를 위해 분배된 이미지 데이터를 준비하고, 상기 분배된 이미지 데이터를 디스플레이하기 위한 방법; 가변 맵핑을 이용하여 저 비트 심도 표현(lower bit depth representation)에서 이미지 데이터를 인코딩하기 위한 장치; 가변 맵핑들을 이용하여 저 비트 심도 이미지 데이터를 고 비트 심도로 프로세싱하기 위한 장치; 및 분배된 이미지 데이터를 디스플레이하기 위한 장치를 제공한다. 본 발명은 예를 들어 영화들, 텔레비전 프로그래밍 및 다른 비디오 컨텐츠의 분배 및 디스플레이에 적용될 수 있다. 본 발명은 예를 들어 텔레비전들, 비디오 모니터들, 컴퓨터 모니터들, 컴퓨터 시스템들, 특수 목적 디스플레이들 및 그 밖의 유사한 것에서 구현될 수 있다.
본 발명의 일 양태는 이미지 데이터를 분배하기 위한 방법을 제공한다. 상기 방법은 이미지 데이터의 범위를 결정하는 단계, 및 이미지 데이터의 저 비트―심도 표현을 생성하기 위해 이미지 데이터를 감소된 비트―심도 포맷으로 맵핑하는 단계를 포함한다. 상기 맵핑하는 단계는 저 비트 심도 표현의 최대 범위에 대한 저 비트 심도 표현의 범위의 비율이 이미지 데이터의 최대 범위에 대한 이미지 데이터의 범위의 비율보다 크게 하는 맵핑을 통해 이루어진다. 상기 방법은 상기 맵핑을 특성화하는 메타데이터를 생성하고, 상기 메타데이터를 저 비트 심도 표현과 연계시킨다.
본 발명의 다른 양태는 이미지들을 디스플레이하기 위한 방법을 제공한다. 상기 방법은 제 1 비트 심도 및 상응하는 메타데이터를 갖는 제 1 포맷에서 이미지 데이터를 얻는 단계를 포함한다. 상기 방법은 상기 메타데이터에 기초하여 제 1 비트 심도보다 큰 제 2 비트 심도를 갖는 제 2 포맷으로 상기 이미지 데이터를 맵핑하기 위한 톤 맵핑(tone mapping)을 생성시킨다. 그리고 상기 방법은 상기 이미지 데이터를 제 2 포맷으로 맵핑하기 위해 상기 톤 맵핑을 적용하고, 상기 제 2 포맷 데이터를 디스플레이한다.
본 발명의 다른 양태는 제 1 포맷의 이미지에 대한 이미지 데이터에서의의 값들의 범위를 결정하고, 제 1 포맷으로부터 이 제 1 포맷보다 낮은 비트 심도를 갖는 제 2 포맷으로 상기 이미지에 대한 맵핑을 생성시키도록 구성된 이미지 분석기(image analyzer)를 포함하는 이미지 프로세싱 장치를 제공한다. 상기 장치는 상기 맵핑에 따라 제 1 포맷으로부터 제 2 포맷으로 상기 이미지를 맵핑하도록 구성된 맵핑 유닛, 및 제 2 포맷 이미지 데이터와 상기 맵핑을 표현하는 메타데이터를 분배 포맷(distribution format)으로 인코딩하도록 구성된 인코딩 유닛을 포함한다.
본 발명의 또다른 양태들 및 본 발명의 예시적 실시예들의 특징들은 이하에 설명되어 있으며, 첨부된 도면들에 도시되어 있다.
첨부된 도면들은 본 발명의 한정되지 않는 예시적 실시예들을 나타낸다.
도 1은 n+-비트 이미지 데이터가 m-비트의 비트 심도로 인코딩되고, 또한 비트 심도 n을 갖는 디스플레이에 분배되는 종래 기술의 이미징 시스템을 단순화한 블록 다이어그램(여기서 m〈 n);
도 2는 n+-비트 심도 이미지 데이터가 감소된 비트 심도를 갖는 분배 경로(distribution path)들을 통해서 분배되는 이미징 시스템을 단순화하여 개략적으로 나타낸 도면으로서, 분배 경로들의 예로는 케이블 TV, 위성 TV, 디스크(예를 들어, DVD 또는 Blu-ray™ 디스크) 및 인터넷 경로들이 있는 도면;
도 3은 종래 기술에 따라, 디밍 가능한(dimmable) 디스플레이 상에서 밝은 이미지들 및 어두운 이미지들 각각의 디스플레이를 개략적으로 나타내는 도면;
도 4는 이미지 데이터의 휘도 범위를 재-맵핑(re-mapping)하는 것을 개략적으로 나타내는 도면;
도 5는 본 발명의 예시적 실시예에 따른 방법을 나타내는 플로차트;
도 6은 본 발명의 다른 실시예에 따른 방법을 단순화하여 나타내는 플로차트;
도 7은 휘도 스텝들을 시프트 및 리스케일링(rescaling)하는 것과 아울러, 제한된 비트―심도를 갖는 포맷에서 존재하는 이미지 데이터로부터 향상된 이미지 품질을 얻기 위해 이미지 데이터를 인코딩하는 것을 그래프로 나타내는 도면으로서, 도시된 예시적 실시예에서는 비트 심도가 5비트인 도면;
도 8은 본 발명의 실시예에 따라 n―비트의 비트 심도의 디스플레이 상에서의 디스플레이를 위해 m-비트 심도 인코딩된 이미지의 방식으로 이미지 데이터를 분배하는 것을 개략적으로 나타내는 도면;
도 9는 본 발명의 예시적 실시예에 따른 장치를 개략적으로 나타내는 도면.
후술하는 설명을 통한 구체적인 상세 내용은 당해 기술 분야에서 통상의 지식을 가진 자에게 보다 철저한 이해를 제공하기 위해 명시되어 있다. 그러나, 잘 알려진 요소들은 상기 공개를 불필요하게 불분명하도록 하는 것을 피하기 위해, 상세하게 도시되거나 설명되어 있지 않을 수 있다. 따라서, 설명 및 도면들은 한정적 의미이기보다 도시적 의미로 간주되는 것이다.
도 1은 적어도 n―비트(n+―비트)의 비트 심도를 갖는 이미지 데이터(10)가 m-비트의 저 비트 심도로 변환되고, 또한 이미지 프로세서(14)에 의한 분배를 위해 인코딩되는 예시적 경우를 나타낸다. m-비트 시그널(15)은 이미지 프로세서(16)(예를 들어, 디스플레이의 내부에 또는 디스플레이의 외부에 있을 수 있음)에 전달된다. 이미지 프로세서(16)는 디스플레이(12) 상에서의 디스플레이를 위해 시그널을 n―비트의 비트 심도에서 렌더(render)한다.
디스플레이될 이미지의 비트 심도는 디스플레이가 잠재적으로 고 비트 심도 기능(capability)이 있음에도 불구하고, 디스플레이를 이미지와 동등한 효율적인 비트 심도로 실제로 제한될 수 있다. 예를 들어, 10비트의 비트 심도를 갖는 디스플레이 상에서 8비트의 비트 심도로 인코딩된 이미지를 디스플레이하기 위한 하나의 접근 방식으로는 디스플레이를 위해 10비트 드라이브 시그널의 최상위 8비트(the most-significant 8bits)로서 8비트 이미지 데이터를 이용하는 것이 있다. 이것은 디스플레이의 거의 전체 휘도 범위를 이용하는 장점을 갖는다. 그러나, 디스플레이의 전체 비트 심도가 활용되지 않기 때문에, 결과적으로 이미지는 밴딩을 갖거나 또는 다른 바람직하지 않은 시각적으로 인지 가능한 아티팩트들을 갖고 있을 수 있고, 따라서 근방의 휘도 값들 사이의 스텝들이 뚜렷해 질 수 있다. 이러한 아티팩트들은 예를 들어 디스플레이가 고-명도, 고 다이나믹 레인지 디스플레이(high dynamic range display)인 경우와 같이 휘도 범위가 큰 곳에서 특히 현저해 질 수 있다. 또한 디스플레이를 위해 10-비트 드라이브 시그널의 최하위 비트(the least significant bits)로서 8-비트 심도 이미지 데이터를 이용하는 것도 디스플레이의 휘도 범위 기능이 완전히 또는 적절히 활용되지 않기 때문에 바람직하지 않다.
도 2는 컴퓨터(31)에 접속된 HDTV(high definition television; 30) 및 고화질 컴퓨터 모니터(32)를 나타낸다. 컴퓨터(31) 및 HDTV(30)는 모두 다양한 분배 미디어 경로들을 통해서 이미지 데이터를 수신하도록 접속되어 있다. HDTV(30) 및 컴퓨터 모니터(32)는 각각 n 비트의 비트 심도를 갖는 이미지 데이터를 디스플레이할 수 있다. 각각의 경우에, 이미지 데이터가 원래 큰 비트 심도를 갖고 있었음에도 불구하고, 이미지 데이터는 저 비트-심도 포맷(예를 들어, m―비트)에서 분배된다. 상기 예에서, 이미지 데이터(20)는 처음에 n―비트 또는 그 이상(n+―비트)의 비트 심도를 갖고, 각각의 분배 경로는 이미지 데이터가 m-비트의 비트 심도를 갖는 포맷에서 전달되는 적어도 하나의 섹션(section)을 포함한다(m〈 n). m은 모든 분배 경로들에 대해 동일할 필요는 없다. 도 2에 도시된 것은 인터넷 분배 경로(21), 디스크(예를 들어, DVD 또는 Blu-ray™ 디스크) 분배 경로(22), 케이블 TV 분배 경로(23), 및 위성 TV 분배 경로(24)이다.
이미지 데이터(20)는 카메라(25)와 같은 적절한 소스로부터 얻어진다. 인터넷 분배 경로(21)는 인터넷을 통해 m-비트 심도 포맷에서 이미지 데이터(20)를 전달한다. 디스크 분배 경로(22)는 디스크 플레이어(27) 상에서 재생되는 디스크(26)에 m-비트 심도 포맷에서 이미지 데이터(20)를 레코딩한다. 케이블 TV 분배 경로(23)는 케이블 TV 시스템 네트워크(28)를 통해 케이블 TV 셋톱 박스(29)에 m-비트 심도 포맷에서 이미지 데이터(20)를 전달하고, 케이블 TV 셋톱 박스(29)는 이미지 데이터(20)의 저 비트 심도(즉, m-비트, m〈 n) 인코딩된 버전들을, HDTV(30)나 고화질 컴퓨터 모니터(32)와 같은 n-비트 백릿(backlit) 고 다이나믹 레인지 이미지 디스플레이에 분배한다. 위성 TV 분배 경로(24)는 이미지 데이터(20)의 m―비트 인코딩된 버전들을, 위성 리시버(34)에 분배하는 위성 트랜스미터(33)를 포함한다. 적거나 많은 이미지 소스들, 적거나 많은 이미지 프로세서들, 적거나 많은 디스플레이들을 갖는 이미지 시스템 변형들이 가능하다는 것이 이해될 것이다.
일부 백릿 디스플레이들은 디스플레이의 백라이트의 라이트닝 요소들 전체가 동시에 디밍되거나 또는 턴 오프될 수 있는 "글로벌 디밍(global dimming)" 기능을 갖는다. 글로벌 디밍은 디밍 기능(dimming capability)을 갖고 있지 않는 등가의 디스플레이에 비해 디스플레이의 휘도 범위를 향상시킬 수 있다.
일부 다른 백릿 디스플레이들은 디스플레이의 백라이트에서 개별 라이트닝 요소들 또는 라이트닝 요소들의 그룹들이 선택적으로 디밍되거나 또는 턴 오프될 수 있는 "로컬 디밍(local dimming)" 기능을 갖는다. 로컬 디밍은 디밍 기능을 갖고 있지 않는 등가의 디스플레이에 비해 디스플레이의 다이나믹 레인지를 상당히 향상시킬 수 있거나, 또는 글로벌 디밍 기능을 갖는 등가의 디스플레이에 비해 디스플레이의 로컬 컨트라스트(local contrast) 및 동시 범위(simultaneous range)를 향상시킬 수 있다.
도 3은 로그(L) 그래프식 표현을 이용하여, 디밍 가능한 디스플레이 상에서 밝은 이미지들 및 어두운 이미지들 각각의 디스플레이를 개략적으로 나타내며, 여기서 L은 휘도를 nit로 표현한 것이다. 고 다이나믹 레인지 이미지 데이터는 예를 들어, 도 3에서 바(bar; 41)에 해당하는, 범위가 0.001 내지 10,000nits에 이르는 휘도 값들을 지정할 수 있다. 디스플레이는 예를 들어 도 3에 도시된 바(42)에 해당하는, 범위가 0.1 내지 600nits에 이르는 휘도 값들을 갖는 이미지들을 디스플레이할 수 있다. 디스플레이가 디밍 기능을 갖는 경우, 동일한 디스플레이는 범위가 0.01 내지 60nits에 이르는 휘도 값들을 갖는 어두운 이미지들을 디스플레이할 수 있고, 디스플레이의 디밍 기능이 전체적으로 활용된 경우는 도 3에 도시된 바(43)에 해당한다.
도 3은 디스플레이 상에서 표시될 수 있는 하나의 씬(scene) "씬 A"에 대한 히스토그램을 포함하고 있다. 씬 A는 범위가 0.005 내지 10,000nits에 이르는 휘도 값들에 의해 특성화된 밝은 씬의 고 다이나믹 레인지 이미지에 해당한다. 디스플레이의 디밍 기능은 씬 A 이미지가 디스플레이됐을 때 상기 이미지의 밝은 특성들의 감소를 최소화하기 위해 이용되지는 않는다. 지정된 명도가 600nits를 초과하는 씬 A의 픽셀들은 600nits로 클립핑되거나(clipped), 또는 그렇지 않으면 바(42)로 표시된 범위 내에서의 디스플레이를 위해 프로세스(예를 들어 스케일링화(scaled), 톤-맵핑 등)될 수 있다. 마찬가지로, 지정된 명도가 0.1nits 미만인 씬 A의 픽셀들은 0.1nits로 클립핑되거나, 또는 그렇지 않으면 바(42)로 표시된 범위 내에서의 디스플레이를 위해 프로세스(예를 들어 스케일링화, 톤-맵핑 등)될 수 있다.
또한 도 3은 범위가 0.001 내지 200nits에 이르는 휘도 값들에 의해 특성화된 어두운 씬의 고 다이나믹 레인지 이미지에 해당하는 다른 씬 "씬 B"에 대한 히스토그램을 포함하고 있다. 디스플레이의 디밍 기능은 씬 B 이미지가 디스플레이됐을 때 바(44)로 표시된 중간 휘도 범위 내에서 상기 이미지의 휘도 특성들의 유지성(retention)을 향상시키는데 활용될 것이다. 지정된 명도가 200nits를 초과하는 씬 B의 모든 픽셀들은 200nits로 클립핑되거나, 또는 그렇지 않으면 바(44)로 표시된 범위 내에서의 디스플레이를 위해 프로세스(예를 들어 스케일링화, 톤-맵핑 등)될 수 있다. 마찬가지로, 지정된 명도가 약 0.03nits 미만인 씬 B의 픽셀들은 0.03nits로 클립핑되거나, 또는 그렇지 않으면 바(44)로 표시된 범위 내에서의 디스플레이를 위해 프로세스(예를 들어 스케일링화, 톤-맵핑 등)될 수 있다.
컨텐츠 메타데이터 이미지 향상
본 발명의 실시예들은 이미지 데이터 값들 및 상응하는 휘도 값들 사이의 맵핑을 재규정하고 있다. 상기 재규정은 예를 들어 상기 맵핑에 대해 스케일링화하거나 및/또는 오프셋들을 적용할 수 있다. 이러한 접근 방식은 이미지 데이터가 저 비트―심도 포맷에서 분배될 때 보다 나은 품질의 이미지들을 얻기 위해 적용될 수 있다. 일부 실시예들에서, 상기 재규정된 맵핑은 이미지 데이터와 연계된 메타데이터에 의해 지정될 수 있다. 상기 메타데이터는 이미지 데이터에서 인코딩되거나, 이미지 데이터를 갖고 전달되거나, 또는 이미지 데이터로부터 별도로 전달될 수 있다. 일부 실시예들에서, 상기 재규정된 맵핑은 글로벌 또는 로컬 디밍의 제어를 통해 적어도 부분적으로 디스플레이에서 구현된다.
도 4는 휘도 값들에 대한 이미지 데이터 값들의 재맵핑(remapping)이 이미지 품질을 향상시키는 데 어떻게 이용될 수 있는지를 확대하여 나타내는 도표를 제공한다. 특히, 라인들(49)의 세트는 128 이미지 데이터 값들(7의 비트―심도)을 500nits 휘도 범위를 넘는 휘도 값들로 할 수 있는 맵핑을 나타낸다. 도 4에서 라인들(50)은 32 이미지 데이터 값들(5의 비트―심도)을 동일한 500nits 휘도 범위를 넘는 휘도 값들로 할 수 있는 맵핑을 그래프식으로 나타낸다. 각각의 경우에, 2.4의 감마가 일반적이므로, 스텝들을 분배하는 데 이용되고 있다. 라인들(49)에 대한 이미지 데이터 값들은 예를 들어, 7―비트 이진수(7의 비트 심도)로 제공될 수 있다. 라인들(50)에 대한 이미지 데이터 값들은 예를 들어, 5―비트 이진수(5의 비트 심도)로 제공될 수 있다. 라인들(50)에서의 근방 휘도 값들 사이의 스텝들이 라인들(49)에서의 근방 휘도 값들 사이의 스텝들보다 훨씬 크다는 것을 알 수 있다. 이와 같이 큰 스텝들은 HVS로 인지될 수 있고, 이미지에서 밴딩과 같이 시각적으로 인지할 수 있는 아티팩트들이 생기게 할 수 있다.
고 비트―심도 포맷(라인들(49)에 의해 전형화됨)에서 원본 이미지 데이터를, 저 비트―심도 포맷(라인들(50)에 의해 예시됨)으로 인코딩하면, 그 결과 고 비트―심도 이미지 데이터로부터의 복수의 이산 휘도 값들이 저 비트―심도 이미지 데이터의 동일한 휘도 값으로서 인코딩되고, 근방의 뚜렷하게 표현될 수 있는 휘도 값들 사이의 스텝들이 증가하게 된다.
다수의 이미지들에서, 이미지 데이터 값들은 높거나 또는 낮은 휘도를 향해 집중되어서, 가능한 이미지 데이터 값들의 전체 범위에 걸쳐 균일하게 분산되지는 않는다. 예를 들어, 어두운 이미지는 어떤 임계값 이상의 이미지 값들을 갖고 있지 않거나 또는 소수만 갖고 있을 수 있고, 밝은 이미지는 어떤 임계값 이하의 이미지 값들을 갖고 있지 않거나 또는 소수만 갖고 있을 수 있다. 이러한 이미지들에 대해, 이미지 데이터 값들과 휘도 값들 사이의 맵핑을 변경하면 이미지 데이터 값들을 표현하는 데 이용된 비트 심도를 증가시키는 일 없이, 근방의 휘도 값들 사이의 스텝들을 보다 작게 할 수 있다.
픽셀들이 100nits 이상의 휘도 값들을 갖고 있지 않는 고 비트―심도 이미지 데이터(49)에서 표현된 어두운 이미지의 경우를 생각해 볼 수 있다. 0 내지 100nits의 범위에 있는 이산 명도 값들이 고 비트―심도 이미지 데이터(49)만큼 많아서 저 비트―심도 이미지 데이터(50)가 1/4만을 표현할 수 있기 때문에, 상기 이미지 데이터를 저 비트―심도 이미지 데이터(50)로 맵핑하는 것은 디테일(detail)의 상당한 손실이 초래될 수 있었다.
도 4에서, 라인들(52)의 세트는 라인들(50)에 해당하는 동일한 저 비트―심도 이미지 데이터 값들이 0 내지 100nits의 범위에 있는 휘도 값들에 상응하도록 재맵핑된 경우의 휘도 값들을 나타낸다. 이 경우에, 상기 재맵핑은 1 미만인 인수(factor)(도시된 일례에서는 0.2의 인수)에 의해 스케일링화하는 단계를 포함한다. 근방의 휘도 값들 사이의 스텝들이 라인들(50) 사이의 스텝들에 비해 감소됐음을 알 수 있다. 라인들(52)에 의해 전형화된 맵핑을 이용하여 0 내지 100nits의 범위에 있는 고 비트―심도 이미지 데이터(49)를 저 비트―심도 데이터로 맵핑하면, 라인들(50)과 같은 전형적인 맵핑을 이용한 경우에 손실되는 디테일을 보호할 수 있다.
도 4에서, 라인들(54)의 세트는 라인들(50)에 해당하는 동일한 이미지 데이터 값들이 250 내지 500nits의 범위에 있는 휘도 값들로 재맵핑된 경우의 휘도 값들을 나타낸다. 이 경우에, 재맵핑은 오프셋(56)에 의한 스케일링(scaling) 및 환산(translation)하는 단계를 모두 포함한다. 또한, 근방의 휘도 값들 사이의 스텝들이 라인들(50) 사이의 스텝들에 비해 감소됐음을 알 수 있다. 250 내지 500nits의 범위에 있는 휘도 값들로 본질적으로 구성된 이미지를 나타내고, 라인들(54)에 의해 전형화된 것으로서의 맵핑을 나타내는 고 비트―심도 이미지 데이터(49)는 저 비트―심도 형태의 상기 고 비트―심도 이미지 데이터를 인코딩할 때 디테일을 보호하는 데 이용될 수 있다.
이미지 데이터 값들을 휘도 값들(또는 등가물)로 재맵핑하는 것은 전체 이미지 또는 씬(이미지들의 그룹)에 대해 또는 하나의 이미지 또는 씬 내의 로컬 영역들에 대해 수행될 수 있다. 재맵핑이 로컬 영역들에 대해 이루어진 경우, 상기 로컬 영역들은 사전 결정된 그리드에 의해 지정된 영역들, 이미지 데이터의 분석에 의해 식별된 영역들 또는 그 밖의 유사한 것이 될 수 있다.
이미지 또는 이미지의 일부가 특수 맵핑과 맵핑이 이용됐음을 명시하는 정보를 이용하여 저 비트―심도 표현으로 인코딩된 것은 디스플레이를 위해 상기 이미지 데이터를 고 비트―심도 표현으로 다시 변환하기 위해 보호된 후에 이용될 수 있다. 상기 맵핑을 특성화하는 정보는 예를 들어 메타데이터로서 저 비트―심도 이미지 데이터와 연계될 수 있다.
도 5는 상술한 바와 같이 재맵핑을 적용하는 방법 55를 나타낸다. 방법 55는 블록 56에서 이미지 또는 이미지 내의 로컬 영역을 분석하는 것으로 시작한다. 상기 분석은 이미지의 휘도 값들 또는 로컬 영역이 제한된 범위 내에 속해 있는지(또는 거의 속해 있는지)의 여부를 결정한다. 속해 있다면, 블록 57은 휘도 값들을 이미지의 감소된 및 그 반대의 비트―심도 표현의 이미지 데이터 값들로 맵핑하는 데 이용될 수 있는 맵핑을 생성시킨다. 예를 들어, 휘도 값들이 모두 250nits 내지 500nits의 범위에 있는 경우, 맵핑은 도 4의 라인들(54)에 해당할 것이다. 일부 실시예들에서, 블록 57은 휘도 값들이 제한된 범위 내에 속해 있도록 하기 위해, 이미지 데이터 상에서 작동하는 클립핑, 압축(compression), 톤-맵핑 또는 그 밖의 유사한 것을 수행할 수 있다. 일부 실시예들에서, 블록 57은 다수의 사전 결정된 맵핑들 중에서 이미지 또는 그 이미지 내의 로컬 영역에 가장 적합한 맵핑을 선택한다. 일부 실시예들에서, 블록 57은 이미지 또는 그 이미지 내 로컬 영역의 특성들에 기초하여 이용자 정의 맵핑(custom mapping)을 생성시킨다.
블록 57은 이미지 또는 그 이미지 내의 로컬 영역에 관한 통계적 정보의 분석에 기초한 맵핑을 생성시킬 수 있다. 예를 들어, 블록 57은 이미지 또는 그 이미지 내의 로컬 영역의 히스토그램에 기초한 맵핑을 생성시킬 수 있다. 상기 히스토그램은 예를 들어 다른 휘도 값들 또는 휘도 값들의 등가물이나 다른 범위들 또는 휘도 값이나 범위나 휘도 값들에 상응하는 픽셀들의 동등한 수를 제공할 수 있다. 히스토그램으로부터, 이미지가 주로 밝은지, 주로 어두운지, 또는 밝고 어두운 영역들 모두를 포함하는지의 여부, 이미지가 휘도 값들의 넓은 범위를 포함하는지, 또는 휘도 값들의 좁은 범위를 포함하는지 또는 그 밖의 유사한 것의 여부를 결정할 수 있다.
블록 58에서, 블록 57의 맵핑은 이미지 데이터로부터의 휘도 값들(또는 그 등가물들)을, 감소된 비트 심도에서 인코딩된 이미지 데이터 값들로 맵핑하는 데 적용된다. 블록 59에서, 인코딩된 이미지 데이터는 전송 경로를 통해 전송된다. 블록 60에서, 맵핑을 특성화하는 메타데이터도 전송된다. 블록 60은, 예를 들어 이미지 데이터 자체에서 메타데이터를 인코딩하는 단계, 이미지 데이터를 포함하는 데이터 패키지의 일부로서 메타데이터를 인코딩하는 단계, 이미지 데이터와 함께 메타데이터를 전송하는 단계, 또는 이미지 데이터로부터 별도의 전송 경로를 통해 메타데이터를 전송하는 단계를 포함할 수 있다.
메타데이터는 사전 결정된 맵핑을 지정할 수 있고 및/또는 맵핑을 위해 파라미터들을 제공할 수 있다(상기 파라미터들은 예를 들어 오프셋 및/또는 스케일링 인수(scaling factor) 및/또는 선형이나 비―선형 맵핑 함수의 파라미터들을 직접 또는 간접적으로 지정할 수 있다). 일부 실시예들에서, 다른 맵핑 함수들이 다른 특성들을 갖는 이미지들을 위해 선택될 수 있다. 예를 들어 주로 매우 밝은 하이라이트들로 이루어진 이미지들을 위해 이용된 맵핑은 주로 어두운 그림자들로 이루어진 이미지들을 위해 이용된 맵핑 함수와는 다른 함수 형태를 갖고 있을 수 있다.
블록 62에서, 메타데이터는 맵핑을 재생성시키는 데 적용되고, 블록 64에서 상기 재생성된 맵핑은 이미지 데이터를 보다 큰 비트 심도로 재포맷하는 데 적용된다. 블록 66에서, 상기 재포맷된 이미지 데이터가 디스플레이된다. 방법 55에서, 블록들 56 내지 58은 예를 들어 이미지 데이터의 소스에서 수행될 수 있고, 블록들 62 및 64는 디스플레이에서 또는 디스플레이로부터 윗쪽에 있는 전송 경로 상의 디바이스(예를 들어 셋톱 박스 또는 트랜스코더)에서 수행될 수 있다.
이미지들 또는 그 이미지 내의 로컬 영역들의 시리즈에 방법 55를 적용한 결과, 동일한 휘도 값들이 상기 이미지들 각각에 대해 및/또는 감소된 비트―심도 인코딩된 이미지 데이터에서의 다른 로컬 영역들에 대해 다른 이미지 데이터 값들로서 인코딩될 수 있다. 이미지들 또는 그 이미지 내의 로컬 영역들의 시리즈에 방법 55를 적용한 결과, 다른 휘도 값들이 상기 이미지들 각각에 대해 및/또는 감소된 비트―심도 인코딩된 이미지 데이터에서의 다른 로컬 영역들에 대해 동일한 이미지 데이터 값들로서 인코딩될 수 있다.
도 6은 디밍 디스플레이들을 활용할 수 있는 다른 예시적 방법 70을 나타낸다. 방법 70에서, 고 다이나믹 레인지 이미지(71)의 휘도 범위를 특성화하는 메타데이터는 이미지의 m―비트 인코딩된 버전으로, 비―디밍 디스플레이, 글로벌 디밍 디스플레이, 또는 로컬 디밍 디스플레이일 수 있는 고 다이나믹 레인지 디스플레이(72)에 분배될 수 있다. 디스플레이(72)는 n―비트 심도 기능을 갖고, 여기서 m〈 n이다. 이미지(71)는 다양한 이미지 소스들 중 어느 하나로부터 얻어질 수 있고, 디스플레이(72)는 다양한 디스플레이 타입들 중 어느 하나일 수 있다.
이미지(71)의 휘도 특성은 디스플레이(72)의 외부 프로세서에 의해 분석된다(도 6, 블록 74). 프로세서는 다양한 이미지 프로세서들 중 어느 하나를 포함할 수 있다. 이미지(71)가 상대적으로 밝다고 블록 74 분석이 결정한 경우(블록 74에서 "밝음" 선택), 이미지(71)는 이미지 데이터 값들에 상응하는 휘도 값들이 이미지(71)의 휘도 범위(이미지(71)가 어두운 픽셀들을 갖지 않거나 또는 소수만을 갖기 때문에, 이미지(71)가 갖고 있던 최대 휘도 범위보다 작은 범위임)에 걸쳐 있게 하는 맵핑을 통해, 각각의 픽셀의 명도가 2m 이미지 데이터 값들 중 하나로 맵핑되는 맵핑을 활용하여 m-비트 인코딩된다(블록 76).
이미지(71)가 상대적으로 어둡다고 블록 74 분석이 결정한 경우(블록 74에서 "어두움" 선택), 이미지(71)는 이미지 데이터 값들에 상응하는 휘도 값들이 이미지(71)의 비교적 어두운 휘도 범위(이미지(71)가 밝은 픽셀들을 갖지 않거나 또는 소수만을 갖기 때문에, 이미지(71)가 갖고 있던 최대 휘도 범위보다 작은 범위임)에 걸쳐 있게 하는 맵핑을 통해, 각각의 픽셀의 명도가 2m 이미지 데이터 값들 중 하나로 맵핑되는 맵핑을 활용하여 m-비트 인코딩된다(블록 78). 일반적으로, 이미지(71)는 이미지 데이터 값들에 상응하는 휘도 값들이 이미지(71)의 휘도 범위에 걸쳐 있도록, 각각의 픽셀의 휘도 또는 그 등가물이 2m 이미지 데이터 값들 중 하나로 맵핑되는 맵핑을 활용하여 m-비트 인코딩된다.
일부 실시예들에서, 이미지(71)(또는 상기 이미지(71) 내의 영역)의 휘도 범위는 외곽의 픽셀들에 대한 휘도 값들을 제외한다. 예를 들어, 맵핑이 기초로 되는 휘도 범위는 명도가 X% 이하이고 명도가 Y% 이상인 휘도 값들을 포괄하지 않을 수 있다. 일부 실시예들에서, 블록 74의 이미지 분석은 이미지가 밝지도 어둡지도 않다고 블록 74가 결정한 경우에 표준 맵핑이 적용되도록 구성될 수 있다.
블록 76의 맵핑을(또는 유추될 수 있는 맵핑으로부터) 특성화하는 메타데이터는 블록 76A에서 생성된다. 블록 78의 맵핑을(또는 유추될 수 있는 맵핑으로부터) 특성화하는 메타데이터는 블록 78A에서 생성된다. 각각의 경우에 메타데이터는 예를 들어 해당하는 블록 76 또는 블록 78에서 인코딩되는 이미지 데이터의 휘도 범위를 특성화할 수 있다.
블록 80에서, m-비트 인코딩된 이미지 데이터가 분배된다. 블록 79에서, 메타데이터가 분배된다. 일부 실시예들에서, 블록 79는 인코딩된 이미지 데이터를 분배하기 위해 메타데이터를 인코딩된 이미지 데이터에 삽입하는 단계를 포함하고, 또한 메타데이터를 분배한다. 또한, 메타데이터는 다른 방식으로 분배될 수 있다. 일부 실시예들에서, 인코딩된 이미지 데이터와 메타데이터는 도 2에 관련하여 기술된 바와 같이, 하나 이상의 분배 채널들을 통해 분배된다.
일부 실시예들에서, 이미지 데이터(71)는 이전에 분석되었고(블록 76과 블록 78로부터 윗쪽에서 진행됨), 또한 직접 또는 간접적으로 다음을 특성화하는 메타데이터를 포함하거나 이와 연계되어 있다: 이미지들의 휘도 범위들 또는 이미지 데이터(71)에서 표현된 이미지들의 영역들 또는 상기 이미지들이나 이미지들 내의 영역들에 적용될 맵핑들. 이러한 실시예들에서, 블록들 76 및 78은 사전―결정된 메타데이터를 추출하거나 액세스하는 단계와, 상기 메타데이터에 기초한 맵핑들에 따라 이미지 데이터를 인코딩하는 단계를 포함한다. 일부 실시예들에서, 블록 74는 현재 이미지 또는 이미지 내의 영역의 휘도 특성들을 특성화하고, 블록들 76 및 78의 기능들은 블록 74에서 이루어진 결정에 기초한 적합한 맵핑을 이용하여 현재의 이미지나 영역에 대해 이미지 데이터를 인코딩하는 블록에서 조합된다.
디스플레이 또는 다른 디바이스에서 이미지(71)의 m-비트 인코딩된 버전을 수신하면, 방법 70은 상기 디바이스가 메타데이터를 프로세스하도록 구성되어 있지 않은 레거시 디바이스(legacy device)인지(블록 82에서 "예" 선택), 또는 메타데이터를 프로세스할 수 있는 디스플레이(블록 82에서 "아니오" 선택)인지의 여부에 따라 다르게 진행한다.
레거시 디바이스라면, 이미지(71)의 m-비트 인코딩된 버전은 디코딩되지만, 메타데이터는 무시된다(블록 84). 따라서 디코딩된 이미지는 메타데이터에 관계없이 디스플레이되고, 결과적으로 레거시 디스플레이들과의 호환성을 유지한다. 상기 디바이스가 메타데이터를 프로세스하도록 구비된 경우(블록 82에서 "아니오" 선택), 메타데이터는 인코딩된 이미지 데이터에서 이미지들의 디스플레이를 향상시키는 데 이용된다. 상기 예에서, 향상된 이미지 품질은 메타데이터를 이용하여 디스플레이(72)의 디밍 기능을 제어함으로써 얻어진다. 이것은 본 발명을 구현하는 여러 가지 방식들 중 하나일 뿐이다. 예를 들어, 이미지(71)의 m-비트 인코딩된 버전과 연계된 메타데이터는 이미지(71)를 m-비트 인코딩하는 데에 활용된 맵핑을 재생성시키는 데 적용될 수 있고, 상기 재생성된 맵핑은 이미지 데이터를 n-비트 심도로 디코딩하는 데 적용될 수 있다. 본 발명은 디밍 백라이트들을 갖는 디스플레이들로 한정되거나, 또는 상기 디스플레이들에서 백라이트 디밍을 제어하기 위해 메타데이터를 이용하는 것으로 한정되지 않는다.
방법 70에서, 디스플레이(72)가 글로벌 디밍 디스플레이인 경우(블록 82에서 "예" 선택, 또한 블록 86에서 "글로벌" 선택), 이미지(71)의 m-비트 인코딩된 버전이 디코딩되고, 연계된 메타데이터(예를 들어, 상기 인코딩된 이미지 데이터로부터 추출되거나 또는 유도될 수 있음)는 이미지의 휘도 특성을 결정하도록 프로세싱된다. 그리고 디스플레이(72)의 백라이트는 이미지의 휘도 특성을 가장 잘 얻도록 메타데이터에 따라 조정되고(블록 88), 이에 따라 이미지(71)의 m-비트 인코딩된 버전은 메타데이터에 기초하여 광 레벨들을 출력하도록 올바르게 맵핑된다.
디스플레이(72)가 로컬 디밍 디스플레이인 경우(블록 82에서 "아니오" 선택 또한 블록 86에서 "로컬" 선택), 이미지(71)의 m-비트 인코딩된 버전은 디코딩되고, 이미지(71)와 연계된 메타데이터는 이미지의 로컬 휘도 특성들을 결정하도록 프로세싱된다. 디스플레이(72)의 개별 백라이트 요소들은 이미지의 휘도 특성을 가장 잘 얻도록 메타데이터에 따라 선택적으로 조정된다(블록 90).
일부 실시예들에서, m-비트 인코딩된 이미지(71)의 디코딩과 백라이트 조정은 상호 의존적이다. 예를 들어, m-비트 인코딩된 이미지 데이터(71)는 디코딩될 수 있고, 디스플레이의 백라이트는 상기 조합된 재-맵핑과 백라이트 조정이 단계 76 또는 78에서 이미지 데이터(71)를 m-비트 인코딩하는 데에 활용된 맵핑을 재생성시키거나 그 근사치를 내도록 조정될 수 있다. 예를 들어, 단계 76 또는 단계 78에서 활용된 맵핑은 오프셋에 의한 스케일링하는 단계와 환산하는 단계를 포함하고, m-비트 인코딩된 이미지(71)는 스케일링을 적용하기 위해 디코딩될 수 있고, 디스플레이의 백라이트의 명도는 오프셋을 적용하기 위해 조정될 수 있다.
방법 70에서, 글로벌 디밍 디스플레이들과 로컬 디밍 디스플레이들 모두에 있어서, 이미지 품질은 m-비트 인코딩된 이미지 데이터에 대한 초기 맵핑이 글로벌 또는 로컬 휘도 특성들을 고려하여 변경되기 때문에, 근방의 휘도 값들 사이의 상기 스텝들이 감소되고, 이에 따라 휘도 값들 사이에서 큰 스텝들로 인해 발생하는 인지 가능한 아티팩트들을 감소시키거나 제거하게 됨으로써 향상된다.
도 7은 도 4와 유사하지만, 보다 덜 확대되어 있다. 도 7은 m-비트 인코딩된 데이터의 값들이 밝은 이미지, 딤 이미지, 및 휘도 값들의 전체 범위를 포함하는 이미지에 대해 다른 휘도 값들로 어떻게 맵핑될 수 있는지 나타낸다.
실시예들에서, 다른 맵핑들이 이미지 내에서 로컬 영역들에 적용되고, 추가 프로세싱이 (사전 결정된 그리드 또는 그 밖의 유사한 것에 따라 규정된) 다른 로컬 영역들 사이의 인지 가능한 경계(boundary)들을 피하도록 수행될 수 있다. 추가 프로세싱은 예를 들어 다음 중 하나 이상을 포함할 수 있다:
ㆍ공간 필터링(spatial filtering);
ㆍ영역 경계 부근에서의 디더링(dithering)(예를 들어, 영역 경계의 부근에서, 다른 근방 영역들로부터 픽셀들로 맵핑들을 랜덤하게 또는 유사-랜덤하게(quasi-randomly) 적용함);
ㆍ근방의 맵핑들 사이에서의 블렌딩(blending)(예를 들어, 영역 경계의 부근에서, 근방의 영역들과 연계된 복수의 맵핑들을 위해 픽셀 값들을 계산하고, 하나의 맵핑으로부터 경계 영역 건너의 다른 곳으로 원활한 이동(smooth transition)을 제공하기 위해, 상기 맵핑들 사이에서 보간함(interpolating)). 일부 실시예들에서, 상기 블렌딩은 스플라인 커브(spline curve)들을 따라 수행될 수 있다. 스플라인 커브들은 사전 규정되거나 또는 메타데이터에 의해 규정될 수 있다.
도 8은 본 발명의 다른 예시적 실시예를 개략적으로 나타낸다. 원본 이미지 데이터(100)는 히스토그램으로 도 8에 표현되어 있다. 원본 이미지 데이터(100)는 고 비트 심도를 제공하는 포맷으로 되어 있다. 예를 들어, 이미지 데이터(100)는 16-비트 정수 또는 16-비트 플로트 데이터 포맷(float data format)의 데이터를 포함할 수 있다. 상기 포맷들은 픽셀이 전체 휘도 범위 내에서 상당히 큰 수의 이산 휘도 값들 중 어느 하나를 할당받게 한다. 따라서, 이미지 데이터(100)에서 근방의 휘도 값들 사이의 스텝들은 작아질 수 있다. 원본 이미지 데이터(100)의 최대 및 최소 휘도 값들은 데이터 포맷에 의해 표현될 수 있는 휘도 값들의 최대 범위(100A)에 걸쳐 있다.
원본 이미지 데이터(100)는 윈도우된(windowed) 이미지 데이터(102)를 제공하기 위해 101로 도시된 바와 같이 윈도우형으로 되어 있다. 윈도우형 이미지 데이터(102)는 이미지 데이터(100)의 포맷에 의해 표현될 수 있는 전체 휘도 범위(100A)보다 작은 감소된 휘도 범위(102A) 내에서 휘도 값들을 포함한다. 윈도윙(windowing; 101)은 휘도 값들을 감소된 휘도 범위(102A)의 말단점(endpoint)들로 클립핑하는 것, 감소된 휘도 범위(102A) 밖에 있는 휘도 값들을 감소된 휘도 범위(102A)로 압축(compress)시키는 것, 감소된 휘도 범위(102A) 밖에 있는 휘도 값들을 감소된 휘도 범위(102A)로 톤-맵핑하는 것, 상기 것들의 조합한 것, 또는 그 밖의 유사한 것을 포함할 수 있다. 일부 실시예들에서, 윈도윙(101)은 특정 휘도 범위 내에서, 윈도우형 이미지 데이터(102)가 원본 이미지 데이터(100)보다 적은 다른 휘도 값들을 포함하도록 톤 압축(tone compression)하는 것을 포함한다. 윈도우형 이미지 데이터(102)가 이미지 데이터(100)로부터 얻어지는 것으로 작동하는 윈도윙과 감소된 휘도 범위(102A)는 원본 이미지 데이터(100)에서 디테일들을 보호하기 위해 선택될 수 있다. 윈도우형 이미지 데이터(102)는 상대적으로 고 비트 심도를 갖는 포맷(원본 이미지 데이터(100)의 것과 동일한 포맷으로 될 수 있음)으로 여전히 표현될 수 있다.
103으로 표시된 바와 같이, 윈도우형 이미지 데이터(102)는 감소된 비트-심도 이미지 데이터(104)를 산출하기 위해 감소된 비트-심도 포맷에서의 값으로 맵핑된다. 103에 의해 맵핑이 적용되면, 윈도우형 이미지 데이터(102)의 감소된 휘도 범위(102A)는, 이미지 데이터(100)의 전체 휘도 범위(100A)가 범위(104A)로 맵핑된 경우보다 큰 비율인, 감소된 비트-심도 포맷에 의해 표현될 수 있는 범위(104A)(즉, 저 비트-심도 표현의 최대 범위)로 맵핑된다. 일부 실시예들에서, 감소된 휘도 범위(102A)의 맵핑은 범위(104A)의 전체 규모(또는 범위(104A)의 거의 전체 규모, 예를 들어 범위(104A)의 85% 또는 90% 또는 95% 또는 98% 이상)에 대한 것이다. 따라서 감소된 비트-심도 포맷에 의해 표현될 수 있는 고유한 값들의 모두 또는 거의 모두는 윈도우형 휘도 데이터(102)의 감소된 휘도 범위(102A)의 하부와 상부 말단들 사이의 값들을 표현하는 데 이용된다. 맵핑(103)은 n+-비트 심도 이미지 데이터를 m-비트 이미지 데이터로 맵핑하는 것을 포함할 수 있다(m〈 n).
메타데이터(107)는 맵핑(103)에 이용된 맵핑을 특성화하고, 또한 선택적으로는 후속 프로세스가 103에서 수행된 맵핑을 역방향으로 하는 방법을 결정하는 데에 메타데이터(107)를 이용할 수 있도록 101에서 수행된 윈도윙을 특성화하고, 또한 선택적으로는 101에서 수행된 윈도윙 중 일부나 전체를 특성화한다.
감소된 비트-심도 데이터(104)는 모든 적합한 전송 메커니즘에 의해 분배될 수 있다. 감소된 비트-심도 데이터(104)의 저 정밀도는 감소된 비트-심도 데이터(104)가 원본 이미지 데이터(100)보다 작고 또한 더욱 많이 압축 가능하게 한다. 메타데이터(107)는 감소된 비트-심도 데이터(104)와 함께 분배된다. 감소된 비트 심도 데이터(104)는 디스플레이를 위해 감소된 비트-심도 데이터(104)를 고 비트-심도 포맷으로 다시 변환하는 것이 요구될 때, 디스플레이 또는 중간 디바이스(intermediate device)에 분배된다.
디스플레이 또는 다른 디바이스에서, 감소된 비트 심도 데이터는 복구된 데이터(106)를 제공하기 위해 105로 표시된 바와 같이 재-맵핑된다. 복구된 데이터(106)는 감소된 비트-심도 데이터(104)보다 큰 비트 심도를 갖는다. 메타데이터(107)는 어떻게 재맵핑이 윈도우형 데이터(102)를 가장 밀접하게 재생성하도록 수행되게 해야 하는지를 결정하기 위해 재맵핑 단계 105에 의해 이용된다. 그리고 복구된 데이터(106)는 디스플레이될 수 있다.
일부 실시예들에서, 맵핑(103)은 윈도우형 이미지 데이터(102)의 정상부 말단(top end)을 감소된 비트-심도 이미지 데이터(104)의 정상부 말단으로 맵핑하고 윈도우형 이미지 데이터(102)의 바닥부 말단을 감소된 비트-심도 이미지 데이터(104)의 바닥부 말단으로 맵핑하는 것과, 또한 윈도우형 이미지 데이터(102)의 중간 값들을 선형적으로 또는 대수적으로(logarithmically) 균일한 맵핑에 따라 감소된 비트-심도 이미지 데이터(104)의 상응하는 중간 값들로 맵핑하는 것을 포함한다. 다른 실시예들에서, 중간 값들은 감소된 비트-심도 이미지 데이터(104)의 이산 값들이 톤 디테일(tone detail)을 많이 갖는 휘도 범위들에서 보다 작은 휘도 스텝들에 의해 분류되고, 균일한 맵핑에 비해 톤 디테일을 많이 갖지 않는 휘도 범위들에서 상대적으로 보다 큰 휘도 스텝들에 의해 분류되도록 하는 비-균일 맵핑에 따라 맵핑된다. 윈도우형 이미지 데이터(102)의 휘도 범위(102A) 내의 모든 특정 휘도 서브-범위에 존재하는 톤 디테일의 양은 예를 들어 휘도 서브-범위의 픽셀들의 수와, 휘도 서브-범위에 있는 상기 픽셀들의 이산 휘도 값들의 수의 증가 함수로서의 이미지 히스토그램으로부터 추정될 수 있다. 그러므로, 윈도우형 이미지 데이터(102)의 휘도 범위의 일부들에는 소수의 픽셀들과 소수의 고유 휘도 값들이 감소된 비트-심도 데이터(104)로 맵핑될 수 있으며, 근방의 휘도 값들 사이에는 비교적 큰 스텝들이 있게 되고, 또한 윈도우형 이미지 데이터(102)의 휘도 범위의 일부들에는 다수의 픽셀들과 다수의 고유 휘도 값들이 감소된 비트-심도 데이터(104)로 맵핑될 수 있으며, 근방의 휘도 값들 사이에는 비교적 작은 스텝들이 있게 된다.
예를 들어, 원본 이미지 데이터(100)와 윈도우형 이미지 데이터(102)에서의 이미지 데이터 값들과 휘도들 사이의 상응성(correspondence)은 선형이거나 또는 대수적(logarithmic) 관계일 수 있다. 반대로, 감소된 비트-심도 이미지 데이터(104)에서의 이미지 데이터 값들과 휘도들 사이의 상응성은 더블 S 커브 또는 다항식에 의해 추정된 커브와 같은 비선형 함수를 따를 수 있다.
일례로서, 고 비트 심도 고 다이나믹 레인지 이미지는 0.001 내지 600nits의 예상 응답 범위를 갖는 10-비트 로그-인코딩된 시그널로서 제공될 수 있다. 디스플레이는 글로벌 또는 로컬적으로 디밍 가능한(dimmable) 백라이트, 및 700:1 명암비(contrast ratio)와 500nits의 피크 명도 기능을 갖는 8-비트 LCD(liquid crystal display) 패널을 갖고 있을 수 있다. 이미지의 하나 이상의 선택된 휘도 특징들을 특성화하는 휘도 메타데이터는 상술한 바와 같이 얻어진다. 예를 들어, 이미지에서 휘도 값들의 분배는 이미지의 8-비트 맵핑된 버전에 해당하는 최적의 톤 커브를 도출하는 데 이용될 수 있다. 상기 최적의 톤 커브는 이미지에서 가장 디테일함을 유지하기 위해, 디스플레이의 기능들을 고려할 수 있다. 그리고 메타데이터, 예를 들어 톤 커브 및 블랙 레벨은 이미지 데이터와 함께 디스플레이로 보내진다. 메타데이터로부터 이미지의 휘도 범위를 알면, 디스플레이는 이미지 데이터를 디스플레이의 본래의(native) 고 비트-심도에서 적합한 휘도 범위로 맵핑할 수 있다.
적어도 일부 이미지들에 대한 일부 실시예들에서, 디스플레이(또는 다른 중간 이미지 프로세싱 디바이스)에 의해 수신된 저 비트-심도 인코딩된 데이터는 디스플레이를 위해 고 비트-심도 드라이브의 비트로 바로 맵핑된다. 예를 들어, 일부 경우들에서, 8-비트 저 비트-심도 데이터는 디스플레이를 구동하기 위해 10-비트 이미지 데이터의 최상위 비트로 바로 맵핑될 수 있다.
반대로, 통상의 종래 기술인 이미징 시스템은 일반적으로 사전 규정된, 불변의 맵핑 방식을 이용할 것이며, 이 방식은 이미지의 8-비트 파워/감마 인코딩된 버전을 생성하기 위해 10-비트 로그-인코딩된 시그널을 맵핑하고, 고정된 명도와 응답을 이용하여 디스플레이될 것이다. 맵핑들 모두가 고정되어 있기 때문에, 원본 이미지 데이터 입력에서 명확하고 디테일한 어두운 씬들은 바닥부 말단 상에서 비트가 더욱 작아지고 명도가 더욱 높아지는 것으로 한정될 것이다.
도 9는 본 발명의 예시적 실시예에 따른 장치(110)를 개략적으로 나타낸다. 장치(110)는 이미지 데이터 준비부(111A)와 이미지 데이터 복구부(111B)를 포함한다. 이미지 데이터 준비부(111A)는 실시간으로 동작할 수 있어도 반드시 실시간으로(즉 비디오 프레임들의 디스플레이 속도로 비디오 프레임들을 프로세싱하기에 충분히 빠르게) 동작할 필요는 없다. 이미지 데이터 준비부(111A)는 분배를 위해 이미지 데이터를 준비하고, 이미지 데이터 복구부(111B)는 디스플레이를 위해 이미지 데이터를 복구한다.
이미지 데이터 준비부는 원본 이미지 데이터(114)를 갖는 데이터 저장부(112)를 포함한다. 원본 이미지 데이터(114)는 스틸(still) 또는 비디오 이미지들을 포함할 수 있다. 후술하는 논의에서, 원본 이미지 데이터(114)는 비디오 데이터를 포함하고, 비디오 데이터는 일련의 비디오 프레임들을 포함하는 것으로 가정한다. 장치(110)는 이미지 분석 모듈(116)을 포함한다. 이미지 분석 모듈(116)은 프레임의(또는, 일부 실시예들에서, 일련의 프레임들의, 또는 하나의 프레임이나 프레임들의 시리즈들 내의 로컬 영역의) 휘도 범위를 결정한다. 선택적으로 이미지 분석 모듈(116)은 또한 프레임이 이미지 품질의 바람직하지 않은 저하없이 더 작은 휘도 범위를 갖도록 윈도윙될 수 있게 하는 조건 사항들이 존재하는지의 여부를 평가하고, 존재하는 경우 적용될 윈도윙의 정도 및/또는 타입을 평가한다. 일부 실시예들에서, 이미지 분석 모듈(116)은 프레임에 대한 히스토그램을 생성시키거나 획득하고, 또한 그 히스토그램을 통해 분석을 수행한다. 히스토그램은 예를 들어 각각의 픽셀 값을 갖는 이미지에서 픽셀들의 수를 플롯(plot)할 수 있다.
도시된 실시예에서, 장치(110)는 이미지 분석 모듈(116)로부터의 제어 시그널에 응답하여 각각의 프레임 상에서 윈도윙을 수행하는 윈도윙 모듈(118)을 포함한다. 맵핑 유닛(119)은 각각의 윈도우형 프레임의 휘도 범위에 기초한 맵핑을 이용하여 윈도우형 프레임들을 윈도윙 모듈(118)로부터 저 비트 심도로 맵핑한다. 상기 맵핑은 프레임으로부터 프레임까지 달라질 수 있다. 일부 실시예들에서, 맵핑 유닛(119)은 복수의 사전 결정된 맵핑들을 제공한다. 예를 들어, 맵핑 유닛(119)은 상응하는 맵핑된 값을 입력 및 출력으로서 윈도우형 프레임으로부터의 휘도 값(또는 등가물)을 수용하는 복수의 룩업 테이블(lookup table)들을 포함할 수 있다. 각각의 룩업 테이블은 다른 맵핑에 상응할 수 있다. 다른 예로서, 다른 맵핑들은 프로세서에 의해 이용된 다른 파라미터 값들(사전 결정된 프로세서 값들의 복수의 세트들이 선택적으로 제공될 수 있음)에 의해 지정될 수 있다. 다른 예로서, 다른 맵핑들은 다른 로직 경로(logic pathway)들 및/또는 다른 소프트웨어 모듈들에 의해 제공될 수 있다.
인코더(120)는 분배 포맷(122)에서 메타데이터와 함께 저 비트 심도 이미지 데이터를 인코딩한다. 메타데이터는 SEI(supplemental enhancement information) 메시지들, 브로드캐스트 텔레텍스트(broadcast teletext) 또는 그 밖의 유사한 것과 같은 표준 메타데이터 경로(path)들로 인코딩될 수 있다. 그리고 분배 포맷(122)에서의 이미지 데이터는 예를 들어 디스크 또는 다른 분배 매체로의 기록, 케이블 TV나 다른 방송 매체 상에서의 방송, 파일 전송, 스트리밍 데이터 전송 또는 그 밖의 유사한 것에 의해 분배될 수 있다. 분배 채널은 도 9에서 125로 표시된다. 도 9는 2개의 아키텍처들을 나타낸다. 하나의 경우에, 분배된 이미지 데이터는 디스플레이(132A)의 내부 프로세서(130A)에 의해 프로세싱된다. 다른 경우에, 분배된 이미지 데이터는 디스플레이(132B)의 외부 프로세서(130B)에 의해 프로세싱된다.
디스플레이들(132A 및 132B) 각각은 분배된 이미지 데이터보다 큰 비트 심도를 갖는다. 프로세서들(130A 및 130B) 각각은 분배된 이미지 데이터를 디코딩하는 디코더(134)와, 분배된 이미지 데이터로부터 메타데이터를 추출하는 메타데이터 익스트랙터(metadata extractor; 136)를 포함한다. 매퍼(mapper; 140)는 메타데이터에 의해 설정된 맵핑에 따라 상기 분배된 이미지 데이터를 디스플레이의 비트 심도로 맵핑한다. 매퍼는 예를 들어 다른 사전 결정된 맵핑들을 구현하는 룩업 테이블들이나 로직 경로들의 세트, 공급된 파라미터 값들이나 제어 입력들에 따라 맵핑들을 구현하는 로직 경로, 공급된 파라미터 값들이나 제어 입력들에 따라 맵핑들을 수행하는 맵핑 알고리즘을 구현하는 프로세서, 복수의 사전 결정된 맵핑 알고리즘들 중 하나를 실행하는 프로세서, 또는 그 밖의 유사한 것을 포함할 수 있다.
결론
여기에 기술된 시스템들 및 모듈들은 소프트웨어, 펌웨어, 하드웨어, 또는 여기에 설명된 목적들에 적합한 소프트웨어, 펌웨어, 또는 하드웨어의 모든 조합(들)을 포함할 수 있다. 소프트웨어 및 다른 모듈들은 서버들, 워크스테이션들, 개인용 컴퓨터들, 컴퓨터형 태블릿들, PDA(personal digital assistant)들 및 여기에 설명된 목적들에 적합한 다른 디바이스들 상에서 실행될 수 있다. 즉, 여기에 기술된 소프트웨어 및 다른 모듈들은 범용 컴퓨터, 예를 들어 서버 컴퓨터, 무선 디바이스 또는 개인용 컴퓨터에 의해 실행될 수 있다. 당해 기술 분야에서 통상의 지식을 가진 자라면 상기 시스템의 양태들이 다음을 포함하는 다른 통신들, 데이터 프로세싱, 또는 컴퓨터 시스템 구성들로 실시될 수 있다는 것을 알 것이다: 인터넷 가전들, 휴대용 디바이스들(PDA들 포함), 착용형 컴퓨터들, 모든 방식의 셀룰러나 모바일 폰들, 멀티-프로세서 시스템들, 마이크로프로세서-기반이나 프로그래머블 가전 제품들, 셋-톱 박스들, 네트워크 PC들, 미니-컴퓨터들, 메인프레임 컴퓨터들, 및 그 밖의 유사한 것. 사실, 용어들 "컴퓨터", "서버", "호스트", "호스트 시스템" 및 그 밖의 유사한 것은 여기에 일반적으로 통용되고, 모든 상기 디바이스들 및 시스템들뿐만 아니라, 모든 데이터 프로세서를 참조한다. 또한, 시스템의 양태들은 여기에 상세히 설명된 컴퓨터-실행형 명령들 중 하나 이상을 수행하도록 특별하게 프로그램된, 구성된, 또는 조성된 특수 목적의 컴퓨터 또는 데이터 프로세서에 내장될 수 있다.
소프트웨어 및 다른 모듈들은 로컬 메모리를 통해, 네트워크를 통해, ASP 컨텍스트(context)에서의 브라우저 또는 다른 애플리케이션을 통해, 또는 여기에 기술된 목적들에 적합한 다른 수단들을 통해 액세스될 수 있다. 또한, 상기 테크놀로지의 예들은 LAN(Local Area Network), WAN(Wide Area Network), 또는 인터넷과 같은 통신 네트워크를 통해 링크되어 있는 디바이스들을 원격 프로세싱함으로써 태스크들 또는 모듈들이 수행되는 분배된 컴퓨팅 환경들에서 실행될 수 있다. 분배된 컴퓨팅 환경에서, 프로그램 모듈들은 로컬 및 원격 메모리 저장 디바이스들 모두에 위치될 수 있다. 여기에 설명된 데이터 구조들은 여기에 기술된 목적들에 적합한, 컴퓨터 파일들, 변수들, 프로그래밍 어레이들, 프로그래밍 구조들, 또는 모든 전자 정보 저장 방식들이나 방법들, 또는 이들의 모든 조합들을 포함할 수 있다. 여기에 기술된 이용자 인터페이스 요소들은 그래픽 이용자 인터페이스들, 명령 라인 인터페이스들, 및 여기에 기술된 목적들에 적합한 다른 인터페이스들로부터의 요소들을 포함할 수 있다.
상술한 바와 같이 이미지 프로세싱 및 프로세싱 단계들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 적합한 조합들에서 수행될 수 있다. 예를 들어, 상기 이미지 프로세싱은 데이터 프로세서가 여기에 기술된 방법들을 구현하도록 하는 소프트웨어 및/또는 펌웨어 명령들을 실행하는 데이터 프로세서(예를 들어, 하나 이상의 마이크로 프로세서들, 그래픽 프로세서들, 디지털 시그널 프로세서들, 또는 그 밖의 유사한 것)에 의해 수행될 수 있다. 또한 상기 방법들은 하드 구성되거나 또는 구성 가능하게 될 수 있는 로직 회로들(예를 들어, FPGA(Field―Programmable Gate Array)에 의해 제공된 로직 회로들)에 의해 수행될 수 있다.
본 발명의 임의의 구현들은 프로세서들이 본 발명의 방법을 수행하게 하는 소프트웨어 명령들을 실행하는 컴퓨터 프로세서들을 포함한다. 예를 들어, 비디오 워크스테이션, 셋 톱 박스, 디스플레이, 트랜스코더 또는 그 밖의 유사한 것 중에서 하나 이상의 프로세서들은 그 프로세서들에 액세스 가능한 프로그램 메모리에서 소프트웨어 명령들을 실행함으로써 여기에 기술된 방법들을 구현할 수 있다.
또한 본 발명은 프로그램 제품의 형태로 제공될 수 있다. 프로그램 제품은 데이터 프로세서에 의해 실행될 때, 데이터 프로세서가 본 발명의 방법을 실행하도록 하는 명령들을 포함하는 컴퓨터―판독형 시그널들의 세트를 전달하는 모든 비―일시적(non―transitory) 매체를 포함할 수 있다. 본 발명에 따른 프로그램 제품들은 폭넓게 다양한 형태들 중 어느 것이 될 수 있다. 프로그램 제품은 예를 들어 플로피 디스켓들을 포함하는 자기(magnetic) 데이터 저장 매체와 같은 물리적 매체, 하드 디스크 드라이브들, CD ROM들을 포함하는 광학 데이터 저장 매체, DVD들, ROM들을 포함하는 전자 데이터 저장 매체, 플래시 RAM, 하드와이어형이나 사전 프로그램형 칩들(예를 들어 EEPROM 반도체 칩들), 나노테크놀로지 메모리, 또는 그 밖의 유사한 것을 포함할 수 있다. 프로그램 제품 상의 컴퓨터―판독형 시그널들은 선택적으로 압축되거나 암호화될 수 있다. 컴퓨터 명령들, 데이터 구조들, 및 테크놀로지에 실제 이용된 다른 데이터는 일정 시간 동안 전파 매체 상에서 전파된 시그널(예를 들어 전자파(들), 음파 등)을 이용해서 인터넷을 통하거나 다른 네트워크들(무선 네트워크들을 포함)을 통해서 분배될 수 있거나, 또는 모든 아날로그나 디지털 네트워크(패킷 스위칭형, 회로 스위칭형, 또는 다른 방식)를 통해서 제공될 수 있다.
특별히 명시하지 않는 한, 상기에 참조된 요소(예를 들어 소프트웨어 모듈, 프로세서, 어셈블리, 디바이스, 회로 등)는, 상기 요소의 등가물들로서 상술된 요소의 기능을 수행하는 (즉, 기능적으로 동등한) 모든 요소를 포함하고, 본 발명에서 나타낸 전형적인 실시예들에서 상기 기능을 수행하는 공개된 구조와 구조적으로 동등하지 않은 요소들을 포함하는 것으로서 설명되어야 하는 요소("수단"으로 언급한 것을 포함)를 참조한다.
상기 설명과 청구항들에 걸쳐서 문맥 상 명확함이 필요하지 않는 한, 단어들 "포함하다", "포함하는" 및 그 밖의 유사한 것은 독점적 또는 철저한 의미에 반대되는 것으로서, 포괄적 의미로 구성되는 것이며; 다시 말해서 "포함하지만, 한정되지 않는다"의 의미이다. 여기에 이용된 바와 같이, 용어들 "접속된", "결합된" 또는 이들의 모든 변형은 2개 이상의 요소들 사이에 직접 또는 간접적인 모든 접속이나 결합을 의미하며; 요소들 사이에서 접속의 결합은 물리적, 논리적, 또는 이들을 조합한 것이 될 수 있다. 또한, 단어들 "여기에, "상기", "이하" 및 유사한 의미의 단어들은 본 출원에 이용됐을 때, 본 출원의 어떤 특정 부분들이 아닌 전체로서 본 출원에 참조되어야 한다. 또한 맥락이 허용하는 한, 단수 또는 복수의 수를 이용한 상기 상세한 설명의 단어들은 각각 복수 또는 단수의 수를 포함한다. 단어 "또는"은 2개 이상의 아이템들의 리스트를 참조해서 후술하는 단어의 해석 전체를 커버한다: 리스트에서 아이템들의 어느 것, 리스트에서 아이템들 모두, 리스트에서 아이템들의 모든 조합.
테크놀로지의 예들의 상기 상세한 기술은 완전한 것으로 의도되거나, 또는 상기 공개된 구체적 형태로 시스템을 한정하기 위한 것은 아니다. 시스템의 구체적 예들, 및 시스템에 대한 예들이 설명한 목적들을 위해 상기 기술되어 있지만, 다양한 등가의 변형들이 시스템의 범위 내에 있을 수 있다는 것을, 관련한 기술 분야에서 통상의 지식을 가진 자라면 알 것이다. 예를 들어, 프로세스들 또는 블록들은 주어진 순서로 제공되고, 대안적 예들은 다른 순서로 단계들을 갖는 루틴들을 수행하거나, 또는 블록들을 갖는 시스템들을 채용할 수 있고, 일부 프로세서들이나 블록들은 대안 또는 서브 조합들을 제공하기 위해 삭제, 이동, 추가, 세분화, 조합, 및/또는 수정될 수 있다. 상기 프로세스들 또는 블록들의 각각은 다양한 다른 방식으로 구현될 수 있다. 또한, 프로세스들 또는 블록들이 주로 직렬로 수행되는 것으로 나타나 있지만, 그 대신 상기 프로세스들 또는 블록들이 병렬로 수행될 수 있거나, 또는 다른 시간에 수행될 수도 있다.
여기에 제공된 테크놀로지의 교수는 상술한 시스템뿐만 아니라 다른 시스템들에도 적용될 수 있다. 상술한 다양한 예들의 요소들 및 동작들은 추가 예들을 제공하기 위해 조합될 수 있다. 시스템의 양태들은 테크놀로지의 또다른 예들을 제공하기 위해 상술한 다양한 참조들의 시스템들, 기능들, 및 개념들을 채용함에 있어서 필요한 경우 수정될 수 있다.
상기 및 다른 변경들은 상술한 상세한 설명을 감안하여 시스템에 포함될 수 있다. 상술한 상세한 설명이 시스템의 임의의 예들을 설명하고 있고, 최상의 모드로 고려된 것을 설명하지만, 본문에 상기와 같이 아무리 상세하게 나타나 있어도, 시스템은 다수의 방식으로 실행될 수 있다. 정보를 분류하고 전송하기 위한 시스템 및 방법의 상세한 것은 그 구현 세부 사항들에서 상당히 달라질 수 있지만, 여기에 공개된 시스템에 여전히 포함된다. 상기에 설명된 바와 같이, 시스템의 임의의 특징들이나 양태들을 설명할 때 이용된 특정 전문 용어는 그 전문 용어가 연계된 시스템의 어떤 특정 특성들, 기능들, 또는 양태들로 한정되는 것으로 재규정됨을 시사하도록 취해져서는 안된다. 일반적으로 후술하는 청구항들에 이용된 용어들은 상기 상술한 상세한 설명 섹션이 명시적으로 상기 용어들을 규정한 경우가 아니라면, 이 시스템을 상기 설명에 공개된 구체적인 예들로 한정되도록 구성되어서는 안된다. 따라서, 시스템의 실제 범주는 공개된 예들뿐만 아니라, 청구항들 하에서 테크놀로지를 구현하거나 실행하는 모든 등가의 방식들을 포괄한다.
전술한 바로부터, 시스템과 방법의 구체적 예들이 설명을 목적으로 여기에 기술되었지만, 다양한 수정들이 본 발명의 사상 및 범주로부터 벗어나는 일 없이 이루어질 수 있다는 것을 이해할 것이다. 본 발명이 속한 기술 분야에서 통상의 지식을 가진 자라면, 여기에 설명된 실시예들의 특정 특징들이 여기에 기술된 다른 실시예들의 특징들과 조합하는데 이용될 수 있고, 여기에 기술된 실시예들이 특징들 모두가 여기에만 속하는 일 없이 구현 또는 실행될 수 있음을 알 것이다. 기술된 실시예들 상에서의 상기와 같은 변형은 숙련된 자에게 명백할 것이며, 다른 실시예들로부터의 특징들의 혼합 및 매칭을 포함하는 변형을 포함하고, 이들은 본 발명의 정신에 속한다.
전술한 공개를 감안하여 본 발명이 속한 기술 분야에서 통상의 지식을 갖는 자에게 명백한 바와 같이, 많은 변형, 수정, 추가 및 순열은 그 정신 또는 범주를 벗어나는 일 없이 본 발명의 실행에 가능하다. 여기에 설명된 실시예들은 예들일 뿐이다. 다른 예시적 실시예들은 공개된 실시예들의 특징들을 조합함으로써, 한정 없이, 얻어질 것이다. 그러므로 후술하는 첨부한 청구항들 및 이후에 도입되는 청구항들은 그들의 진정한 사상 및 범주 내에서 상기의 모든 변형, 수정, 순열, 추가, 조합 및 서브―조합을 포함하도록 해석되는 것이다.
16 이미지 프로세서
12 디스플레이
112 이미지 데이터 준비부
114 원본 이미지 데이터
116 이미지 분석 모듈
118 윈도윙 모듈
119 맵핑 유닛

Claims (16)

  1. 이미지 데이터를 분배하기 위한 방법으로서,
    상기 이미지 데이터의 범위를 결정하는 단계;
    상기 이미지 데이터의 저 비트―심도 표현을 생성하기 위해 상기 이미지 데이터를 감소된 비트―심도 포맷으로 맵핑하는 단계로서, 상기 저 비트 심도 표현(lower bit depth representation)의 최대 범위에 대한 상기 저 비트 심도 표현의 범위의 비율이 상기 이미지 데이터의 최대 범위에 대한 상기 이미지 데이터의 범위의 비율보다 크게 하는 맵핑을 통해 상기 이미지 데이터를 맵핑하는 단계;
    상기 맵핑을 특성화하는 메타데이터(metadata)를 생성하는 단계; 및
    상기 메타데이터를 상기 저 비트 심도 표현과 연계시키는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 저 비트 심도 표현은 상기 메타데이터와 상기 저 비트 심도 표현 모두를 포함하는 분배 포맷(distribution format)을 제공하기 위해, 상기 메타데이터와 상기 저 비트 심도 표현을 인코딩하는 단계를 포함하는, 방법.
  3. 제 1 항에 있어서,
    상기 이미지 데이터를 맵핑하기 전에 톤 압축(tone compression)을 수행하는 단계를 포함하는, 방법.
  4. 제 1 항에 있어서,
    비디오의 복수 프레임들에 대해 상기 방법을 반복하는 단계를 포함하고, 상기 맵핑은 상기 프레임들의 상이한 것들에 대해 상이한, 방법.
  5. 제 1 항에 있어서,
    디스플레이를 위해 상기 저 비트 심도 표현과 상기 메타데이터를 분배하는 단계를 포함하는, 방법
  6. 제 5 항에 있어서,
    상기 메타데이터와 상기 저 비트 심도 표현을 분배하는 단계는 비―일시적(non―transitory) 분배 매체 상에 상기 메타데이터 및 상기 저 비트 심도 표현을 기록하는 단계를 포함하는, 방법.
  7. 제 1 항에 있어서,
    보다 큰 톤 디테일(tone detail)을 포함하는 상기 이미지 데이터의 범위의 일부를 식별하는 단계, 및 상기 식별된 일부가 상기 식별된 일부에 의해 점유된 상기 이미지 데이터의 범위의 부분보다 큰 상기 저 비트 심도 표현의 최대 범위의 부분을 점유하는 상기 저 비트 심도 표현의 일부에 대해 맵핑되는 맵핑을 생성시키는 단계를 포함하는, 방법.
  8. 제 1 항에 있어서,
    상기 저 비트 심도 표현은 9 이하의 비트 심도를 갖고, 상기 이미지 데이터는 10 이상의 비트 심도를 갖는, 방법.
  9. 이미지들을 디스플레이하기 위한 방법으로서,
    제 1 비트 심도 및 상응하는 메타데이터를 갖는 제 1 포맷에서 이미지 데이터를 얻는 단계;
    상기 메타데이터에 기초하여, 상기 제 1 비트 심도보다 큰 제 2 비트 심도를 갖는 제 2 포맷으로 상기 이미지 데이터를 맵핑하기 위한 톤 맵핑(tone mapping)을 생성시키는 단계;
    상기 이미지 데이터를 상기 제 2 포맷으로 맵핑하기 위해 상기 톤 맵핑을 적용하는 단계; 및
    상기 제 2 포맷 데이터를 디스플레이하는 단계를 포함하는, 방법.
  10. 이미지 프로세싱 장치로서,
    제 1 포맷의 이미지에 대한 이미지 데이터에서의 값들의 범위를 결정하고, 상기 제 1 포맷으로부터 상기 제 1 포맷보다 낮은 비트 심도를 갖는 제 2 포맷으로 상기 이미지에 대한 맵핑을 생성시키도록 구성된 이미지 분석기(image analyzer);
    상기 맵핑에 따라 상기 제 1 포맷으로부터 상기 제 2 포맷으로 상기 이미지를 맵핑하도록 구성된 맵핑 유닛; 및
    상기 제 2 포맷 이미지 데이터와 상기 맵핑을 표현하는 메타데이터를 분배 포맷으로 인코딩하도록 구성된 인코딩 유닛을 포함하는, 이미지 프로세싱 장치.
  11. 제 10 항에 있어서,
    상기 저 비트 심도 표현의 최대 범위에 대한 상기 저 비트 심도 표현의 범위의 비율은 상기 이미지 데이터의 최대 범위에 대한 상기 이미지 데이터의 범위의 비율보다 큰, 이미지 프로세싱 장치.
  12. 이미지 프로세싱 장치로서,
    제 1 비트 심도에서 인코딩된 이미지 데이터를 디코딩하도록 구성된 디코더; 및
    상기 이미지 데이터를 가변 맵핑(variable mapping)에 따라 고 비트 심도 표현으로 맵핑하도록 구성된 맵핑 유닛으로서, 상기 가변 맵핑은 상기 이미지 데이터와 연계된 메타데이터를 따라 설정되는, 상기 맵핑 유닛을 포함하는, 이미지 프로세싱 장치.
  13. 제 12 항에 있어서,
    상기 고 비트 심도 표현에 의해 표현된 이미지들을 디스플레이하기 위해 접속된 디스플레이를 포함하는, 이미지 프로세싱 장치.
  14. 제 13 항에 있어서,
    상기 디코더는 상기 이미지 데이터로부터 상기 메타데이터를 추출하도록 구성된, 이미지 프로세싱 장치.
  15. 제 12 항에 있어서,
    복수의 사전 규정된 맵핑들을 포함하고, 상기 장치는 상기 메타데이터에 기초하여 상기 사전 규정된 맵핑들 중 하나를 선택하도록 구성된, 이미지 프로세싱 장치.
  16. 제 12 항에 있어서,
    상기 이미지 데이터와 상기 고 비트 심도 표현 사이의 맵핑을 각각 제공하는 복수의 룩업 테이블들을 포함하고, 상기 맵핑 유닛은 상기 룩업 테이블들 중 하나에서 상기 고 비트 심도 표현의 값들을 조회하도록 구성된, 이미지 프로세싱 장치.

KR1020137013116A 2010-11-23 2011-11-17 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상 KR101496755B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US41672810P 2010-11-23 2010-11-23
US61/416,728 2010-11-23
PCT/US2011/061112 WO2012071235A1 (en) 2010-11-23 2011-11-17 Content metadata enhancement of high dynamic range images

Publications (2)

Publication Number Publication Date
KR20130082163A true KR20130082163A (ko) 2013-07-18
KR101496755B1 KR101496755B1 (ko) 2015-02-27

Family

ID=46146163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137013116A KR101496755B1 (ko) 2010-11-23 2011-11-17 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상

Country Status (6)

Country Link
US (1) US9275605B2 (ko)
EP (3) EP2643809B1 (ko)
KR (1) KR101496755B1 (ko)
CN (1) CN103210418B (ko)
PL (1) PL4053786T3 (ko)
WO (1) WO2012071235A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160131882A (ko) * 2015-05-06 2016-11-16 삼성전자주식회사 전자 장치 및 그의 동작 방법
US9712781B2 (en) 2013-09-06 2017-07-18 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2899979T3 (es) * 2011-05-10 2022-03-15 Koninklijke Philips Nv Generación y procesamiento de señales de imagen de rango dinámico alto
US9210208B2 (en) 2011-06-21 2015-12-08 The Nielsen Company (Us), Llc Monitoring streaming media content
EP2792145B1 (en) 2011-12-15 2018-03-21 Dolby Laboratories Licensing Corporation Backwards-compatible delivery of digital cinema content with extended dynamic range
JP5730439B2 (ja) * 2012-03-21 2015-06-10 富士フイルム株式会社 画像表示装置、撮影装置、画像表示システム及び方法
US9357197B2 (en) * 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
TWI586150B (zh) * 2012-06-29 2017-06-01 新力股份有限公司 影像處理裝置及非暫態電腦可讀儲存媒體
US8902328B2 (en) * 2013-03-14 2014-12-02 Konica Minolta Laboratory U.S.A., Inc. Method of selecting a subset from an image set for generating high dynamic range image
JP2015008361A (ja) * 2013-06-24 2015-01-15 ソニー株式会社 再生装置、再生方法、および記録媒体
WO2015008987A1 (ko) * 2013-07-14 2015-01-22 엘지전자 주식회사 디지털 방송 시스템에서 고품질의 색감 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
GB201314068D0 (en) * 2013-08-06 2013-09-18 Microsoft Corp Encoding Video Captured in low light
US9412336B2 (en) * 2013-10-07 2016-08-09 Google Inc. Dynamic backlight control for spatially independent display regions
JP5845485B2 (ja) * 2013-11-06 2016-01-20 株式会社アクセル 誤差耐性化処理方法並びにその方法を採用した予測符号化/復号化装置及び色座標変換装置
WO2015073377A1 (en) * 2013-11-13 2015-05-21 Dolby Laboratories Licensing Corporation Workflow for content creation and guided display management of edr video
EP2890129A1 (en) * 2013-12-27 2015-07-01 Thomson Licensing Method and device for encoding a high-dynamic range image and/or decoding a bitstream
JP2017507547A (ja) * 2014-01-03 2017-03-16 トムソン ライセンシングThomson Licensing ビデオコンテンツをレンダリングするときの超高精細解像度へのアップスケーリングを最適化するための方法、装置、およびコンピュータプログラム製品
CN106233706B (zh) * 2014-02-25 2020-01-03 苹果公司 用于提供具有标准动态范围和高动态范围两者的视频的向后兼容的装置和方法
JP6439418B2 (ja) * 2014-03-05 2018-12-19 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2015139203A1 (en) 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
EP3163894B1 (en) * 2014-06-27 2020-08-19 Panasonic Intellectual Property Management Co., Ltd. Data output device, data output method, and data generation method
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
KR20160031286A (ko) * 2014-09-12 2016-03-22 삼성전자주식회사 전자 장치의 표시 데이터 처리 방법 및 장치
WO2016080233A1 (ja) * 2014-11-17 2016-05-26 ソニー株式会社 送信装置、ハイダイナミックレンジ画像データ送信方法、受信装置、ハイダイナミックレンジ画像データ受信方法およびプログラム
US10062405B2 (en) * 2015-05-06 2018-08-28 Samsung Electronics Co., Ltd. Electronic device and method for operating the same
US10484690B2 (en) * 2015-06-04 2019-11-19 Intel Corporation Adaptive batch encoding for slow motion video recording
EP3304881B1 (en) * 2015-06-05 2022-08-10 Apple Inc. Rendering and displaying high dynamic range content
WO2017057926A1 (ko) * 2015-09-30 2017-04-06 삼성전자 주식회사 디스플레이 장치 및 이의 제어 방법
US10198794B2 (en) * 2015-12-18 2019-02-05 Canon Kabushiki Kaisha System and method for adjusting perceived depth of an image
JP2017151308A (ja) 2016-02-25 2017-08-31 キヤノン株式会社 情報処理装置および情報処理方法
US10019785B2 (en) * 2016-03-07 2018-07-10 Novatek Microelectronics Corp. Method of processing high dynamic range images using dynamic metadata
US10516810B2 (en) 2016-03-07 2019-12-24 Novatek Microelectronics Corp. Method of gamut mapping and related image conversion system
WO2017222778A1 (en) * 2016-06-24 2017-12-28 Flir Systems, Inc. Thermal-image based video compression systems and methods
CN109328463A (zh) * 2016-06-28 2019-02-12 交互数字Vc控股公司 用于传送高动态范围的区域背光元数据的方法和装置
US10609372B2 (en) 2017-09-29 2020-03-31 Dolby Laboratories Licensing Corporation Up-conversion to content adaptive perceptual quantization video signals
GB2575121B (en) 2018-06-29 2022-12-28 Imagination Tech Ltd Guaranteed data compression
TWI730428B (zh) * 2019-09-27 2021-06-11 瑞昱半導體股份有限公司 資料映射器與資料映射方法
KR20210121508A (ko) 2020-03-30 2021-10-08 삼성전자주식회사 이미지 신호 처리부의 동작 방법 및 이미지 신호 처리부를 포함하는 이미지 시스템
US11734806B2 (en) * 2021-11-24 2023-08-22 Roku, Inc. Dynamic tone mapping
CN114428869A (zh) * 2021-12-20 2022-05-03 北京镁伽科技有限公司 测试图像的输出显示方法、装置及图像信号发生器
WO2024064054A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Method and device for generating metadata estimations based on metadata subdivisions
EP4354453A1 (en) * 2022-10-11 2024-04-17 Koninklijke Philips N.V. Communicating medical image data

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829301B1 (en) * 1998-01-16 2004-12-07 Sarnoff Corporation Enhanced MPEG information distribution apparatus and method
US6118820A (en) 1998-01-16 2000-09-12 Sarnoff Corporation Region-based information compaction as for digital images
TWI285871B (en) 1999-05-10 2007-08-21 Matsushita Electric Ind Co Ltd Image display device and method for displaying image
JP4556319B2 (ja) * 2000-10-27 2010-10-06 ソニー株式会社 画像処理装置および方法、並びに記録媒体
EP1359746A4 (en) 2001-05-31 2006-06-28 Matsushita Electric Ind Co Ltd APPARATUS AND METHOD FOR IMAGE PROCESSING
TWI231701B (en) 2001-06-14 2005-04-21 Matsushita Electric Ind Co Ltd Automatic tone correction device, automatic tone correction method, and tone correction program recording medium
CN100531291C (zh) 2004-11-01 2009-08-19 彩色印片公司 对增强的色彩空间内容进行母版制作和分发的方法和系统
JP2006276677A (ja) 2005-03-30 2006-10-12 Toshiba Corp 表示装置と表示装置の駆動方法
KR100716791B1 (ko) * 2005-08-08 2007-05-14 삼성전기주식회사 이미지 압축디바이스 및 그 방법
TWI319688B (en) 2006-03-16 2010-01-11 Quanta Comp Inc Method and apparatus for adjusting contrast of image
JP4203081B2 (ja) 2006-05-19 2008-12-24 株式会社東芝 画像表示装置および画像表示方法
US8155454B2 (en) * 2006-07-20 2012-04-10 Qualcomm Incorporated Method and apparatus for encoder assisted post-processing
KR20080015626A (ko) 2006-08-16 2008-02-20 삼성전자주식회사 영상처리장치 및 영상처리방법
WO2008095037A2 (en) * 2007-01-30 2008-08-07 Fergason Patent Properties, Llc Image acquistion and display system and method using information derived from an area of interest in a video image implementing system synchronized brightness control and use of metadata
US20090226152A1 (en) 2008-03-10 2009-09-10 Hanes Brett E Method for media playback optimization
ES2389458T3 (es) 2008-07-10 2012-10-26 The University Of Warwick Métodos y dispositivos para la compresión de datos de vídeo HDR
KR101337076B1 (ko) * 2008-10-07 2013-12-05 엘지디스플레이 주식회사 액정표시장치 및 그 구동 방법
KR20100045080A (ko) * 2008-10-23 2010-05-03 삼성전자주식회사 엘시디 모듈 및 이를 구비한 디스플레이 시스템
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
EP2394263B1 (en) 2009-02-06 2021-05-05 Semiconductor Energy Laboratory Co, Ltd. Method for driving display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9712781B2 (en) 2013-09-06 2017-07-18 Lg Electronics Inc. Method and apparatus for transmitting and receiving ultra-high definition broadcasting signal for high dynamic range representation in digital broadcasting system
KR20160131882A (ko) * 2015-05-06 2016-11-16 삼성전자주식회사 전자 장치 및 그의 동작 방법

Also Published As

Publication number Publication date
EP2643809A4 (en) 2014-12-17
EP3716632A1 (en) 2020-09-30
CN103210418A (zh) 2013-07-17
PL4053786T3 (pl) 2024-04-08
EP3716632B1 (en) 2022-05-04
EP2643809A1 (en) 2013-10-02
WO2012071235A1 (en) 2012-05-31
EP4053786B1 (en) 2023-12-27
EP2643809B1 (en) 2020-06-24
US9275605B2 (en) 2016-03-01
KR101496755B1 (ko) 2015-02-27
US20130235072A1 (en) 2013-09-12
EP4053786A1 (en) 2022-09-07
CN103210418B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
KR101496755B1 (ko) 고 다이나믹 레인지 이미지들의 컨텐츠 메타데이터 향상
US11423523B2 (en) Apparatus and method for dynamic range transforming of images
US11183143B2 (en) Transitioning between video priority and graphics priority
CN107836118B (zh) 像素预处理和编码的方法、装置和计算机可读存储介质
US9654701B2 (en) Global display management based light modulation
CN107077726B (zh) 使用扩展颜色范围的内容映射
EP3672219A1 (en) Method and device for determining control parameters for mapping an input image with a high dynamic range to an output image with a lower dynamic range
CN110999300B (zh) 用于图像/视频处理的单通道逆映射
EP3672254A1 (en) Decoding an image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180208

Year of fee payment: 4