KR20060109260A - 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템 - Google Patents

수퍼 디더링을 이용한 비디오 처리 방법 및 시스템 Download PDF

Info

Publication number
KR20060109260A
KR20060109260A KR1020050093060A KR20050093060A KR20060109260A KR 20060109260 A KR20060109260 A KR 20060109260A KR 1020050093060 A KR1020050093060 A KR 1020050093060A KR 20050093060 A KR20050093060 A KR 20050093060A KR 20060109260 A KR20060109260 A KR 20060109260A
Authority
KR
South Korea
Prior art keywords
dithering
color
temporal
spatial
pixel
Prior art date
Application number
KR1020050093060A
Other languages
English (en)
Other versions
KR100782821B1 (ko
Inventor
닝 쑤
김영택
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20060109260A publication Critical patent/KR20060109260A/ko
Application granted granted Critical
Publication of KR100782821B1 publication Critical patent/KR100782821B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2044Display of intermediate tones using dithering
    • G09G3/2051Display of intermediate tones using dithering with use of a spatial dither pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

컬러 비디오 양자화의 수퍼 디더링(super dithering) 방법은 입력 비디오 보다 더 적은 컬러 비트 깊이를 가진 화면 표시 장치상에서 인식된 비디오 품질을 유지시킨다. 수퍼 디더링은 인간의 시각 시스템의 공간적 및 시간적인 특성 모두에 의존하며, 공간적 디더링은 인간의 눈의 저역 통과 공간적 특성을 고려하기 위하여 적용되며, 반면에 시간적 디더링은 공간적 디더링의 양자화 레벨을 결정하기 위하여 적용된다.

Description

수퍼 디더링을 이용한 비디오 처리 방법 및 시스템{Methods and systems for video processing using super dithering}
도 1A는 본 발명의 일 실시예에 따른 컬러 양자화 시스템 예를 보여주며 입력 컬러 신호를 출력 신호의 미리 정해진 양자화 레벨로 양자화 한다.
도 1B는 도 1A의 컬러 양자화 시스템의 더 상세한 블록도를 보여준다.
도 2는 도 1B에서의 분해 블록의 일 실시예의 블록도 예시를 보여준다.
도 3은 도 1B에서의 공간 디더링 블록의 일 실시예의 블록도 예시를 보여준다.
도 4는 도 1B에서의 공간과 시간상의 변조 블록의 일 실시예의 블록도 예시를 보여준다.
도 5는 도 1B에서의 검사 테이블(lookup table) 블록의 일 실시예의 블록도 예시를 보여준다.
본 발명은 일반적으로 비디오 및 이미지 처리에 관한 것이며, 특히 비트 깊이가 불충분한 화면 표시 장치에 대해 비디오 품질을 향상시키기 위하여 비디오 시 퀀스들의 컬러 양자화 또는 재양자화에 관한 것이다.
24 비트 RGB 컬러 공간은 일반적으로 모니터, 텔레비전 등과 같은 많은 화면 표시 장치에 사용된다. 24 비트 RGB 화면 표시 장치상에 표시되기 위하여, 고정밀도의 캡쳐 또는 처리 시스템으로부터의 생기는 이미지들은 우선 3개의 8 비트 트루 컬러(true color) 신호들로 양자화되어야 한다. 과거에는, 이 24 비트 컬러 공간은 컬러 표현에 대하여 충분한 것 이상이라고 여겨졌다. 그러나, 화면 표시 장치 기술이 진보하고 밝기 레벨이 증가함에 따라, 소비자들은 더 이상 기존의 24 비트 화면 표시 장치들에 만족하고 있지 않다.
더 높은 비트 처리 칩들과 드라이버들을 포함하는 더 고성능의 비트-깊이 화면 표시 장치들이 화면 표시 장치 산업에 있어서 유행이 되고 있다. 여전히, 기존의 화면 표시 장치들과 가까운 미래에 생산될 화면 표시 장치들의 대부분은 채널당 8 비트들이다. 8 비트 화면 표시 장치들을 사용하여 채널당 8 비트들 보다 더 많은 컬러 데이터를 표현하는 것과 동시에 비디오 품질을 유지하는 것은 매우 바람직하다.
더 적은 비트 이미지들을 사용하여 더 많은 비트 이미지들을 표현하려는 시도는 인쇄 단체에서 있어 왔다. 하프톤닝(halftoning) 알고리즘이 레이저나 잉크젯 프린터로 인쇄하기 위하여 연속적인-톤(tone)의 이미지들을 이진(binary) 이미지들로 변환시키기 위하여 사용된다. 하프톤닝 방법들의 두 부류가 주로 사용되며, 이는 디더링과 오차 확산이다. 양 방법은 인간의 시각 시스템의 저역 통과 특성을 이용하며, 인간이 보기에 덜 인식되는 고주파 영역으로 양자화 오차들 을 재분배한다. 디더링과 오차 확산 사이의 주요한 차이는 디더링은 픽셀의 좌표에 기초하여 픽셀별로 조작하며, 오차 확산 알고리즘은 러닝(running) 오차에 기초하여 조작한다는 것이다. 오차 확산에 의한 하프톤닝의 하드웨어 구현은 디더링에 의한 것보다 더 많은 메모리를 요구한다.
인쇄를 위하여 개발된 하프톤닝 알고리즘은 8 비트 비디오 화면 표시 장치를 사용하여 더 많은 비트 깊이를 표현하는데 사용될 수 있다. 일반적으로, 공간 디더링은 단순하고 빠르기 때문에 비디오 양자화에 적용된다. 그러나, 비디오 화면 표시 장치들에 대하여, 시간적 차원(시간)은 표현될 컬러 정밀도를 높이기 위하여 시간 영역에서의 인간의 시각 시스템의 통합을 이용하는 것을 가능하게 한다. 그렇게 하는 방법들 중의 하나는 기존의 2차원 디더링 방법들을 3차원 공간과 시간상의 디더링으로 일반화하는 것이며, 이는 3차원 디더링 마스크를 사용하는 것과 2차원 공산상의 디더링 알고리즘을 시간상의 오차 확산과 결합시키는 것을 포함한다. 또한, 오차 확산 알고리즘들은 3차원 확산 필터를 이용하여 직접 3차원으로 일반화될 수 있다. 이들 방법들은 단순히 2차원 하프톤닝 방법들을 3차원으로 확장하며, 인간의 시각 시스템의 시간적 특성들을 고려하지 않는다. 게다가, 시간적 오차 확산 방법들은 하드웨어 구현에 있어서 비용이 드는 프레임 메모리를 필요로 한다.
본 발명이 이루고자 하는 기술적 과제는 고품질의 비디오 이미지를 저성능의 화면 표시 장치상에서 본래 이미지의 품질을 유지시킬 수 있도록 하는 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템을 제공하는 것이다.
본 발명은 상기 단점들을 역점을 두어 다룬다. 본 발명에 따른 컬러 비디오 양자화에 대한 수퍼 디더링 방법은 입력 비디오 보다 더 적은 컬러 비트 깊이를 가진 화면 표시 장치상에서 인식된 비디오 품질을 유지시킨다. 수퍼 디더링은 인간의 시각 시스템의 공간적 및 시간적인 특성 모두에 의존하며, 공간적 디더링은 인간의 눈의 저역 통과 공간적 특성을 고려하기 위하여 적용되며, 반면에 시간적 디더링은 공간적 디더링의 양자화 레벨을 결정하기 위하여 적용된다.
일 실시예에서, 본 발명은 고정밀도 컬러 비디오 양자화에 대해 더 나은 지각적 결과를 위해 공간 디더링 처리와 데이터 의존적인 시간 디더링 처리를 결합시키는 컬러 양자화 방법을 제공한다. 시간 디더링의 크기(즉, 각 픽셀에 대해 고려되는 프레임들의 수)는 비디오 화면 표시 장치의 프레임 레이트(frame rate)에 의해 제한된다. 일례에서는, 프레임 레이트 60Hz에서 시간 디더링에 대하여 3 프레임들이 이용된다. 시간 디더링인 데이터에 의존하는 방법이며, 다른 컬러 값들과 다른 위치에 대하여 시간 디더링 체계는 차이가 난다. 이러한 결합된 2차원 공간 디더링과 데이터 의존적인 시간 디더링이 본 발명에 따른 수퍼 디더링이라고 불리며, 우선 각 픽셀에 대한 컬러 값을 중간 양자화 레벨로 디더링하고 그 다음에 그것들을 디더링함으로써 컬러의 이 중간 레벨들을 최종의 양자화 레벨로 바꾸기 위하여 시간 디더링을 사용한다.
본 발명에 따른 다른 실시예들, 특징들 및 이점들은 첨부된 도면과 함께 아래의 상세한 설명으로부터 곧 알 수 있을 것이다.
본 발명에 따른 컬러 비디오 양자화에 대한 수퍼 디더링 방법은 입력 비디오 보다 더 적은 컬러 비트 깊이를 가진 화면 표시 장치상에서 인식된 비디오 품질을 유지시킨다. 수퍼 디더링은 인간의 시각 시스템의 공간적 및 시간적인 특성 모두에 의존하며, 공간적 디더링은 인간의 눈의 저역 통과 공간적 특성을 고려하기 위하여 적용되며, 반면에 시간적 디더링은 공간적 디더링의 양자화 레벨을 결정하기 위하여 적용된다.
일 실시예에서, 본 발명은 고정밀도 컬러 비디오 양자화에 대한 더 나은 지각적 결과들을 위해 2차원 공간 디더링 처리와 데이터에 의존하는 시간 디더링 처리를 결합하는 컬러 양자화 방법을 제공한다. 다른 공간 디더링 처리 또한 이용될 수 있다. 시간 디더링의 크기(즉, 각 픽셀에 대한 고려되는 프레임들의 수)는 비디오 화면 표시 장치의 프레임 레이트에 의해 제한된다. 일례에서는, 프레임 레이트 60Hz에서 시간 디더링에 3 프레임들이 이용된다. 시간 디더링은 데이터에 의존하는 방법이며, 다른 컬러 값들과 다른 위치에 대하여 시간 디더링 체계는 차이가 있다. 이러한 결합된 2차원 공간 디더링과 데이터에 의존하는 시간 디더링은 (본 명세서의 아래에서 더 상세히 기술된) 수퍼 디더링(super dithering)이라는 불리며, 우선 각 픽셀의 컬러 값들을 중간 양자화 레벨로 디더링하고 그 다음에 이 컬러의 중간 레벨들을 디더링함으로써 최종 양자화 레벨로 바꾸기 위하여 시간 디더링을 이용한다.
공간 디더링
공간 디더링은 공간 영역에 걸쳐 통합된 정보인 인간의 시각 시스템의 특성 에 의지함으로써 화면 표시 장치의 성능보다 더 깊이있게 만드는 방법들 중의 하나이다. 인간의 시각은 비록 패턴의 개별 요소들을 분해할 수 있을 때에도 조차 컬러의 균일한 색조의 미묘한 차이를 인식할 수 있으며, 이는 공간 영역내에서의 패턴의 평균값이다.
여기서 설명을 단순화하기 위하여, 우선 흑색(black) 및 백색(white)으로 디더링하는 것을 고려한다. 디더링 마스크는 쓰레숄드 계수들의
Figure 112005056086138-PAT00001
매트릭스 M(i,j)으로 정의된다. 하프톤(halftone)으로 될 입력 이미지는 입력 그레이 레벨들(gray level)들의
Figure 112005056086138-PAT00002
매트릭스 I(i,j)로 표현된다. 일반적으로, 디더링 마스크의 크기는 입력 이미지의 크기보다 더욱 더 작다. 즉,
Figure 112005056086138-PAT00003
. 출력 이미지는 흑색과 백색 두 가지 레벨들을 포함하는 흑백 이미지이다. 만약 흑색이 0으로 표현되고 백색이 1로 표현되면, 출력 이미지 O는 0과 1로 이루어진
Figure 112005056086138-PAT00004
매트릭스로 표현된다. 픽셀의 값 O(i,j)는 값 I(i,j) 및
Figure 112005056086138-PAT00005
을 만족하는 디더링 마스크 M에 의하여 결정된다.
이 흑백 디더링은 다수의 레벨을 가지는 멀티-레벨 디더링으로 쉽게 확장될 수 있다. 여기서 디더링 마스크의 쓰레숄드 계수들은 0과 1사이(즉, 0<M(i,j)<1)이며, 입력 이미지의 그레이 레벨들 I는 또한 0과 1사이(즉,
Figure 112005056086138-PAT00006
)로 정규화 된다고 가정한다. 각 가능한 입력 그레이 레벨 I(i,j)가
Figure 112005056086138-PAT00007
로 표현되는 아래쪽의 출력 레벨과
Figure 112005056086138-PAT00008
로 표현되는 위쪽의 출력 레벨 사이에 놓이도록 출력 이미지 O에 대한 다수의 양자화 레벨들이 있다.
Figure 112005056086138-PAT00009
는 I(i,j)와 같거나 더 작은 가장 큰 가능한 양자화 레벨로 정의되며,
Figure 112005056086138-PAT00010
Figure 112005056086138-PAT00011
보다 큰 다음 레벨로 정의된다. 그래서, 디더링의 출력 O(i,j)는
Figure 112005056086138-PAT00012
로 정의 될 수 있다.
세 성분들 R, G 및 B를 포함하는 컬러 이미지들에 대하여, 공간 디더링은 모든 세 성분들에 대하여 독립적으로 수행될 수 있다.
디더링 마스크들에 대한 두 개의 다른 부류들이 있으며, 하나는 분산 점 마스크(dispersed dot mask)이고 다른 하나는 밀집 점 마스크(clustered dot mask)이다. 분산 점 마스크는 작고 고립된 픽셀들의 정확한 인쇄가 신뢰성 있는 있는 경우에 바람직하며, 반면에 밀집 점 마스크는 작고 고립된 픽셀들을 정확하게 수용할 수 없는 처리인 경우에 필요하다. 본 발명에 따르면, 화면 표시 장치는 픽셀들을 정확하게 수용할 수 있기 때문에, 분산 점 마스크가 이용된다. 분산 점 마스크의 쓰레숄드 패턴(threshold pattern)은 보통 생성된 매트릭스들이 모든 그레이 레벨에 대하여 셀(cell)의 전역에서 흑색과 백색의 균일성을 보장하도록 생성된다. 각 그레이 레벨에 대하여, 디더링된 패턴(dithered pattern)의 평균값은 대략 그레이 레벨과 동일하다. 베이어 패턴(Bayer pattern)들에 대하여, 큰 디더링 마스크의 크기는 더 작은 크기의 매트릭스로부터 순환적으로 형성될 수 있다.
시간 디더링
비디오 화면 표시 장치는 일반적으로 매우 고속의 재생 속도(refresh rate)로 이미지들을 표시하며, 재생 속도는 충분히 높아서 인간의 시각 시스템에서는 컬러 퓨전(color fusion)이 생기며 눈은 두 개의 이웃하는 프레임들 사이의 차이를 인식하지 못한다. 인간의 눈은 또한 시간적으로 저역 통과 특성을 가져서 화면 표시 장치상에서의 비디오는 재생 속도가 충분히 높을 때에 연속적으로 보인다. 이 저역 통과 특성은 더 고정밀도의 컬러들의 지각을 달성하기 위하여 시간적 평균의 이용을 가능하게 한다. 실험들은 고속 재생 속도에서 두 개의 약간 다른 컬러들이 보는 사람에게 교대로 보여지는 경우에 보는 사람은 두 개의 컬러들이 번갈아 보이는 대신에 두 개의 컬러의 평균값을 본다는 사실을 보여준다. 그래서, 화면 표시 장치는 고속 재생 속도에서라면 화면 표시 장치의 물리적 성능보다 더 많은 컬러 색조들을 보여줄 수 있다. 예를 들면, 아래 표 1은 평균 색조들을 얻기 위하여 두 개의 프레임들
Figure 112005056086138-PAT00013
Figure 112005056086138-PAT00014
의 사용을 보여준다. 처음의 두 라인(line)들
Figure 112005056086138-PAT00015
Figure 112005056086138-PAT00016
은 두 프레임들의 컬러 값들이며, 세 번째 라인 Avg는 고속 재생 속도에서 두 개의 프레임들이 교대로 보여진다면 인식될 수 있는 평균값들을 보여준다. 이 두 프레임 평균의 경우에 있어서, 컬러의 색조들의 1 이상의 비트 정밀도를 이룰 수 있다.
[표 1]
두 프레임들의 시간적 평균으로 더 고정밀도를 달성
Figure 112005056086138-PAT00017
0 0 1 1 2 2 3 ...
Figure 112005056086138-PAT00018
0 1 1 2 2 3 3 ...
Avg 0 0.5 1 1.5 2 2.5 3 ...
이는 다수의 프레임 평균으로 일반화할 수 있다. (즉, 재생 속도가 허용하는 때에, 더 많은 프레임들이 더 고정밀도의 컬러들을 표혀하기 위하여 이용된다.) 예를 들면, 아래 표 2는 본래 컬러 양자화 간격의 1/3의 정밀도로서의 중간 컬러들을 얻기 위하여 세 개의 프레임들
Figure 112005056086138-PAT00019
,
Figure 112005056086138-PAT00020
Figure 112005056086138-PAT00021
의 이용을 보여준다.
[표 2]
세 프레임들의 시간적 평균으로 더 고정밀도를 달성
Figure 112005056086138-PAT00022
0 0 0 1 1 1 2 ...
Figure 112005056086138-PAT00023
0 0 1 1 2 2 3 ...
Figure 112005056086138-PAT00024
0 1 1 1 2 2 2 ...
Avg 0 0.33 0.66 1 1.33 1.66 2 ...
f 개의 프레임드을 이용할 수 있는 능력을 가정하면, 그때 가장 작은 인식 가능한 차이는 본래 양자화 간격의 1/f이 될 것이며, 화면 표시 장치의 인식 가능한 비트 깊이(bit depth)는
Figure 112005056086138-PAT00025
배로 증가한다. 예를 들면, 만약 화면 표시 장치가 채널당 8비트이고 두 프레임 평균이 이용된다면, 화면 표시 장치는 채널당
Figure 112005056086138-PAT00026
비트들을 표시할 수 있을 것이다.
이제 이 시간 디더링에 대한 알고리즘 예를 설명한다. 전 단락에서와 같이 동일한 표기법이 사용되지만, 입력 이미지들 I는 이제 프레임상에 추가적인 차원으로 수 t를 가지는 이미지 시퀀스들이며, 출력 픽셀 값 O(i,j,t)는 입력 픽셀 I(i,j,t)와 평균에 사용될 프레임들의 수 f에 기초하여
Figure 112005056086138-PAT00027
와 같이 결정될 수 있다.
시간 평균 함수는 인간의 시각 시스템의 속성들로 알려진 아래 내용에 의해 제한된다. 두 개의 색 광원이 바뀌거나 깜박이는 때에, 깜박임이 명암도만의 변화로서 보이는 경우라면, 저속의 깜박임에서는 컬러가 교대로 보이나, 주파수를 15-20Hz로 올린 경우에는 컬러 깜박임 퓨전(fusion)이 생긴다. 관찰자는 두 광원들의 명암도들의 균형을 (광원들이 등휘도(equiluminant)라 불리는 점에서) 잡음으로써 모든 깜박임의 감각을 제거할 수 있다.
따라서, 두 개의 주요한 제약들이 있다. 이는 (1)화면 표시 장치의 재생 속도 및 (2)번갈아 나타나는 컬러들의 휘도 차이이다. 첫 번째 제약에 대하여, 컬러 깜박임 퓨전이 시작되기 위하여 최소 10-20 Hz의 교대 속도가 필요하며, 이는 시간 평균에 대해 사용되는 프레임들의 수를 제한하여 달성 가능한 비트-깊이를 제한한다. 대부분의 HDTV 프로그레시브 스캔(progressive scan)은 재생 속도로 60 Hz를 가지기 때문에, 시간 평균에 사용될 수 있는 프레임 수는 3 또는 4 프레임들로 제한된다. 두 번째 제약에 대하여, 교대로 나타나는 컬러들의 휘도 차이는 컬러 깜박임 퓨전이 발생한 후에 깜박임을 줄이기 위하여 최소화 되어야 한다.
인자들의 최적화
표 1과 2를 다시 참조하면, 컬러의 시간적 평균 지각을 얻기 위하여 다른 프레임들에 대해 값들을 할당하는 다른 가능성들이 있음을 알 수 있다. 예를 들면, 값 0.5는 표 1에서 보인 것과 같이
Figure 112005056086138-PAT00028
=0,
Figure 112005056086138-PAT00029
=1 뿐만 아니라
Figure 112005056086138-PAT00030
=1,
Figure 112005056086138-PAT00031
=0을 할당함으로써 얻을 수 있다. 컬러 화면 표시 장치가 세 개의 컬러 채널들 즉 적(red), 녹(green), 청(blue) (RGB)를 독립적으로 조절할 수 있다는 것을 더 고려하면, 동를 들면, 아래 표 3은 컬러
Figure 112005056086138-PAT00032
={0.5, 0.5, 0.5}을 얻는 두 개의 다른 가능성들을 보여준다.
[표 3]
세 개의 컬러 성분들의 시간 평균
예 1 R G B
Figure 112005056086138-PAT00033
0 0 0
Figure 112005056086138-PAT00034
1 1 1
Avg 0.5 0.5 0.5
예 2 R G B
Figure 112005056086138-PAT00035
0 1 0
Figure 112005056086138-PAT00036
1 0 1
Avg 0.5 0.5 0.5
인간의 시각 시스템의 속성들을 알면, 있음직한 깜박임 효과들은 번갈아 나타나는 컬러들의 휘도 값들의 균형을 맞춤으로써 줄일 수 있다. 원하는 컬러을 얻기 위하여 평균될 수 있는 모든 시간적 컬러 조합들로부터 휘도 변화들을 최소화하는 하나를 선택한다.
휘도 Y는 선형 결합 Y=L(R,G,B)로 적,녹 및 청 성분들로부터 유도될 수 있다. 휘도와 세 성분들 (R, G, B) 사이에서의 관계는 장치 의존적이다. 화면 표시 장치의 다른 물리적 설정은 다른 원색들(primaries) 및 다른 이득들을 가질 수도 있다. NTSC 표준에 관해서는, Y는 다음과 같이 정의된다.
Figure 112005056086138-PAT00037
.
반면에 HDTV 비디오는 Y를 다음과 같이 정의한다.
Figure 112005056086138-PAT00038
.
화면 표시 장치가 NTSC 표준과 호환된다고 가정하면, 표 3에서 보인 두 경우들에 대하여 휘도 차이
Figure 112005056086138-PAT00039
Figure 112005056086138-PAT00040
는 아래와 같이 결정된다.
Figure 112005056086138-PAT00041
Figure 112005056086138-PAT00042
Figure 112005056086138-PAT00043
는 값
Figure 112005056086138-PAT00044
보다 매우 더 작으며 그래서 인식 가능하다 할지라도 깜박임은 두 번째 경우에 대하여 더욱 더 적어야 한다.
Figure 112005056086138-PAT00045
배 더 정밀한 컬러 깊이를 얻기 위하여 f 개의 프레임들이 사용된다고 가정하면, 입력 컬러 (r, g, b)는 이미 이 정밀도로 양자화 되었고, 각 프레임 t에 대한 값들 (
Figure 112005056086138-PAT00046
,
Figure 112005056086138-PAT00047
,
Figure 112005056086138-PAT00048
)는 결정될 필요가 있다. 여기서
Figure 112005056086138-PAT00049
을 만족하며 (r, g, b)는 아래 식 (1), (2) 및 (3)을 만족하여 (R, G, B)보다 더 높은 정밀도를 가진다.
Figure 112005056086138-PAT00050
Figure 112005056086138-PAT00051
Figure 112005056086138-PAT00052
위 관계식들 (1), (2) 및 (3)을 만족시키는 값들의 많은 다른 집합들
Figure 112005056086138-PAT00053
이 있다. 상기 관계식에 대한 모든 가능한 해들은 해 집합
Figure 112005056086138-PAT00054
와 같이 정의될 수 있다. 다른 컬러들의 f 개의 프레임들의 휘도의 균형을 잡기 위하여, 집합
Figure 112005056086138-PAT00055
Figure 112005056086138-PAT00056
과 같이 선택될 수 있으며, 이는
Figure 112005056086138-PAT00057
와 동등하여 그 결과 집합 RGB 내에서 최대 휘도 차이는 최소화된다.
사실상, 집합 D에는 많은 가능한 해들이 있으며 최대 휘도 차이는 아주 작은 값으로 최소화될 수 있다. 시간 디더링의 크기(즉, 프레임 수 f)가 고정될 때에, 가능성의 수는 시간 디더링의 범위(즉, 컬러 값들
Figure 112005056086138-PAT00058
과 입력 컬러 (r, g, b) 사이에서 얼마나 많은 차이가 허용되는 지)에 의존한다. 허용되는 차이의 범위가 크면 클 수록, 얻을 수 있는 휘도 차이는 더 작아진다.
일례에서, 8비트 화면 표시 장치상에 RGB 값 (128.333, 128.333, 128.667)을 표현하기 위하여 3개의 프레임들이 사용된다. 우선, 각 컬러 성분에 대하여 입력 값들로부터 가장 작은 변화가 허용된다(즉, 128 및 129). 컬러들의 세 개의 프레임들의 가능한 최선의 조합은 아래 표 4에서의 예 1에서 보여지며, 세 프레임들의 최대 휘도 차이는 0.299이다.
[표 4]
다른 조합들의 비교
예 1 R G B Y 예 2 R G B Y
Figure 112005056086138-PAT00059
128 128 129 128.1
Figure 112005056086138-PAT00060
127 129 129 128.4
Figure 112005056086138-PAT00061
128 129 128 128.5
Figure 112005056086138-PAT00062
129 128 128 128.2
Figure 112005056086138-PAT00063
129 128 129 128.4
Figure 112005056086138-PAT00064
129 128 129 128.4
Avg 128 128.3 128.6 Avg 128 128.3 128.6
max(
Figure 112005056086138-PAT00065
)
0.299 max(
Figure 112005056086138-PAT00066
)
0.114
그러나, 만약 값들의 범위가 127, 128 및 129로 넓혀진다면, 최상의 조합은 표 4에서 예 2로서 보여지며, 최대 휘도 차이는 0.114로 줄어든다.
그래서, 범위를 넓히는 것은 휘도 차이의 감소를 가능케하며, 이로 인해 깜박임이 줄어든다. 그러나, 언급했던 것과 같이, 컬러 성분들과 그들의 휘도 값들 사이의 관계는 장치 의존적이다. 다른 화면 표시 장치에 대한 컬러 온도(color temperature), 컬러 원색들(color primaries), 개개의 컬러 이득들의 다른 설정들이 있을 수 있으며, 휘도와 세 컬러 값들 사이의 관계는 불확실해질 수 있다. 휘도 차이가 화면 표시 장치의 설정들에 의해 덜 영향을 받고 휘도 차이의 최소화는 비록 NTSC 표준에 기초하여 최적화되더라도 기본적으로 모든 화면 표시 장치들에 대해 작동하기 때문에 컬러 양자화 레벨들의 가장 작은 범위를 사용하는 것이 바람직하다.
이 경우에, 컬러 값들의 범위는
Figure 112005056086138-PAT00067
로서 제한된다. 각 컬러 성분들에 대하여, f=2에 대해서는 2 개까지의 다른 할당 가능성이 있고 f=3에 대해서는 3개까지의 다른 가능성이 있다. 일반적으로, 시간 평균에 대해 f 개의 프레임들을 사용할 때,
Figure 112005056086138-PAT00068
개까지의 다른 가능성들이 있다. 세 컬러 성분들을 고려하면, 전체의 선택들은
Figure 112005056086138-PAT00069
개까지 있다.
휘도 차이
Figure 112005056086138-PAT00070
에 대해,
Figure 112005056086138-PAT00071
이며,
Figure 112005056086138-PAT00072
을 만족하며, 최적화 처리는 값들
Figure 112005056086138-PAT00073
에 의존하지 않는다. 그래서, 최적화 처리에서 트리플들(triples) (r, g, b)에 대해 단지
Figure 112005056086138-PAT00074
만이 고려된다. 이미 정밀도 1/f로 양자화된 입력 컬러들에 대해, 차원
Figure 112005056086138-PAT00075
인 가능한
Figure 112005056086138-PAT00076
값들로 부터 차원
Figure 112005056086138-PAT00077
인 증가치
Figure 112005056086138-PAT00078
를 최소화 하는 휘도 차이로의 매핑을 구성하여, 각각의 입력 컬러에 대해 최소화 단계가 필요없게 된다.
위 최적화 처리는 특정 픽셀의 각 프레임 사이에서의 휘도 차이를 최소화한 다. 사실상, 프레임은 많은 픽셀들을 포함하며, 동일한 컬러의 작은 조각이 프레임들 사이에서 최적화된 인자들(parameters)의 동일한 집합을 사용하여 디더링 된다면 깜박임 효과는 강해질 것이다. 이는 프레임들 사이에서의 휘도 차이가 픽셀 단위로 최소화 되더라도 이웃하는 픽셀들에 걸쳐 누적되기 때문이다. 가능한 깜박임을 더 줄이기 위하여, 위에서 계산된 증가치들
Figure 112005056086138-PAT00079
를 최소화하는 서열들은 공간적으로 배분된다. f 개의 프레임들에 관한 시간 디더링에 대해, f! 개의 다른 서열들이 있다. 이들 다른 서열들은 이웃하는 f!개의 픽셀들의 집단들에 배분되어, 각 집단들에 대해 각 프레임은 누적 휘도값으로
Figure 112005056086138-PAT00080
를 가지고 누적 휘도 차이는 따라서 이웃하는 픽셀들의 이 집단에 대해 0으로 줄어든다. f에 대해 다른 값은 시간 디더링 인자들의 공간 분배의 다른 배열로 이끌 수도 있다. 예를 들면, f=2일 때, f!=2 개인 다른 서열들이 있다. 만약 이들 두 서열들을 0과 1로 표시하면, 공간적 분배는 그때 아래의 2차원 픽셀 포맷(format)이 될 수 있다.
0 1
1 0
더욱이, 모든 두 이웃하는 픽셀들은, 만약 픽셀들의 집단으로 여겨진다면, 0과 같은 누적된 휘도 차이를 가진다.
수퍼 디더링
인간의 시각 시스템의 공간 및 시간상의 특성들이 논의 되었고, 컬러 화면 표시 장치들에 대해 지각적으로 더 높은 정밀도 비트 깊이를 얻기 위하여 이들 특 성들을 독립적으로 이용하는 방법들을 나타내었다. 이 단락에서는, 본 발명의 일 실시예에 따른 공간적 디더링과 시간적 디더링을 결합시키는 수퍼 디더링 방법이 설명된다. 수퍼 디더링 방법은 우선 고정밀도 컬러 값들을 중간의 양자화 레벨들로 디더링하기 위하여 2차원 디더링 마스크를 이용한다. 그 다음에, 중간 양자화 레벨들을 얻기 위하여 시간 평균을 이용한다.
아래에서 크기
Figure 112005056086138-PAT00081
의 2차원 공간 디더링 마스크 M과 한정된 비트 깊이를 가지는 화면 표시 장치상에서의 f개의 프레임들의 시간 디더링에 대한, 양자화 간격을 1로 가정한 수퍼 디더링 알고리즘이 상세히 설명된다. 도 1A는 본 발명에 따른 컬러 양자화 시스템(100)의 블록도 예를 보여주며 입력 컬러 신호를 출력 신호의 미리 결정된 양자화 레벨로 양자화하는 수퍼 디더링 방법을 구현한다. 분해 블록(decomposition block)(102)는 픽셀의 세 컬러 성분들을 출력 양자화 레벨 값들 (R, G, B), 중간 양자화 레벨 증가치들
Figure 112005056086138-PAT00082
, 및 나머지(residue)들
Figure 112005056086138-PAT00083
인 세 부분들로 분해한다. 공간 디더링 블록(104)는 나머지들
Figure 112005056086138-PAT00084
에 기초하여 디더링 결과
Figure 112005056086138-PAT00085
를 계산하며, 픽셀의 공간상의 위치 (i,j) 및 디더링 마스크 M.A 덧셈(summation) 블록(108)은 계산된 중간 양자화 레벨 증가치들
Figure 112005056086138-PAT00086
을 디더링 결과
Figure 112005056086138-PAT00087
에 기초하여 새로운 중간 양자화 레벨 증가치
Figure 112005056086138-PAT00088
로 갱신한다. 변조(modulation) 블록(105)는 변조된 프레임 인덱스(index) t'를 계산하기 위하여 공간 위치 (i,j)와 픽셀의 시간상의 위치 t를 입력으로 취한다.
Figure 112005056086138-PAT00089
의 값과 변조된 프레임 인덱스에 기초하는 검사 테이블(lookup table)(106) 을 이용하면, 최적화에 의하여 구성된 매핑 F에서 세 개의 출력 양자화 레벨 증가치
Figure 112005056086138-PAT00090
이 얻어진다. 덧셈 블록(110)은 출력 픽셀
Figure 112005056086138-PAT00091
Figure 112005056086138-PAT00092
,
Figure 112005056086138-PAT00093
Figure 112005056086138-PAT00094
로부터 계산한다.
도 1B는 도 1A의 컬러 양자화 시스템(100)의 더 상세한 버전인 컬러 양자화 시스템(150)을 보여준다. 시스템(150) 예는 공간과 시간상의 변조 블록(159)뿐만 아니라 각 입력 성분에 대하여 세 개의 분해 블록들(152A, 152B 및 152C), 세 개의 공간 디더링 블록들(154A, 154B 및 154C) 및 세 개의 검사 테이블 블록들(160A, 160B 및 160C)을 포함한다. 컬러 양자화 시스템(150)을 아래에서 상세히 설명한다.
1. 최적화.
이 단계는 블록들(160A, 160B 및 160C)에서 사용되는 검사 테이블을 결정하기 위해 오프라인(offline)에서 수행된다. 시간 디더링에 대한 프레임 수 f 및 컬러 값들을 조작하는데 허용되는 범위 S에 기초하여, 입력 컬러들의 각 성분이 0에서 f까지의 값을 취하는 (그래서 차원이
Figure 112005056086138-PAT00095
인) 가능한 중간 레벨들
Figure 112005056086138-PAT00096
로부터 차원이
Figure 112005056086138-PAT00097
인 출력 컬러 값들의 집합
Figure 112005056086138-PAT00098
으로의 휘도 차이 최소화 매핑
Figure 112005056086138-PAT00099
를 구성한다. 이는 다음과 같다.
Figure 112005056086138-PAT00100
2.분해.
각 픽셀 I(i,j,k)={r, g, b}에 대하여, 분해 블록(152A, 152B 및 152C)은
Figure 112005056086138-PAT00101
로써 픽셀의 세 컬러 성분들로 각각 분해한다. 여기서
Figure 112005056086138-PAT00102
Figure 112005056086138-PAT00103
을 만족한다.
3.공간 디더링.
공간 디더링 블록들(154A, 154B 및 154C)은 픽셀의 공간상의 위치 (i,j) 및 디더링 마스크 M에 기초하여
Figure 112005056086138-PAT00104
로써
Figure 112005056086138-PAT00105
를 각각 계산한다.
4. 덧셈 I.
덧셈 블록들(158A, 158B 및 158C)은 디더링 결과
Figure 112005056086138-PAT00106
및 계산된
Figure 112005056086138-PAT00107
에 기초하여
Figure 112005056086138-PAT00108
로써
Figure 112005056086138-PAT00109
를 각각 계산한다.
5. 공간과 시간상의 변조 블록(159)는 변조된 프레임 인덱스 t'를 계산하기 위하여 픽셀의 공간상의 위치 (i,j) 및 시간상의 위치를 입력으로 취한다. 이 블록은 우선 서열의 인덱스를 얻기 위하여 (i,j)에서 공간상의 변조를 실행하고 그 다음에 결과로 생기는 인덱스에 기초하여 프레임 수를 다시 정리한다. 세 개의 프레임의 시간 디더링에 대한 공간과 시간상의 변조의 일 실시예는 아래 표 5 및 표 6에서 보이고 있다. 3!=6 개의 다른 서열들이 있으며 서열의 인덱스는 표 5에서 보인 것과 같이 공간상의 위치 (i,j)에 의존한다. 각 3x2 블록은 6 개의 다른 서열들을 포함한다. 이 공간상의 분포 예는
Figure 112005056086138-PAT00110
로 표현될 수 있다.
[표 5]
공간상의 위치에 기초한 서열 인덱스의 일 실시예
Figure 112005056086138-PAT00111
6 개의 인덱스 각각에 대해, 재정리된 프레임 수는 아래 표 6에 보이고 있다.
[표 6]
서열들과 그 인덱스의 일 실시예
Figure 112005056086138-PAT00112
6. 시간 디더링.
Figure 112005056086138-PAT00113
의 값들과 재정리된 프레임 인덱스에 기초하여 검사 테이블들(160A, 160B 및 160C)을 이용하면, 위 최적화에 의해 구성된 매핑 F에서 세 개의 컬러 값 증가치
Figure 112005056086138-PAT00114
이 각각 얻어진다.
7.덧셈 II.
덧셈 블록들(162A, 162B 및 162C)는
Figure 112005056086138-PAT00115
,
Figure 112005056086138-PAT00116
Figure 112005056086138-PAT00117
로써 출력 픽셀
Figure 112005056086138-PAT00118
를 각각 계산한다.
본 발명에 따른 일 실시예에서, 공간 디더링 마스크는 다음과 같이 선택된다.
Figure 112005056086138-PAT00119
.
동시에, 시간 평균에 허용되는 프레임 수는 3으로 설정되며, 컬러 신호 (r, g, b)에 대해 허용되는 컬러 값들의 범위들은 각각
Figure 112005056086138-PAT00120
이다 (즉, 증가치
Figure 112005056086138-PAT00121
는 단지 0 또는 1 값만을 갖는다). 결과적으로,
Figure 112005056086138-PAT00122
는 0, 1, 2, 3 값들을 취할 수 있으며 (
Figure 112005056086138-PAT00123
)에서부터
Figure 112005056086138-PAT00124
으로의 매핑은 차원
Figure 112005056086138-PAT00125
의 매핑이다. 아래 표 7의 예는 NTSC 표준에 기초하여 생성된 검사 테이블을 보여준다. 표 7에서의 각 부분은
Figure 112005056086138-PAT00126
출력인데 반면에 표 5에서 각 가능한 (
Figure 112005056086138-PAT00127
)를 참조하면
Figure 112005056086138-PAT00128
부분들이 있다. 심볼(symbol)
Figure 112005056086138-PAT00129
는 공간과 시간상의 변조의 결과에 의존하는 세 개의 프레임에서의 대응하는
Figure 112005056086138-PAT00130
를 의미한다. 예를 들면,
Figure 112005056086138-PAT00131
,
Figure 112005056086138-PAT00132
Figure 112005056086138-PAT00133
이라면, 대응하는
Figure 112005056086138-PAT00134
=(0,0,1,0,1,0,1,0,0)이다. 그래서 재정리된 프레임 수 t'=0에 대하여, 출력
Figure 112005056086138-PAT00135
=(0,0,1)이 된다.
[표 7]
세 개의 프레임들에 대한 검사 테이블의 일 실시예
Figure 112005056086138-PAT00136
Figure 112005056086138-PAT00137
도 2는 도 1B에서의 분해 블록(152A) (152B 또는 152C)의 실시예인 논리 함수(logic function)(200)의 블록도 예을 보여준다. 논리 함수(200)는 12 비트 데이터 입력을 세 개의 8 비트들, 2 비트들 및 4 비트들 깊이의 데이터 출력들로 분리한다. 입력 데이터의 최상위 8 비트들은 함수(200)의 8 비트 출력으로서 직접 출력된다. 최입력 데이터의 하위 4 비트들은 구성요소(202)에서 3으로 곱해지며, 그 중에 곱셈 결과의 최상위 2 비트들과 최하위 4 비트들은 함수(200)의 각각 2 비트 및 4 비트 출력들을 형성한다.
도 3은 도 1B에서의 공간 디더링 블록(154A) (154B 또는 154C)의 일 실시예인 함수(300)의 블록도 예를 보여준다. 입력 픽셀 위치 (i,j)는 mod 함수(302)에 제공되고, 그 결과는 쓰레숄드 선택기(304)에 의해 사용되어 1 비트 출력 데이터( 예를 들면, 만약 4 비트 입력이 선택된 쓰레숄드보다 더 작으면 출력은 0, 그렇지 않으면 1이다 )를 생성하기 위하여 4 비트 입력(예를 들면,
Figure 112005056086138-PAT00138
,
Figure 112005056086138-PAT00139
Figure 112005056086138-PAT00140
)를 선택기(304)로부터의 쓰레숄드와 비교한다.
도 4는 도 1B에서의 공간과 시간상의 변조 블록(159)인 함수(400)의 블록도 예를 보여준다. 입력은 공간 위치 (i,j) 및 시간 위치 t를 포함하고, 픽셀 및 출력은 2배 곱셈 블록(402), 8배 곱셈 블록(404), 곱셈 블록(406), mod 블록(408,410,412) 및 가산기/뺄셈기 블록들(414,416)을 이용하는 변조된 값 t'이다.
도 5는 도 1B에서의 검사 테이블 블록(160A) (160B 또는 160C)의 일 실시예인 함수(500)의 블록도 예을 보여준다.
본 발명은 다른 버전들도 가능하지만 특정 바람직한 버전들에 관하여 상당히 상세히 기술하였다. 그래서, 첨부된 청구항들의 사상과 범위는 여기에 포함된 바람직한 버전들의 상세한 설명에 한정되어서는 안 된다.
본 발명에 따른 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템에 의하면, 인간의 시각 시스템의 특성을 이용함과 동시에 저성능의 화면 표시 장치가 가지는 성능보다도 더 높은 비트 깊이를 표현할 수 있도록 하는 수퍼 디더링에 의해 고정밀도의 비디오 이미지를 저성능의 화면 표시 장치상에서도 그 품질을 유지시킬 수 있다.

Claims (18)

  1. 픽셀의 RGB와 공간적 그리고 시간적 위치들을 포함하는 입력 컬러 신호를 수신하는 단계;
    상기 RGB 신호를 중간 양자화 레벨을 가지는 양자화된 RGB 신호로 양자화하는 단계; 및
    상기 중간 양자화 레벨을 가지는 양자화된 RGB 신호를 상기 픽셀의 시간적 위치 및 공간적 위치에 기초하여 최종 양자화 레벨로 더 양자화하는 단계를 포함하는 것을 특징으로 하는 비디오 처리 방법.
  2. 제 1항에 있어서, 상기 RGB 신호를 중간 양자화 레벨로 양자화하는 단계는,
    상기 중간 양자화 레벨을 결정하는 단계;
    상기 입력 컬러 신호를 상기 결정된 중간 양자화 레벨 및 최종 양자화 레벨에 기초하여 세 부분들(R, G, B)로 분해하는 단계; 및
    상기 분해된 RGB 신호의 최하위(least significant) 부분을 상기 결정된 중간 양자화 레벨로 디더링하는 단계를 더 포함하는 것을 특징으로 하는 비디오 처리 방법.
  3. 제 1항에 있어서, 상기 중간 양자화 레벨 RGB 신호를 최종 양자화 레벨로 양자화하는 단계는,
    상기 중간 레벨을 얻기 위하여 다수의 프레임들에서 상기 픽셀의 컬러 값들을 이용하는 단계; 및
    상기 픽셀의 공간상 및 시간상의 위치들에 기초하여 상기 다수의 프레임 픽셀 값들의 다른 서열들을 선택하는 단계를 더 포함하는 것을 특징으로 하는 비디오 처리 방법.
  4. 제 3항에 있어서, 상기 중간 레벨을 얻기 위하여 다수의 프레임들을 이용하는 단계는,
    상기 다수의 프레임 컬러들의 평균이 상기 중간 레벨과 동일하도록 상기 최종 양자화 레벨들을 가지는 컬러 값들을 다수의 프레임들에 할당하는 단계를 더 포함하는 것을 특징으로 하는 비디오 처리 방법.
  5. 제 3항에 있어서, 상기 중간 레벨을 얻기 위하여 다수의 프레임들을 이용하는 단계는,
    상기 다수의 프레임 컬러들의 평균이 상기 중간 레벨과 가능하면 가장 근접하도록 상기 최종 양자화 레벨들을 가지는 컬러 값들을 다수의 프레임들에 할당하는 단계를 더 포함하는 것을 특징으로 하는 비디오 처리 방법.
  6. 제 3항에 있어서, 상기 중간 레벨을 얻기 위하여 다수의 프레임들을 이용하는 단계는,
    상기 다수의 프레임들에서 상기 픽셀의 값들의 시간상의 휘도 차이를 본질적으로 최소화하는 단계를 더 포함하는 것을 특징으로 하는 비디오 처리 방법.
  7. 제 6항에 있어서, 상기 시간상의 휘도 차이를 본질적으로 최소화하는 단계는,
    시간 디더링에 대하여 허용되는 범위에 기초하여 검사 테이블을 구성하는 단계를 더 포함하며, 상기 검사 테이블에서의 상기 값들은 상기 시간상의 휘도 차이를 본질적으로 최소화하는 것을 특징으로 하는 비디오 처리 방법.
  8. 제 7항에 있어서,
    상기 시간 디더링에 대하여 구성된 검사 테이블은 세 개의 프레임들의 평균에 관한 검사 테이블을 포함하는 것을 특징으로 하는 비디오 처리 방법.
  9. 제 1항에 있어서,
    상기 최종 양자화 레벨을 가지는 RGB 신호는 상기 입력 신호보다 더 적은 컬러의 비트 깊이를 가진 화면 표시 장치상에 인식된 비디오 품질을 제공하는 것을 특징으로 하는 비디오 처리 방법.
  10. 제 9항에 있어서,
    비트-깊이가 불충분한 화면 표시 장치에 대한 입력 비디오 시퀀스들의 비디 오 품질이 개선되는 것을 특징으로 하는 비디오 처리 방법.
  11. 픽셀과 공간적 그리고 시간적 위치들을 나타내는 입력 컬러 신호를 수신하는 수단;
    중간 신호를 생성하기 위하여 상기 입력 신호에 대해 공간 디더링을 적용하는 공간 디더링 수단; 및
    상기 픽셀의 시간적 위치 및 공간적 위치에 기초하는 양자화 레벨을 가지는 최종 신호를 제공하기 위하여 상기 중간 신호에 데이터 의존적인 시간 디더링을 적용하는 시긴 디더링 수단을 포함하는 것을 특징으로 하는 비디오 양자화 시스템.
  12. 제 11항에 있어서,
    상기 공간 디더링 수단은 2차원 공간 디더링 처리를 적용하는 것을 특징으로 하는 비디오 양자화 시스템.
  13. 제 11항에 있어서,
    상기 시간 디더링 수단은 시간 평균을 적용하는 것을 특징으로 하는 비디오 양자화 시스템.
  14. 제 11항에 있어서,
    상기 픽셀의 입력 신호 컬러 값들이 다수의 비디오 프레임들을 이용하여 표 현되며, 각 픽셀에 대해 상기 시간 디더링 수단에 의해 고려되는 프레임들의 수가 출력 비디오 화면 표시 장치의 프레임 레이트(frame rate)에 의해 제한되는 것을 특징으로 하는 비디오 양자화 시스템.
  15. 제 11항에 있어서,
    상기 시간 디더링 수단은 다른 픽셀 컬러 값들과 서로 다른 위치들에 대하여 시간 디더링 체계가 서로 다르도록 하는 데이터 의존적인 시간 디더링을 적용하는 것을 특징으로 하는 비디오 양자화 시스템.
  16. 제 11항에 있어서,
    상기 입력 컬러보다 더 적은 비트 깊이의 컬러를 가지는 화면 표시 장치상에 인식되는 비디오 품질이 유지되는 것을 특징으로 하는 비디오 양자화 시스템.
  17. 제 11항에 있어서,
    상기 공간 디더링 수단은 상기 RGB 신호를 중간 양자화 레벨을 가지는 양자화된 RGB 신호로 양자화하는 것을 특징으로 하는 비디오 양자화 시스템.
  18. 제 11항에 있어서,
    상기 시간 디더링 수단은 상기 중간 양자화 레벨 신호를 가지는 상기 양자화된 RGB 신호를 시간상의 위치 및 공간상의 위치에 기초하여 최종 양자화 레벨로 양 자화하는 것을 특징으로 하는 비디오 양자화 시스템.
KR1020050093060A 2005-04-14 2005-10-04 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템 KR100782821B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/106,812 US7420570B2 (en) 2005-04-14 2005-04-14 Methods and systems for video processing using super dithering
US11/106,812 2005-04-14

Publications (2)

Publication Number Publication Date
KR20060109260A true KR20060109260A (ko) 2006-10-19
KR100782821B1 KR100782821B1 (ko) 2007-12-06

Family

ID=37108527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050093060A KR100782821B1 (ko) 2005-04-14 2005-10-04 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템

Country Status (2)

Country Link
US (1) US7420570B2 (ko)
KR (1) KR100782821B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114415995A (zh) * 2021-12-07 2022-04-29 联想(北京)有限公司 一种显示控制方法、显示控制装置、电子设备和存储介质

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8090210B2 (en) 2006-03-30 2012-01-03 Samsung Electronics Co., Ltd. Recursive 3D super precision method for smoothly changing area
US7925086B2 (en) 2007-01-18 2011-04-12 Samsung Electronics Co, Ltd. Method and system for adaptive quantization layer reduction in image processing applications
US8208560B2 (en) * 2007-10-15 2012-06-26 Intel Corporation Bit depth enhancement for scalable video coding
US8204333B2 (en) * 2007-10-15 2012-06-19 Intel Corporation Converting video and image signal bit depths
GB2459684A (en) * 2008-04-30 2009-11-04 British Broadcasting Corp Television Signal having high frame rate
KR20110135044A (ko) * 2010-06-10 2011-12-16 삼성전자주식회사 3d영상 처리 장치 및 그 방법
US20120154428A1 (en) 2010-12-16 2012-06-21 Apple Inc. Spatio-temporal color luminance dithering techniques
KR20130087927A (ko) * 2012-01-30 2013-08-07 삼성디스플레이 주식회사 영상 신호 처리 장치 및 영상 신호 처리 방법
US20140105278A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Color adaptation in video coding
US9445109B2 (en) 2012-10-16 2016-09-13 Microsoft Technology Licensing, Llc Color adaptation in video coding
US9105226B2 (en) 2013-01-20 2015-08-11 Qualcomm Incorporated Spatio-temporal error diffusion for imaging devices
US11183155B2 (en) * 2019-05-16 2021-11-23 Apple Inc. Adaptive image data bit-depth adjustment systems and methods
US11430085B2 (en) 2020-09-22 2022-08-30 Facebook Technologies, Llc Efficient motion-compensated spatiotemporal sampling
US11386532B2 (en) * 2020-09-22 2022-07-12 Facebook Technologies, Llc. Blue noise mask for video sampling

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0537322A1 (en) * 1991-04-18 1993-04-21 Eastman Kodak Company Secondary quantization of digital image signals for minimum visual distortion
US5469267A (en) * 1994-04-08 1995-11-21 The University Of Rochester Halftone correction system
US5734744A (en) * 1995-06-07 1998-03-31 Pixar Method and apparatus for compression and decompression of color data
US7098927B2 (en) * 2002-02-01 2006-08-29 Sharp Laboratories Of America, Inc Methods and systems for adaptive dither structures
EP1387340A1 (en) * 2002-07-30 2004-02-04 Deutsche Thomson-Brandt Gmbh Method and device for processing video data for a display
US7209105B2 (en) * 2003-06-06 2007-04-24 Clairvoyante, Inc System and method for compensating for visual effects upon panels having fixed pattern noise with reduced quantization error
US7190380B2 (en) * 2003-09-26 2007-03-13 Hewlett-Packard Development Company, L.P. Generating and displaying spatially offset sub-frames
KR100723408B1 (ko) * 2004-07-22 2007-05-30 삼성전자주식회사 컬러영상의 변환/역변환 및 양자화/역양자화 방법 및장치와, 이를 이용한 컬러영상의 부호화/복호화 방법 및장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114415995A (zh) * 2021-12-07 2022-04-29 联想(北京)有限公司 一种显示控制方法、显示控制装置、电子设备和存储介质

Also Published As

Publication number Publication date
KR100782821B1 (ko) 2007-12-06
US7420570B2 (en) 2008-09-02
US20060233438A1 (en) 2006-10-19

Similar Documents

Publication Publication Date Title
KR100782821B1 (ko) 수퍼 디더링을 이용한 비디오 처리 방법 및 시스템
TWI718685B (zh) 在顯示器上演繹彩色影像的方法
EP0606993B1 (en) Colour gamut clipping
JP3737149B2 (ja) カラー・イメージ生成システムおよび方法
US5742405A (en) Method and system for forming multi-level halftone images from an input digital image
KR100657339B1 (ko) 휘도 보존 양자화 및 하프톤닝을 결합하는 방법 및 시스템
US8325387B2 (en) Method and apparatus for dithering a pixel value in image
EP1521450A2 (en) Systems and methods for multi-dimensional dither structure creation and application
EP0725533B1 (en) Processing halftone color images
JP2005073243A (ja) ディザー構造を生成および適用する方法およびシステム
KR100745979B1 (ko) 다계조 표현을 위한 디더링 장치 및 방법
US7593135B2 (en) Digital image multitoning method
Pavitha et al. Design and implementation of image dithering engine on a spartan 3AN FPGA
US5757516A (en) Noise quenching method and apparatus for a colour display system
US7236269B2 (en) System and method for dithering with reduced memory
KR101175961B1 (ko) 컬러 하프토닝 방법
Yu et al. Adaptive color halftoning for minimum perceived error using the blue noise mask
Goldschneider et al. Embedded color error diffusion
AU676419B2 (en) Reduction of luminance noise in colour dithering
AU674037B2 (en) Colour gamut clipping
AU672647B2 (en) Noise quenching method and apparatus for a colour display system
JP3972471B2 (ja) 画像表示装置および画像表示方法
KR19980079985A (ko) 에러 확산을 이용한 영상 처리 방법
AU674551B2 (en) Block parallel error diffusion method and apparatus
Kim et al. Wide color gamut five channel multi-primary display for HDTV application

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20121030

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131030

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141030

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151029

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee