KR20050084992A - 다차원들에서 화상 강조를 위한 시스템들 및 방법들 - Google Patents

다차원들에서 화상 강조를 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20050084992A
KR20050084992A KR1020057008160A KR20057008160A KR20050084992A KR 20050084992 A KR20050084992 A KR 20050084992A KR 1020057008160 A KR1020057008160 A KR 1020057008160A KR 20057008160 A KR20057008160 A KR 20057008160A KR 20050084992 A KR20050084992 A KR 20050084992A
Authority
KR
South Korea
Prior art keywords
image data
data
low pass
dimensions
processing
Prior art date
Application number
KR1020057008160A
Other languages
English (en)
Inventor
지. 히어 리차드
제이. 콜맨 테랜스
Original Assignee
디지비전, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디지비전, 인크. filed Critical 디지비전, 인크.
Publication of KR20050084992A publication Critical patent/KR20050084992A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

다차원 데이터 강조 시스템(multi-dimensional data enhancement system)은 다차원들에서 큰 커널 필터링(large kernel filtering), 데시메이션 및 보간을 사용하여 다차원 데이터를 실시간으로 강조한다. 다차원 데이터 강조 시스템은 필요로되는 처리 오버헤드가 상당히 감소되기 때문에 실시간으로 큰 커널 처리를 수행할 수 있다. 처리 오버헤드의 감소는 매우 낮은 공간 주파수들만을 포함하는 언샤프 마스크(un-sharp mask)를 발생시키기 위해 처리될 필요가 있는 데이터 량을 상당히 감소시키는 실질적인 저역 필터링 및 데시메이션을 사용함으로써 성취되며, 이는 종래 에지 샤프닝(edge sharpening)으로 통상 성취되는 것 보다 더욱 자연적인 방식으로 데이터를 더 처리하는데 사용될 수 있다.

Description

다차원들에서 화상 강조를 위한 시스템들 및 방법들{Systems and methods for image enhancement in multiple dimensions}
본 출원은 35 USC§119하에서 2002년 11월 11일에 출원된 발명의 명칭이 "Multi-Dimensional Filtering, Decimation and Processing of data Sets and Images"인 미국 가 특허 출원 60/424,472 및 2002년 11월 11일에 출원된 발명의 명칭이 "Large Kernel Processing of Pixels Near Edges of Data Frames With Additional Artificial Border Data by Processing the Border Data at a Higer Rate"인 미국 가 특허 출원 60/424,473호의 우선권을 주장한 것이며, 이들 특허 출원 둘 다가 본원에 전반적으로 참조되었다.
본 발명은 다차원 데이터 처리에 관한 것으로서, 특히 화상 데이터의 강조(enhancement)에 관한 것이다.
화상 시스템들은 많은 다양한 애플리케이션들에서 중요한 역활을 한다. 예를 들어, 내시경, 형광 투시경, X-레이, 관절 촬영 내시경 및 미소 수술 애플리케이션들과 같은 의료용 화상 애플리케이션들은 생명을 구하고 건강을 증진시키는데 유용하다. 조립 라인상에서 미세 에러들을 검출할 수 있는 부품들 검사 시스템들과 같은 산업용 애플리케이션들은 수율 및 효율을 증가시킨다. 광범위한 다양한 군용 및 법 집행 애플리케이션들은 목표 포착, 감시, 암시(night vision), 등을 위한 촬상 기술을 이용한다. 심지어 소비자 애플리케이션들은 향상된 비디오 화상 기술을 이용하여, 고선명 텔레비젼(HDTV)에 의해 제공되는 개선된 화질과 같은 엔터테인먼트 경험을 강화시킨다.
비디오 화상 기술의 많은 진보가 있어 왔지만, 종래 비디오 화상 시스템들은 발생된 비디오 상(video imagery)의 품질 및 유용성에 영향을 미치는 결점들을 여전히 겪는다. 예를 들어, 조절되지 않은 조명으로 발생된 비디오 화상들은 종종, 화상의 큰 동적 범위 변화들에 의해 시청자가 인식하는 것을 모호하게 할 수 있는 중요하지만, 미세한 저-컨트래스트 디테일들(low-contrast details)을 포함한다. 이와 같은 저-컨트래스트 디테일들과 같은 인식시에 어떤 손실 또는 곤란성은 제공된 화상들을 토대로 고속 응답들 또는 빠른 판정들을 필요로 하는 상황들에 나쁜 영향을 미칠 수 있다.
비디오 상을 강조하기 위하여 많은 기술들이 적용되어 있다. 이들 기술들은 실시간으로 적용되는 화상 필터링을 포함한다. 종래의 실시간 필터링 기술들은 오늘날, 상대적으로 작은 수의 화소, 예를 들어 3×3 픽셀 커널들(kernels) 또는 7×7 픽셀 커널들을 포함하는 커널들에 대한 디지털 컨볼루션(digital convolution)으로서 구현될 수 있다. 이들 기술들은 고역 통과 필터링을 사용하여 사용되는 커널의 크기에 비해서 작은 디테일들을 강조할 수 있다. 그러나, 이와 같은 작은 커널들을 사용하여 성취될 수 있는 개선은 종종 제한된다. 의미있는 비디오 강조를 성취하는데 커널들을 더욱 크게하는 것이 훨씬 더 효율적이라는 것을 연구는 보여주고 있다. 불행하게도, 종래 기술들을 사용하여 큰 커널 컨볼루션을 실시간으로 수행하는데 필요로 되는 처리 오버헤드는 현재의 디지털 신호 처리 기술로는 엄두를 내지 못할 정도로 크다.
도1은 화상 데이터의 전형적인 디스플레이를 도시한 도면.
도2는 본 발명의 일 실시예를 따른 화상 데이터의 필터링 및 데시메이션을 도시한 도면.
도3은 본 발명의 일 실시예를 따른 도2의 필터링되어 데시메이트된 화상 데이터의 보간을 도시한 도면.
도4는 필터링, 데시메이션 및 도2 및 도3의 보간과 유사한 보간을 겪을 수 있는 3차원 화상을 도시한 도면.
도5는 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 1차원에서 화상 데이터를 필터링 및 데시메이팅 하는 회로의 예를 도시한 도면.
도6은 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 2차원에서 도5의 화상 데이터를 필터링하고 데시메이팅 하는 회로의 예를 도시한 도면.
도7은 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 도6의 화상 데이터를 보간하는 회로의 예를 도시한 도면.
도8은 본원에 서술된 시스템들 및 방법들의 일 실시예를 따른 도7의 화상 데이터를 보간하는 회로의 예를 도시한 도면.
도9는 본원에 서술된 시스템들 및 방법들의 일 실시예를 따른 입력 데이터의 강조된 버전을 발생시키는데 사용될 수 있는 언샤프 마스크(unsharp mask)를 발생시키기 위하여 입력 데이터에 상대적으로 작은 커널 필터를 적용하는 것을 도시한 도면.
도10은 본원에 서술된 시스템들 및 방법들의 일 실시예를 따른 입력 데이터의 강조된 버전을 발생시키는데 사용될 수 있는 훨씬 더 스무드한 언샤프 마스크(smoother unsharp mask)를 발생시키기 위하여 입력 데이터에 보다 큰 커널 필터를 적용하는 것을 도시한 도면.
도11A는 입력 화상 데이터를 표시하는 곡선을 도시한 도면.
도11B는 도11A의 화상 데이터로부터 발생된 언샤프 마스크를 표시하는 곡선을 도시한 도면.
도11C는 도11A의 곡선 및 도11B의 곡선 간의 증폭된 차이를 표시하는 곡선을 도시한 도면.
도11D는 도11A의 화상 데이터로부터 발생되는 또 다른 언샤프 마스크를 표시하는 곡선을 도시한 도면.
도11E는 도11A의 곡선 및 도11D의 곡선 간의 증폭된 차이를 표시하는 곡선을 도시한 도면.
도11F는 도11B의 곡선 및 도11D의 곡선 간의 증폭된 차이를 표시하는 곡선을 도시한 도면.
도12는 본 발명의 일 실시예를 따라서 구성된 비디오 강조 장치를 포함하는 전형적인 케이블 시스템을 도시한 도면.
도13은 전형적인 NTSC 비디오 화상 디스플레이를 도시한 도면.
도14는 전형적인 HDTV 비디오 화상 디스플레이를 도시한 도면.
도15는 본원에 서술된 시스템들 및 방법들에 따라서 가상 블랭킹 영역을 생성하는 전형적인 회로를 도시한 도면.
다차원 데이터 강조 시스템은 다차원들에서 큰 커널 컨볼루션 기술들을 사용하여 화상 데이터를 실시간으로 개선시킨다. 다차원 데이터 강조 시스템은 필요로되는 처리 오버헤드가 상당히 감소되기 때문에 큰 커널 처리를 실시간으로 수행할 수 있다. 처리 오버헤드의 감소는 어떤 동작 단계들에서 처리될 필요가 있는 데이터 량을 감소시키는 다차원 필터링, 데시메이션(decimation) 및 프로세스를 사용함으로써 성취되지만, 여전히 동일한 이로운 화상 강조를 제공한다.
본 발명의 또 다른 양상에서, 강조 시스템은 주변 화상 프레임들에서 픽셀들의 영향 및 가상 블랭킹 데이터(fictional blanking data)를 블랭킹 영역들에 삽입함으로써 화상 프레임의 에지 근처의 픽셀의 처리시 블랭킹 데이터의 영향을 감소시킬 수 있다.
본 발명의 이들 및 다른 특징들, 양상들 및 실시예들이 이하의 "발명의 상세한 설명"에서 상세하게 설명된다.
본 발명의 특징들, 양상들 및 실시예들이 첨부한 도면들과 관련하여 설명된다.
후술되는 시스템들 및 방법들은 일반적으로 2차원 비디오 화상 시스템과 관련하여 설명된다. 그러나, 서술된 시스템들 및 방법들은 비디오 화상 시스템들을 포함하는 애플리케이션들 뿐만 아니라 단지 2차원들을 포함하는 화상 처리 시스템들로만 제한되지 않는다는 것을 이해할 것이다. 예를 들어, 본원에 서술된 필터링 기술들은 또한, 데이터 저장 및 데이터 압축 방식들에 사용될 수 있다.
도1은 전형적인 비디오 화상 디스플레이(100)를 도시한 것이다. 이 화상은 로우들(102) 및 칼럼들(104)에 배열된 다수의 픽셀들을 포함한다. 대부분의 종래, 예를 들어, 래스터화된 비디오 화상 시스템들에서, 픽셀들은 수평 차원 및 수직 차원 둘 다에서 주사된다.
종래 시스템에서 비디오 화상들의 의미있는 강조를 제공하는 것이 종종 곤란하였다. 실시간 정정 또는 강조 기술들이 존재하지만, 많은 이와 같은 종래 기술들은 글로벌 방식들(global approaches)을 사용하였다. 다른 말로서, 입력 화상에 대한 소정 강도의 모든 포인트들은 대응하는 동일한 출력 강도로 매핑되어야만 한다. 정확하게 적용될 때, 이와 같은 기술들은 일부 화상 영역들에서 포착하기 어려운 디테일들을 선택적으로 확장시킬 수 있다. 그러나, 이와 같은 방식들은 또한, 다른 넓은 밝거나 어두운 영역들의 포화가 이들 영역들에서 디테일을 손실시키는 것과 같은, 바람직하지 않은 부작용들을 초래한다. 강조를 제공하여 상술된 결점들중 일부 결점을 피하도록 하기 위하여, 상대적으로 작은 커널 처리 기술들은 입력 화상으로부터 필터링된 출력 화상을 발생시키는 컨볼루션 프로세스를 통해서 비글로벌 유형들의 강조를 위하여 사용되는데, 여기서 출력 화상 내의 각 픽셀은 대응하는 픽셀을 둘러싸는 영역에서 입력 화상 픽셀 값들을 고려함으로써 발생되며, 이 영역은 커널 크기에 의해 한정된다.
컨볼루션 프로세스에서, 관심 픽셀 주위 및 이를 포함하는 영역에서 픽셀들의 값들 각각은 소위 "컨볼루션 커널" 내의 대응하는 요소인 계수와 승산되고 나서, 이들 곱들은 가산되어 관심 픽셀을 위한 필터링된 출력 값을 발생시킨다. 컨볼루션 처리 결과는 입력 데이터의 저역 통과 필터링된 버전 또는 "언-샤프 마스크"이다. 커널 요소들에 할당된 계수들의 값들은 형성되어 수행되는 저역 통과 필터 동작을 위한 컷-오프를 설정한다. 원래 화상 데이터를 강조하기 위하여, 언-샤프 마스크는 원래 입력 데이터로부터 감산될 수 있는데, 이는 입력 데이터의 고역 통과 버전을 발생시킬 것이다. 그 후, 입력 데이터의 고역 통과 버전은 증폭될 수 있거나, 그렇치 않다면 강조될 수 있으며, 그 후, 원래 데이터와 재결합될 수 있다. 이 결과 원래 화상이 강조되거나 샤프닝될 수 있다.
그러나, 종종, 한 단계에서 원래 데이터로부터의 저역 통과 필터링 및 감산 둘 다를 성취하는 계수들을 정의하는 것이 보다 용이하다. 따라서, 하나의 필터링 단계를 통해서 데이터를 단지 통과시키는 것 만으로 강조된 데이터를 발생시킬 수 있다. 그러나, 펄터가 점점 더 복잡해지고 있기 때문에, 이와 같은 한 단계 필터링 기술들은 실제론 단지, 제한된 커널 크기, 즉 3×3 픽셀 커널 또는 7×7 픽셀 커널에만 적용된다.
작은 커널 버퍼링 기술들은 글로벌 기술들 보다 많은 처리 오버헤드를 필요로 한다. 따라서, 버퍼링 및 처리 오버헤드 요구조건들은 종래의 커널 기반으로 한 방법들을 상대적으로 작은 커널 크기들로 제한시킨다. 그러나, 상술된 바와 같이, 작은 커널 동작은 제한된 강조를 발생시킨다. 보다 큰 커널 동작은 보다 큰 강조를 발생시킬 수 있지만, 상술된 바와 같이, 큰 커널 크기들에 의해 요구되는 오버헤드는 통상, 엄두를 내지 못할 정도로 크다는 것이 판명되었다. 그러나, 후술되는 바와 같이, 본원에 서술된 시스템들 및 방법들은 종래 시스템들을 성가시게 하는 과도한 오버헤드 없이도, 큰 커널 크기들을 사용하도록 하여 비디오 화상들을 실시간으로 강조한다. 게다가, 강조는 다차원 공간, 즉 (N) 차원들을 지닌 공간에 제공될 수 있는데, 여기서 N=2, 3, 4, ..., n이다.
요약하면, 본원에 서술된 시스템들 및 방법들은 대부분의 화상 데이터가 저 주파수들에 있다는 것을 이용한 것이다. 그러므로, 데이터는 저역 통과 필터링되어 각 차원에서 처리되는 데이터량을 감소시킨다. 그 후, 이 데이터는 데시메이트되어, 처리되는 데이터량을 더욱 감소시킨다. 그 후, 이 데이터는 보간되고 원래 데이터로부터 감산될 수 있다. 그 후, 이 결과의 화상 데이터가 사용되거나 원래 데이터와 결합되어, 디스플레이될 수 있는 강조된 화상을 생성시킨다.
따라서, 도2에 도시된 바와 같이, 다차원 데이터 공간에서, 저역 통과 필터 또는 다수의 분리가능한 저역 통과 필터들은 N-차원들 각각을 연속적인 순서로 데시메이트 또는 서브-샘플링하도록 수행될 수 있다. 이 순서는 통상, 다차원 데이터 공간에서 데이터와 관계된 주사 순서를 토대로 한다. 다차원 데이터 공간의 예들은 예를 들어, x 및 y 차원들에서 2차원 비디오 화상들을 포함할 수 있다. 우선 수평 방향에서 그 후 수직 방향에서 주사되는 전형적인 2차원 화상에 대해서, 데시메이션 또는 서브-샘플링은 주사 순서(즉, 우선 수평 방향에서 그 후 수직 방향)와 동일한 순서로 수행될 수 있다. 화상 데이터는 디지털, 아날로그 또는 혼합된 신호일 수 있다. 전형적인 2차원 디지털 비디오 화상에 대해서, 픽셀 강도들은 2차원 데이터 공간에서의 수들로 표시될 수 있다.
본원에 서술된 데시메이션 또는 서브-샘플링이 다음 차원들에서 계산 속도 및 데이터 저장에 대한 요구조건들을 훨씬 용이하게 하는 바람직한 결과들을 성취하도록 하기 위하여, 각 차원 내의 데이터의 저역 통과 필터링은, 많은 고주파수 정보를 의도적으로 억압하는 것이 실질적으로 바람직하다. N-차원 데이터 세트들에 대한 큰-커널 저역 통과 필터링 동작들에서, 예를 들어, 매우 낮은 주파수들의 데이터를 제외한 모든 데이터는 매우 낮은 컷-오프 주파수를 지닌 저역 통과 필터를 사용함으로써 억압된다. 큰-커널 저역 통과 필터링 및 데시메이션 동작들 이후에, 데이터는 보간되어 각종 유형들의 알고리즘들을 사용하여 원래 데이터 또는 고 주파수 데이터와 결합되어, 강조된 결과들을 발생시킨다.
통상적으로, 정확한 정렬을 위하여, 높은 공간 주파수들을 포함하는 데이터는 통상적으로 지연되어, 저역 통과 필터링에 본래 존재하는 필터 지연을 정합시킨다. 그러나, 유사한 화상들의 시퀀스가 존재하는 경우들에, 저 주파수 데이터는 한 필드 타임 빼기 필터 지연 만큼 지연될 수 있고, 한 프레임으로부터 저 공간 주파수 데이터인 데이터의 "언샤프 마스크"는 다음 프레임에 인가될 근사 정정 항(approximate correction term)을 위한 정보로서 사용될 수 있다. 이는, 저역 통과 필터링된 데이터가 정확한 정렬을 필요로 하는 디테일한 정보를 본래 거의 또는 전혀 포함하지 않음으로 필요로 되는 정확도가 대부분의 경우들에서 정밀하지 않기 때문이다.
큰 커널 동작들에서 매우 낮은 주파수 필터링 때문에, 각 차원에서 데이터의 데시메이션 또는 서브-샘플링은 다차원 데이터 공간에서 다음 차원들에서 계산 속도 및 데이터 저장에 대한 필요성을 크게 감소시킬 수 있다. 예를 들어, 2차원 비디오 화상의 경우에, 저역 통과 필터링 및 데시메이션 모두는 각 차원에 대해서 우선 수평으로 그 후 수직으로 수행될 수 있다. 수평 방향에서 데시메이션 또는 서브-샘플링은 다음 차원에서 필터링을 수행하는데 필요한 동작들의 수를 감소시킴으로써 실시간 처리를 효율적이 되게 한다. 게다가, 수직 방향에서 데시메이션 또는 서브-샘플링은 저 주파수 데이터에 대해 필요로 되는 저장 공간 량을 크게 감소시킬 수 있다.
일반적으로, 데이터 저장 및 계산력에 대한 요구조건들을 감소시키는 이점들은 보다 큰 수의 차원들을 지닌 데이터 공간에서의 데이터 처리 동작들에서 더욱 현저하게 된다. 예를 들어, 저역 통과 필터링이 각 차원에서 10 팩터 만큼 데이터 를 압축시키면, N-차원 데이터 공간에서의 데이터 처리는 필요로 되는 데이터 저장 및 처리력을 10N 팩터만큼 감소시킨다.
실제 애플리케이션들에서, 처리력 및 데이터 저장 공간에 대한 요구조건들이 감소되기 때문에, 예를 들어, 저역 통과 필터들, 데시메이션 또는 서브-샘플링 처리기들 및/또는 데이터 저장 메모리를 포함한 각종 기능들을 위한 여러 회로들을 주문형 반도체(ASIC)와 같은 단일 장치 내로 결합시킬 수 있다. 게다가, 보간 및 예를들어 강조들을 위한 각종 유형들의 알고리즘들을 포함하는 이외 다른 처리 기능들을 위한 처리기 회로들이 또한 상기 ASIC 상에 집적될 수 있다.
고 주파수 데이터가 존재하지 않는 동안 저 주파수 데이터가 지연되는 실시예들에서, 고 주파수 데이터를 저장하기 위한 어떠한 메모리도 필요로 하지 않음으로, 고 주파수 데이터가 고 대역폭을 지닌채 원래대로 유지될 수 있다. 고 주파수 데이터는 심지어, 구현방식에 따라서 아날로그 형태로 유지될 수 있어 전혀 샘플링될 필요가 없다
도2를 참조하면, 이 도면은 우선 수평으로 그 후 수직으로 주사되는 2차원 화상의 필터링 및 데시메이션의 일 예를 도시한 것이다. 2차원 화상은 예를 들어, 전형적인 NTSC 또는 HDTV 시스템에서 래스터-주사된 화상일 수 있다. 도2에서 2차원 비디오 화상이 수평에서 좌에서 우로 한 픽셀씩 그리고 수직으로 위에서 아래로 한 라인씩 주사된다. 도2에서, 초기 화상(202)은 곡선(208)으로 표시되는 필터링 되어 데시메이트된 출력 신호를 발생시키는 제1 저역 통과 필터(LPF) 및 데시메이터(206)로 전송되는 곡선(204)으로 표시된 픽셀 값들을 지닌채 수평으로 주사된다.수평 차원에서 LPF 및 데시메이터(206)에 의해 필터링되어 데시메이트된 비디오 화상은 서로로부터 상대적으로 멀리 이격된 픽셀들의 다수의 수직 칼럼들을 지닌 화상(210)으로서 표현된다. 화상(210)의 칼럼들 중 한 칼럼의 픽셀 값들은 단일 곡선(212)으로 표시될 수 있으며, 이는 제2 LPF 및 데시메이터(214)로 전송된다. 제2 LPF 및 데시메이터(214)의 출력 신호는 곡선(216)으로 표시될 수 있으며, 이는 수평 및 수직 차원들 둘 다에서 저역 통과 필터링 및 데시메이션의 처리 후 출력 비디오 화상(218)을 형성한다.
도3은 본원에 서술된 시스템들 및 방법들에 따라서 언샤프 마스크를 구성하는 저역 통과 필터링되고 데시메이트된 비디오 신호들의 일예의 보간을 도시한 것이다. 도3에서, 도2에 도시된 바와 같이 저역 통과 필터링되고 데시메이트된 비디오 화상(218)은 신호 곡선(216)을 가진채 선택적인 저역 통과 필터(322)를 지닌 제1 보간기를 한 칼럼씩 통과하여, 신호 곡선(324)을 구성한다. 신호 곡선(324)은 서로로부터 상대적으로 멀리 이격된 픽셀들의 다수의 칼럼들을 갖는 중간 비디오 화상(326)을 형성한다. 수평 방향에서, 도3에 도시된 바와 같은 신호 곡선(328)은 선택적인 저역 통과 필터(330)를 지닌 제2 보간기로 전송되어 수평 방향에서 신호 곡선(332)을 구성한다. 수직으로 그리고 수평으로 둘 다에서 보간된 비디오 신호들은 출력 언샤프 마스크(334)를 형성한다.
도2 및 도3에 도시된 바와 같은 2차원 저역 통과 필터링 및 보간 프로세스들은 또한, 도4에 도시된 바와 같은 애플(apple)(436)의 3차원 표현과 같은 3개 이상의 차원들의 데이터 세트들로 확장될 수 있다. 애플 표현(436)을 표시하는 픽셀들은 x, y 및 z 방향들에서 연속적으로 주사될 수 있다. 그 후, 저역 통과 필터링 및 데시메이션 프로세스들은 픽셀 주사의 순서와 동일한 순서로 분리가능한 저역 통과 필터들 및 연속적인 차원 데시메이터들로 수행될 수 있다. 3차원 물체(이 경우에, 애플(436))는 예를 들어, 자기 공명 촬상 장치(MRI)로 3차원들에서 주사될 수 있다. 3차원 데이터 세트는 3차원 공간의 각 포인트에서 밀도(density)를 샘플링함으로써 형성된다.
n-차원의 다음 차원들에서 필터링, 데시메이션 및 보간은 실시예에 따라서 병렬 또는 직렬로 수행될 수 있다. 병렬 필터링 동작은 직렬 동작들과 마찬가지로, 데이터가 큐잉 업(queued up)되거나 버퍼링될 필요가 없는 부가적인 이점을 갖는다. 그러나, 직렬 동작은 통상, 적어도 하드웨어 구현방식들에서 자원들을 덜 필요로 한다.
따라서, 도2 및 도3과 관련하여 서술된 시스템들 및 방법들을 사용하면, 데이터가 데시메이트됨으로, 이전에 가능한 것 보다 큰 강조를 제공하면서 큰 커널 필터링 동작들이 수행될 수 있는데, 이것이 다음 동작들에서 저장되고 처리되어야 하는 데이터 량을 감소시킨다. 저역 통과 필터링 및 감산을 한 단계에서 수행하는 현재 종래의 작은 커널 기술들과 달리, 본원에 서술된 시스템들 및 방법들은 다른 단계들과 무관하게 저역 통과 필터링을 수행하고 나서 데이터를 데시메이트함으로써 큰 커널 동작들을 실행시킨다. 저역 통과 필터링은 데시메이션을 허용하는데, 그 이유는 저역 통과 필터링되거나 저 공간 주파수 데이터를 표시하는데 동수의 데이터 포인트들을 필요로 하지 않기 때문이다. 따라서, 데이터가 1차원에서 저역 통과 필터링되면, 이 데이터는 데시메이트될 수 있고, 다른 차원들에서 다음 동작들은 감소된 데이터 세트에 대해서 수행될 수 있는데, 이는 저장 및 처리 부하들을 감소시킨다.
저역 통과 필터링된 데이터가 데시메이트되어 저장되고 나서 보간되어 언샤프 마스크(334)를 발생시키면, 강조된 데이터를 발생시키는 것과 같은 방식으로 원래 데이터와 결합될 수 있다. 예를 들어, 언샤프 마스크(334)는 원래 데이터로부터 감산될 수 있다. 상술된 바와 같이, 한 프레임으로부터 발생되는 언샤프 마스크(334)는 실질적으로 다음 프레임을 강조하기 위하여 사용되는데, 그 이유는 언샤프 마스크(334)가 정밀하게 저 공간 주파수 데이터를 포함하기 때문이다. 다른 말로서, 언샤프 마스크(334)가 일반적으로 전체 프레임에 걸쳐서 크게 변화하지 않기 때문에, 이전 프레임으로부터 발생된 언샤프 마스크는 다음 프레임에서 화상 데이터를 강조하는데 사용될 수 있다. 이 기술을 사용하면, 원래 데이터는 언샤프 마스크(334)가 발생되는 동안 저속 또는 버퍼링될 필요가 없다. 따라서, 본원에 서술된 큰 커널 강조는 실시간으로 수행될 수 있다. 역으로, 입력 데이터는 저속으로 되어 언샤프 마스크(334)의 발생을 위한 시간을 허용하지만, 이는 종종 바람직하지 않는데, 그 이유는 입력 데이터가 실시간으로 되는 것이 아니라 저속으로 되기 때문이다.
상술된 바와 같이, 본원에 서술된 필터링, 데시메이션 및 보간 프로세스는 또한 데이터 압축을 위하여 사용될 수 있다. 예를 들어, 이 실시예를 따르면, 저 주파수 및 고 주파수 데이터는 분리되어 개별적으로 전송되는데, 저 주파수 데이터는 서브-샘플링되어 예를 들어 압축 방식에서의 데이터 저장 공간을 절약하고 나서 고 주파수 데이터와 결합되어 원래 데이터 세트 또는 화상을 복구한다.
본원에 서술된 시스템들 및 방법들을 구현하기 위하여 구성된 필터링 회로들의 예가 다음 절들에서 상세하게 설명된다. 따라서, 도5 내지 도8은 2차원 데이터 세트들, 예를 들어 2차원 비디오 화상들의 필터링을 위하여 다상 유한 임펄스 응답(FIR) 필터들을 사용하여 데시메이션 분리가능한 보간 저역 통과 필터링의 실시예들을 도시한다. 도5 및 도6은 3차원들에서 저역 통과 필터링 및 데시메이션을 도시한 블록도인 반면에, 도7 및 도8은 다상 FIR 필터들을 사용하여 3차원들에서 분리가능한 보간을 도시한 블록도이다. 도5에서, 전체 대역폭 비디오 화상들을 표시하는 입력 데이터는 버퍼(820a)로 시작되는 일련의 다수의 픽셀 지연 버퍼 및 승산기(540a)로 시작되는 일련의 승산기들로 통과된다. 도시된 바와 같이, 선택가능한 필터 계수들(860a)의 세트는 계수 다중화기(508a)에 의해 선택되도록 제공될 수 있다. 그 후, 계수 다중화기(508a)에 의해 선택되는 계수는 승산기(504a)로 전송되어, 전체 대역폭 입력 데이터와 승산한다. 그 후, 승산 결과는 승산기(504a)의 출력으로부터 가산기 및 누산기(512)로 통과될 수 있다.
그 후, 다수-픽셀 지연 버퍼(502a)에 의해 지연되는 전체 대역폭 데이터는 제2 승산기(504b)로 통과될 수 있다. 그 후, 필터 계수들(506b)의 제2 세트는 제2 계수 승산기(508b)에 의해 선택되도록 제공될 수 있다. 선택된 계수는 제2 승산기(504b)로 통과되어 전체 대역폭 입력 데이터와 승산되는데, 이는 다수-픽셀 지연 버퍼(502a)에 의해 지연된다. 다수의 이와 같은 다수-픽셀 지연 버퍼들(502a, 502b(도시되지 않음), 502c(도시되지 않음)... 502n) 뿐만 아니라 다수의 승산기들(504a, 504b, 504c)(도시되지 않음)...504n)과 다수의 선택가능한 계수 다중화기들(508a, 508b, 508c(도시되지 않음),... 508n)은 접속되어 본원에 서술된 시스템들 및 방법들에 따라서 다상 FIR 필터를 형성한다.
계수들(506a, 506b, ,,,, 506n)의 선택은 도5의 다상 FIR 필터와 인터페이스되는 처리기(도시되지 않음)에 의해 제어될 수 있다. 어떤 실시예들에서, 이 계수들은 초기에 처리기에 의해 단지 로딩되고 나면, 이 처리기는 포함되지 않는다. 계수들의 수는 지연들(502a-502n)의 수와 동일하다. 각각의 새로운 픽셀이 처리될 때, 새로운 계수(506a)가 선택된다. 프로세스가 루프백되고 제1 계수들(506a)이 다시 선택될 때까지, 예를 들어, 제1 계수들(506a)은 제1 픽셀이 처리될 때 선택될 수 있으며, 제2 계수들(506a)은 다음 픽셀이 처리될 때 선택될 수 있다.
따라서, 예를 들어, 도2에서 데시메이션이 데이터 세트(202)에서 매 4개의 픽셀들 마다 4 대 1이면, 데이터 세트(210)에 하나의 픽셀이 존재하고 4개의 지연 버퍼들(502a-502d) 및 4개의 계수들(506a)이 존재한다. 유사하게, 4개의 계수들(506b-506n)이 존재할 것이다.
승산기들(504a, 504b, 504c(도시되지 않음)...504n)에 의한 승산 결과들은 가산기 및 누산기(512)로 통과되고, 이는 예를 들어 도6에 도시된 필터와 같은 또 다른 다상 FIR 필터에 의해 2차원에서 데시메이션을 위하여 수평으로 데시메이트된 비디오 데이터를 발생시키도록 구성될 수 있다. 전체 대역폭 입력 데이터는 전체-픽셀 데이터 레이트, 즉 비디오 화상의 픽셀들이 주사되는 레이트로 연속적인 다수-픽셀 지연 버퍼들(602a, 602b, ... 602n) 및 승산기들(604a, 604b, ... 604n)에 전송될 수 있다. 그러나, 가산기 및 누산기(612)로부터 전송되는 데이터는 수평으로 데시메이트된 데이터 레이트일 수 있으며, 이는 전체-픽셀 데이터 레이트 보다 훨씬 낮은 데이터 레이트일 수 있다. 따라서, 다음 동작들을 위하여 필요로 되는 오버헤드는 감소될 수 있다.
도6은 데이터 세트들 또는 비디오 화상들이 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 예를 들어 도5의 다상 FIR 필터에 의해 1차원에서 데시메이트된 후 2차원에서 데이터 세트들을 데시메이트하도록 구성되는 다상 FIR 필터를 도시한 블록도이다. 예를 들어, 우선 수평 방향에서 그 후 수직 방향에서 주사된 2차원 비디오 화상들은 도5의 다상 FIR 필터에 의해 수평으로 데시메이트 되고 나서 도6의 다상 FIR 필터에 의해 수직으로 데시메이트 될 수 있다.
도6을 참조하면, 가산기 및 누산기(512)로부터의 출력 데이터는 다수-라인의 수평으로 데시메이트된 지연 버퍼(622a) 및 승산기(624a)로 통과될 수 있다. 그 후, 선택가능한 필터 계수들(626a)이 계수 다중화기(628a)에 의해 선택되도록 제공될 수 있다. 그 후, 선택된 계수는 제1 승산기(624)에 의해 수평으로 데시메이트된 데이터와 승산되어 가산기 및 누산기(632)로 전송되는 출력을 발생시킬 수 있다.
그 후, 제1 다수의-라인 수평으로 데시메이트된 지연 버퍼(622a)를 통과하는 수평으로 데시메이트된 입력 데이터는 제2 승산기(624b)로 통과될 수 있다. 제2 세트의 선택가능한 필터 계수들(626b)은 제2 계수 다중화기(628b)에 의해 선택되도록 제공될 수 있다. 제2 승산기(624b)는 다중화기(628b)에 의해 선택된 계수들을 제1 다수-라인 수평으로 데시메이트된 지연 버퍼(622a)에 의해 지연된 데이터와 승산시킬 수 있다. 그 후, 제2 다중화기(624b)에 의한 승산 결과는 제2 승산기(624b)의 출력으로부터 가산기 및 누산기(632)로 통과될 수 있다. 수평으로 데시메이트된 데이터의 일련의 연속적인 지연들 이후, 최종 다수-라인 수평으로 데시메이트된 지연 버퍼(622n)는 지연된 데이터를 최종 승산기(624n)에 전송하도록 구성될 수 있다. 선택가능한 필터 계수들(624n)의 세트는 최종 계수 다중화기(628n)에 의해 선택되도록 제공될 수 있는데, 이 다중화기는 선택된 계수를 승산기(624n)에 전송하여 최종 지연 버퍼(622n)에 의해 지연된 데이터와 승산된다. 그 후, 이 승산 결과는 승산기(624n)로부터 가산기 및 누산기(632)에 전송될 수 있다.
도6에 도시된 실시예에서, 수평으로 데시메이트된 입력 데이터는 다수-라인 수평으로 데시메이트된 지연 버퍼들(622a, 622b(도시되지 않음), 622c(도시되지 않음),... 622n)의 연속 체인을 통해서 전송되어 각 다중화기들에 의해 선택된 각 필터 계수들과 승산된다. 승산기들(624a, 624b, 624c(도시되지 않음),... 624n)에 의한 승산 결과들은 가산기 및 누산기(632)로 통과될 수 있는데, 이 가산기 및 누산기는 수평 데시메이션의 결과를 발생시키도록 구성될 수 있다. 가산기 및 누산기(632)에 의해 발생된 결과들은 부가 처리하기 위하여 2개의 수평으로 데시메이트된 프레임 저장 및 지연 버퍼(634)에 저장될 수 있다. 도5의 다상 FIR 필터로부터 수신된 데이터는 수평으로 데시메이트된 데이터 레이트로 다수-라인 수평으로 데시메이트된 지연 버퍼들(622a, 622b, ..., 622n) 및 승산기들(624a, 624b, ...,624n)을 통과할 수 있는 반면에, 가산기 및 누산기(632)로부터 2차원적으로 데시메이트된 프레임 저장 및 지연 버퍼(634)에 전송되는 데이터는 수평으로 데시메이트된 데이터 레이트 보다 훨씬 낮은 데이터 레이트일 수 있는 2차원적으로 데시메이트된 데이터 레이트로 전송될 수 있다.
도7은 도5 및 도6의 다상 FIR 필터들에 의해 수평 및 수직 차원들 둘 다에서 데시메이트된 데이터의 수직 차원에서의 보간을 위한 다상 FIR 필터를 도시한 블록도이다. 도7의 실시예에서, 2차원적으로 데시메이트된 프레임 저장 및 지연 버퍼(634)는 데시메이트된 데이터를 수직으로 데시메이트된 라인들을 위하여 제1 수평으로 데시메이트된 재순환 라인 지연(742a)으로 전송한다. 수평으로 지연된 재순환 라인 지연(742a)은 일시적으로 지연된 데이터를 제1 승산기(744a) 및 수직으로 데시메이트된 라인들을 위하여 제2 수평으로 데시메이트된 재순환 라인 지연(742b)으로 출력한다.
제1 세트의 선택가능한 필터 계수들(746a)은 제1 계수 승산기(748a)에 의해 선택되도록 제공될 수 있는데, 이 승산기는 제1 계수를 선택하여 수평으로 데시메이트된 재순환 라인 지연(742a)으로부터 수신되어 지연된 데이터와 승산되도록 구성될 수 있다. 제1 승산기(744a)는 제1 계수를 일시적으로 지연된 입력 데이터와 승산시켜 제1 승산기(744a)의 출력으로부터 가산기(752)로 전송되는 결과를 발생시키도록 구성될 수 있다.
유사하게, 제2 세트의 선택가능한 필터 계수들(746b)은 제2 계수 승산기(748b)에 의해 선택되도록 제공될 수 있는데, 이 승산기는 제2 세트의 계수들로부터 계수를 선택하여 제2 승산기(744b)에 의해 2배 지연된 입력 데이터와 승산되도록 구성될 수 있다. 승산기(744b)는 선택된 계수를 제1의 수직으로 데시메이트된 라인들을 위하여 2개의 수평으로 데시메이트된 입력 데이터와 승산시켜 제2 승산기(744b)의 출력에서 결과를 발생시킨다.
따라서, 2차원적으로 데시메이트된 데이터는 최종 수평으로 데시메이트된 재순환 라인 지연(742n)에 도달될 때까지 다수의 수평으로 데시메이트된 재순환 라인 지연들(742a, 742b,...)을 통과할 수 있다. 이 때에, 선택가능한 필터 계수들(746n)의 세트는 계수 다중화기(748n)에 의해 선택되도록 제공될 수 있으며, 이 다중화기는 선택가능한 계수들(742n)의 세트로부터 계수를 선택하여 승산기(744n)에 의해 승산되도록 구성될 수 있다. 승산기(744n)는 이 계수를 일련의 수평으로 데시메이트된 재순환 라인 지연들(742a, 742b,... 742n)을 통과하는 2차원적으로 데시메이트된 데이터와 승산시켜 승산기(744n)의 출력에서 결과를 발생시키도록 구성된다.
그 후, 승산기들(744a, 744b, ... 744n)의 출력들 각각에 접속되는 가산기(752)는 수직 차원에서의 보간에 의해 재구성되는 이 결과의 비디오 데이터를 계산하도록 구성될 수 있다.
도7의 실시예에서, 2차원적으로 데시메이트된 비디오 데이터는 프레임 저장 및 지연 버퍼(634)로부터 2차원적으로 데시메이트된 데이터로 수직으로 데시메이트된 라인들을 위하여 일련의 수평으로 데시메이트된 재순환 라인 지연들(742a, 742b,...742n)로 전송된다. 대조적으로, 승산기들(744a, 744b,...744n) 및 가산기(752)에 의해 수직으로 보간된 비디오 데이터는 2차원적으로 데시메이트된 데이터 레이트 보다 높은 데이터 레이트인 수평으로 데시메이트된 데이터 레이트로 전송될 수 있다. 그 후, 가산기(1052)의 출력에서 발생된 수직으로 보간된 비디오 데이터는 수평 보간을 위하여 도8의 다상 FIR 필터에 전송될 수 있다.
도8은 본원에 서술된 시스템들 및 방법들의 일 예의 실시예에 따라서 전체 대역폭에서 출력 비디오 데이터를 발생시키지만 감소된 스펙트럼 내용을 지닌 도10의 FIR 필터에 의해 발생된 수평으로 데시메이트된 비디오 데이터의 수평 보간을 위하여 구성되는 다상 FIR 필터를 도시한 블록도이다. 도8의 실시예에 도시된 바와 같이, 도7의 다상 FIR 필터의 출력으로부터 수신된 수평으로 데시메이트된 데이터는 수평으로 데시메이트된 픽셀들을 위하여 제1 래치(862a)에 전송되고 나서, 일시적으로 지연된 데이터를 제2 래치(862b) 및 제1 승산기(864a)로 전송하도록 구성될 수 있다.
그 후, 선택가능한 필터 계수들(866a)의 세트는 계수 승산기(868a)에 의해 선택되도록 제공될 수 있다. 계수 승산기(868a)는 선택된 계수를 승산기(864a)로 출력하도록 구성될 수 있으며, 이 승산기는 래치(862a)를 통과하는 일시적으로 지연된 비디오 데이터와 이 계수를 승산하여 승산기(864a)의 출력에서 결과를 발생시키도록 구성된다. 또 다시, 계수들은 처리기(도시되지 않음)에 의해 로딩되고 나서 각 픽셀이 처리될 때 선택될 수 있다.
유사하게, 제2 세트의 선택가능한 필터 계수들(866b)은 제2 계수 다중화기(868b)에 의해 선택되도록 제공될 수 있는데, 이 다중화기는 제2 승산기(864b)에 의해 승산되도록 제2 세트의 계수들을 선택하도록 구성될 수 있다. 승산기(846b)는 이 계수를 제1의 2개의 래치들(862a 및 862b)을 통과하는 비디오 데이터와 승산하여 제2 승산기(864b)의 출력에서 결과를 발생시키도록 구성될 수 있다.
그 후, 수평으로 데시메이트된 픽셀들을 위하여 일련의 래치들(862a, 862b, 862n)을 통과하는 입력 비디오 데이터는 최종 계수 승산기(864n)로 전송될 수 있다. 이 때에, 선택가능한 필터 계수들(866n)의 세트는 계수 승산기(868n)에 의해 선택되도록 제공될 수 있으며, 이 승산기는 계수들(868n)의 세트로부터 계수를 선택하여, 일련의 래치들(862a, 862b,...862n)을 통과하는 일시적으로 지연된 비디오 데이터와 승산되도록 구성될 수 있다. 승산기(864n)는 승산기(864n)의 출력에서 결과를 발생시킨다.
가산기(872)는 각 승산기들(864a, 864b,...864n)의 출력들과 인터페이스되어 가산기(872)의 출력에서 감소된 대역폭으로 수직으로 그리고 수평으로 보간된 출력 데이터를 발생시킨다.
따라서, 도8에 도시된 실시예에서, 수직으로 보간된 입력 데이터는 수평으로 데시메이트된 픽셀들을 위하여 수평으로 데시메이트된 데이터 레이트로 일련의 래치들(862a, 862b, ... 862n)에 전송되는 반면에, 승산기들(864a, 864b, ... 864n) 및 가산기(872)에 의한 보간으로부터 발생되는 출력 데이터는 전체-픽셀 데이터 레이트로 전송될 수있으며, 이 데이터 레이트는 전체-대역폭 입력 데이터를 도5에 도시된 수평 데시메이션을 위하여 다상 FIR 필터에 전송시키는 레이트일 수 있다. 그러나, 도8의 다상 FIR 필터로부터 발생된 출력은 전체 대역폭에 있을 수 있지만, 보다 적은 스펙트럼 내용을 포함하는데, 그 이유는 이는 입력 데이터의 저역 통과 필터링된 버전이기 때문이다. 그러므로, 도8의 다상 FIR 필터로부터의 출력 데이터는 비디오 강조 알고리즘들을 위한 저역 통과 필터 데이터로서 사용되어 각종 강조 효과들을 발생시킨다.
실시예들이 다상 FIR 필터들을 사용하여 2차원 분리가능한 저역 통과 필터링, 데시메이션 및 보간에 대한 특정 예들에 대해서 서술되었지만, 본원에 서술된 시스템들 및 방법들은 이와 같은 특정 구현방식들로 제한되는 것으로서 간주되어서는 안된다. 예를 들어, 3차원 비디오 화상들 및 2개 이상의 차원들을 지닌 이외 다른 유형의 다차원 데이터 세트들이 또한 본원에 서술된 시스템들 및 방법들에 따라서 처리될 수 있다. 게다가, IIR 필터들과 같은 다른 유형들의 필터들이 또한, 특정 구현방식에 의해 필요로 되는 바와 같은 저역 통과 필터링, 데시메이션 및 보간 동작들을 위하여 사용될 수 있다.
도2 및 도3에 도시된 필터링,데시메이션 및 보간 시스템들의 출력을 입력 데이터의 언샤프 마스크라 칭할 수 있다. 상이한 커널 크기, 즉 계수들의 수들은 상이한 언샤프 마스크들을 발생시킬 것이다. 따라서, 다수의 언샤프 마스크들은 소정 시스템, 예를 들어 HDTV 시스템에 대해서 사전규정될 수 있고, 다수의 언샤프 마스크들중 어느 마스크가 시스템을 위한 입력 데이터에 적용되는지를 선택함으로써 사용자가 상이한 공간 주파수 대역들에서 강조를 선택하도록 할 수 있다.
예를 들어, 도9는 상대적으로 작은 커널이 곡선(902)의 입력 데이터에 인가되는 것을 도시한 것이다. 도9가 큰 커널 동작을 여전히 도시한 것으로 간주하여만 한다. 따라서, 상술된 큰 커널 처리가 곡선(902)으로 표시된 입력 데이터에 적용될 때, 언샤프 마스크(904)가 발생된다. 알 수 있는 바와 같이, 곡선(902)의 고 주파수 스펙트럼 내용은 저역 통과 필터링 동작으로 인해 곡선(904)에서 억압된다. 그 후, 언샤프 마스크(904)는 입력 데이터(902)로부터 감산되어, 입력 데이터(902)의 고 주파수 내용이 남게될 것이다. 그 후, 고 주파수 버전은 증폭되어 곡선(906)을 발생시킨다. 그 후, 곡선(906)의 고 주파수 데이터는 입력 커브(902)와 재결합되어 입력 데이터의 강조된 버전을 발생시킨다.
그러나, 훨씬 더 큰 커널이 사용되면, 훨씬 더 높은 주파수 데이터가 도10에 도시된 바와 같은 이 결과의 언샤프 마스크에서 억압될 것이다. 따라서, 휠씬 더 스무드한 언샤프 마스크(1002)는 언샤프 마스크(904)를 발생시키기 위하여 사용되는 커널 보다 큰 커널을 사용하여 동일한 입력 곡선(902)으로부터 발생될 수 있다. 고 주파수 버전(1004)은 또 다시 감산 및 증폭을 통해서 발생될 수 있지만, 곡선(1004)은 훨씬 더 높은 주파수 스펙트럼 내용을 가질 것이다. 그 후, 고 주파수 버전(1004)은 곡선(902)의 입력 데이터와 결합되어, 입력 데이터의 강조된 버전을 발생시킬 수 있다.
상이한 커널 크기들을 사용하면, 다수의 언샤프 마스크들이 인가되고 결합되어 전형적인 오디오 애플리케이션들에서 그래픽 등화기들에 의해 주파수 대역들을 필터링하여 결합하는 것과 유사한 방식으로 상이한 주파수 대역들을 발생시킬 수 있다. 따라서, 비디오 등화기는 오디오 그래픽 등화기와 유사한 방식으로 도9 및 도10에 도시된 바와 같은 다수의 언샤프 마스크들을 사용하여 생성될 수 있다. 후술되는 바와 같이, N-차원 대역통과 함수 및 다른 컷-오프 주파수들 및 이에 대응하는 커널 크기들을 지닌 다른 언샤프 마스크들은 결합되어 각종 효과들 및 목적들을 위하여 또한 조정될 수 있는 다른 통과대역들을 발생시킬 수 있다. 본원에 서술된 시스템들 및 방법들에 따라서 구성된 비디오 그래픽 등화기에서, 인접한, 거의 중첩하지 않은 대역들의 세트가 각 대역의 이득을 독립적으로 조정하도록 발생될 수 있다.
도11A-도11F는 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 강조된 출력 신호들을 발생시키기 위하여, 도9 및 도10과 관련하여 도시된 바와 같은 상이한 컷-오프 주파수들을 지닌 2개의 상이한 언샤프 마스크들을 사용하는 예를 도시한 것이다. 도11A-도11F의 예들에서, 입력 곡선(902)은 단지 1차원 데이터 세트이다. 그러나, 동일한 기술들이 n-차원 시스템에 적용될 수 있다는 것을 손쉽게 이해할 수 있을 것이다. 그러므로, 도11A는 입력 데이터 곡선(902)을 도시한다. 도11B는 상대적으로 높은 컷-오프 주파수를 지닌 상대적으로 작은 커널 필터를 적용함으로써 발생되는 언샤프 마스크(904)를 도시한 것이다. 도11C는 입력 데이터 곡선(902)으로부터 언샤프 마스크(904)를 감산한 결과인 곡선(906)을 도시한 것이다. 그 후, 감산 결과는 상술된 바와 같이 증폭되거나 재스케일링될 수 있다.
도11D는 상대적으로 큰 커널 필터, 즉 상대적으로 작은 컷-오프 주파수를 지닌 저역 통과 필터를 입력 데이터 곡선(902)에 적용함으로써 발생되는 언샤프 마스크를 표시하는 출력 곡선(1002)을 도시한 것이다. 상술된 바와 같이, 언샤프 마스크(1002)는 일반적으로 곡선(904) 보다 "더 스무드"하게 된다는 것을 인지하여야 한다. 도11E는 입력 데이터 곡선(902)으로부터 언샤프 마스크(1002)의 감산으로부터 발생되는 증폭된 픽셀 값들을 표시하는 곡선(1004)을 도시한 것이다.
도11F는 언샤프 마스크(1002)로부터 언샤프 마스크(904)를 감산한 결과인 곡선(1202)을 도시한 것이다.
곡선들(904 및 906) 각각은 비디오 그래픽 등화기의 한 쌍의 저 및 고 주파수 대역들로서 간주될 수 있다. 유사하게, 곡선들(1002 및 1004) 각각은 또한 곡선들(902 및 904)의 컷-오프 주파수와 상이한 컷-오프 주파수를 지닌 비디오 그래픽 등화기의 또 다른 쌍의 저 및 고 주파수 대역들로서 간주될 수 있다. 그 후, 곡선(1202)은 예를 들어 그래픽 등화기의 중간 대역으로서 간주될 수 있다. 상이한 컷-오프 주파수들을 지닌 2개의 상이한 언샤프 마스크들을 사용함으로써, 3-대역 비디오 그래픽 등화기는 저 대역, 예를 들어 곡선(1002), 중간 대역, 예를 들어 (1202) 및 고 대역, 예를 들어 곡선(906)으로 형성될 수 있다. 이들 대역들은 상대적으로 인접하고 중첩하지 않을 수 있다.
2대역 그래픽 등화기는 또한, 저 대역, 예를 들어, 곡선(904 또는 1002) 및 고대역, 예를 들어 곡선(906 또는 1004)으로 형성될 수 있다.
상술된 바와 같이, 필터링, 데시메이션과, 재보간 시스템들 및 방법들은 의료용, 산업용, 및 군용 및 법 집행 및 소비자 엔터테인먼트 애플리케이션들을 포함한 광범위한 다양한 애플리케이션들에서 강조된 비디오를 제공할 수 있다. 게다가, 상술된 바와 같은 필터들, 데시메이터들 및 보간기들이 처리 및 저장 요구조건들을 감소시키기 때문에, 필터링, 데시메이션 및 보간 회로들은 작은 형태의 팩터 칩 세트들 또는 심지어 단일의 주문형 반도체(ASIC)에 포함될 수 있으며, 이것이 훨씬 광범위한 각종 애플리케이션을 실행시키도록 한다.
예를 들어, 도12는 케이블 텔레비젼 프로그램을 소비자의 케이블 셋 톱 박스(1202)에 전달하도록 구성된 전형적인 케이블 시스템(1200)을 도시한 것이다. 이 케이블 텔레비젼 프로그램은 예를 들어, NTSC 또는 HDTV 케이블 텔레비젼 신호들을 포함할 수 있다. 케이블 네트워크(1204)는 텔레비젼 프로그래밍을 수신하여 이를 특정 소비자 셋 톱 박스(1202)로 전송하는 헤드-엔드(head-end)(1204)를 포함할 수 있다. 그 후, 셋 톱 박스(1202)는 소비자의 텔레비젼 또는 디스플레이(1210)을 토해서 시청되도록 텔레비젼 프로그램을 전송하도록 구성될 수 있다.
그러나, 시스템(1200)에서, 비디오 강조 장치(1208)는 상술된 시스템들 및 방법들에 따라서 전달되는 케이블 텔레비젼 프로그래밍을 강조하도록 포함될 수 있다. 다른 말로서, 비디오 강조 장치(1208)는 상술된 필터링, 데시메이션 및 보간 단계들을 수행하도록 구성될 수 있다. 따라서, 시청을 위하여 텔레비젼(1210)에 전송되는 케이블 텔레비젼 프로그래밍은, 텔레비젼 프로그래밍이 HDTV 신호들을 포함하는 경우 조차도 상당히 강조될 수 있다. 게다가, 예를 들어 상술된 바와 같은 다수의 언샤프 마스크들로부터 구성된 다수 대역 그래픽 등화기를 사용하여 원하는 강조 레벨을 사용자가 선택하도록 할 수 있다.
게다가, 다른 비디오 발생 장치(1212)는 비디오 강조 장치(1208)와 인터페이스될 수 있다. 전형적인 비디오 발생 장치(1212)는 예를 들어 DVD 플레이어, 디지털 비디오 카메라 또는 VCR 를 포함할 수 있다. 따라서, 텔레비젼(121)을 통해서 디스플레이되는 비디오 신호들은 단지 이들을 비디오 강조 장치(1208)를 통해서 루팅시킴으로써 소스에 관계없이 강조될 수 있다. 대안적으로, 비디오 발생 장치들(1210)으로부터의 신호들은 셋 톱 박스(1202)를 통해서 비디오 강조 장치(1208)로 루팅될 수 있다.
게다가, 비디오 강조 장치(1208)를 포함하는 회로들이 오늘날의 회로 제조 기술들을 사용하여 매우 작게 만들 수 있기 때문에, 비디오 강조 장치(1208)는 실제로 시스템(1200)을 포함하는 다른 구성요소들 중 한 구성요소 내에 포함될 수 있다. 예를 들어, 비디오 강조 장치(1208)는 헤드-엔드(1204)에 포함될 수 있고 셋 톱 박스(1202)를 통해서 텔레비젼(1210)에 전달될 수 있다 대안적으로, 비디오 강조 장치(1202)는 셋 톱 박스(1202) 또는 텔레비젼(1210)에 포함될 수 있다. 비디오 강조 장치(1208)는 심지어 비디오 발생 장치들(1210)에 포함될 수 있다.
따라서, 비디오 강조 장치(1208)를 포함하는 회로들을 소형화하는 성능은 각종 소비자 전자장치들 및 엔터테인먼트 장치들의 강조 및 설계 면에서 유연성을 제공한다. 이 유연성은 또한, 의료 촬상, 군사 목표 포착 및/또는 군사용 또는 법률 집행 감시 시스템들과 같은 더욱 특수한 구현방식들에 부여될 수 있다.
각종 필터링 기술들은 상술된 시스템 및 방법들을 수행하는데 사용될 수 있다. 이들 기술들은 아날로그 및/또는 디지털 필터링 기술들을 포함할 수 있다. 데이터 필터링 기술들은 특히 다른 회로들과의 집적, 예를 들어 하나 이상의 ASICs 내로 집적하는 것을 지원한다는 관점에서 바람직할 수 있다.
보다 높은 차수의 필터들을 사용하는 것이 1차 필터 보다 우수하게 수행될 수 있다는 것을 이해할 것이다. 이는, 데이터의 스펙트럼 내용의 큰 변화들을 검출하여야만 할 때 특히 그러하다. 예를 들어, 비디오 촬상 시스템들에서, 데이터에 상대적으로 큰 변화들 또는 모션이 존재할 때를 검출하는 것이 중요할 수 있다. 많은 모션이 존재할 때 상대적으로 대량의 필터링이 적용되면, 블러링(blurring), 즉 아티팩트들은 필터링 동작으로부터 발생될 수 있다. 따라서, 많은 모션이 존재할 때를 검출한 후, 적용되는 필터링 량을 감소시키는 것이 바람직할 수 있다.
1차 필터에 의하여, 데이터의 저역 통과 버전이 이용가능 하지만, 저역 통과 버전은 모션을 검출하는데 매우 유용하지 않다. 데이터의 고역 통과 버전은 원래 데이터로부터 저역 통과 버전을 감산함으로써 얻어질 수 있다. 고역 통과 버전은 모션을 검출하는데 사용될 수 있다: 그러나, 이 기술은 잡음으로 인해 잘못된 표시들을 할 여지가 있다. 즉, 잡음이 모션으로서 가장하여 실제로 모션이 존재할때를 적절하게 검출하도록 하는 시스템 성능을 제한할 수 있다. 종래의 보다 높은 차수의 디지털 필터들은 종종 지연 탭들(delay taps)을 사용하여 구성되지만, 이들로부터 발생되는 모든 것은 데이터의 지연된 버전들이며, 이는 예를 들어, 모션을 검출하는데 반드시 유용한 것을 아니다.
예를 들어, 모션을 더욱 양호하게 검출하기 위하여, 본원에 서술된 시스템들 및 방법들은 데이터의 고역 통과, 대역 통과, 및 저역 통과 버전을 발생시키도록 구성되는 보다 높은 차수의 템포럴 디지털 필터를 사용할 수 있다. 그리고 나서, 데이터의 대역 통과 버전이 모션을 검출하는데 사용될 수 있다. 대역 통과 버전은 모션을 보다 정확하게 검출하는데 사용될 수 있는데, 그 이유는 몇개의 프레임들에 걸쳐 지속되는 데이터의 변화는 잡음 스파이크(noise spike)에 대향하는 모션일 것 이기 때문이다. 그러므로, 디지털 상태 가변 필터와 같은 보다 높은 차수의 템포럴 필터가 데이터의 고역 통과, 대역 통과, 및 저역 통과 버전을 발생시키는데 사용될 수 있다. 그리고 나서, 대역 통과 버전이 예를 들어, 모션을 검출하는데 사용될 수 있다. 그리고 나서, 필터링 량은 검출된 모션량을 토대로 조정될 수 있다.
따라서, 본원에 서술된 시스템들 및 방법들은 보다 양호한 강조를 제공할 뿐만 아니라, 아티팩트들, 즉 데이터의 중요한 모션이 존재할 때 블러링을 감소시킬 수 있다. 데이터의 대역 통과 버전이 또한 다른 유용한 목적에 사용될 수 있다는 것을 유의하여야만 한다. 예를 들어, 대역 통과 정보는 데이터에 관한 다른 유용한 정보를 검출하기 위하여 고역 통과, 또는 저역 통과 데이터에 결합될 수 있다.
상술된 바와 같은 화상 처리 동작시, 큰 커널 크기를 갖는 필터링 동작이 화상에 적용되어, 소정 픽셀을 처리할때, 알고리즘이 커널의 크기에 의해 규정된 경계 내에서 주변 픽셀들의 픽셀 값들을 사용하도록 한다. 일반적으로, 텔레비전 화상 프레임의 에지와 같은 데이터 세트의 에지 근처의 픽셀들을 처리할때, 커널은 에지를 지나서 확장할 것이며, 어떠 가정이 데이터 세트의 영역 외측 내의 픽셀 값들에 적용되어야만 한다. 이것은 데이터 세트 외부의 픽셀 값들이 주로, 텔레비전 화상 프레임과 같은 데이터 세트의 활성 데이터 영역의 에지 근처 이지만 이 영역 내의 픽셀의 처리를 오염(contaminate)시키거나 손상시키도록 기여할 것으로 여겨지기 때문이다.
종래의 텔레비전 시스템과 같은 래스터화된 화상에서, 래스터 포멧(raster format)은 본질적으로, 실시간으로 처리하는 시스템을 위하여 블랭킹 구간들(blanking intervals)이라고 또한 칭하는 이 여분의 경계 영역의 적어도 어떤 량에 대한 "공간을" 제공한다. 실시간으로 이와같은 화상을 필터링하기 위한 메커니즘은 통상적으로 처리 전력에 대한 많은 부가적인 부담 없이 이러한 블랭킹 구간 들 동안 필터링 프로세스를 진행하도록 할 수 있다: 그러나, 래스터화된 화상의 활성 화상 영역들 간에 블랭킹 구간들의 존재는 일반적으로 적절한 픽셀 값들이 블랭킹 구간들 내에서 사용하기 위하여 제공됨으로써, 활성 영역들의 에지 근처에 아티팩트들을 초래하는 것을 의미하지는 않는다.
더구나, 예를 들어, HDTV 시스템에서, 인접한 화상 프레임들 간의 수직 블랭킹 영역은 종래의 텔레비젼 시스템에서의 활성 화상 영역이 비하여 상당히 작으므로, 큰 커널 처리 동작시 커널의 크기보다 더 작을 것이다. 따라서, 소정 프레임의 에지 근처의 소정 픽셀에 대하여, 큰 커널 크기는 커널의 상당한 부분이 프레임의 외부에 존재하고, 유효 인접 프레임들 내에, 예를 들어, 현재 프레임의 대향 측, 이전 프레임의 하부, 또는 다음 프레임의 상부 상에 픽셀을 포함할 것이다. 화상과 상이한 영역 이기 때문에, 이들 픽셀들은 처리되는 픽셀과 무관한 데이터를 포함할 것이다.
본원에 서술된 시스템들 및 방법들은 픽셀 데이터의 큰 커널에 대한 블랭킹 영역들의 영향을 고려하여 이를 감소시킬 수 있다. 블랭킹 영역을 포함하는 픽셀들이 본원에 서술된 시스템들 및 방법들을 사용하여 처리될때, 부가적인 "가상 블랭킹 영역"이 그 영역에 존재하는 인접 프레임 내의 화상 데이터 대신에, 처리되는 픽셀을 둘러싸는 커널 크기 내의 영역을 차지하도록 부가적인 유효 블랭킹 데이터가 블랭킹 영역에 부가될 수 있다. 이 동작은 예를 들어, 다차원 필터링, 데시메이션, 서브-샘플링 및 상술된 바와 같은 데이터 처리 동작에 의해 달성된 부가적인 처리 전력의 이용율(availablity)에 의해 도움을 받을 수 있다.
예를 들어, HDTV 시스템에서 인접한 프레임들 사이의 작은 기존의 수직 또는 수평 블랭킹 영역에 가상 블랭킹 영역을 부가하는 것은 블랭킹 구간 동안 데이터 처리의 속도를 상승시킴으로 성취될 수 있다. 예를 들어, HDTV 시스템에서, 수직 블랭킹 영역이 특히 중요하게 된다. 데이터가 어떤 레이트로 들어오고 있고 통상적으로 데이터가 제공되는 레이트에 의해 지시된 레이트로 처리된다. 그러나, 블랭킹 구간 동안, 실제 데이터가 제공되지 않아서, 이 시스템은 처리 속도를 상승시키도록 할 수 있는데, 즉, 데이터가 훨씬 빠르게 들어오고 있는 것같이 동작하도록 할 수 있다. 따라서, 블랭킹 영역은 더 큰 것처럼 보이도록 할 수 있으므로, 가상 블랭킹 데이터를 생성한다.
예를 들어, 이와 같은 가상 주사 라인들을 부가함으로써, 가령, HDTV 화상의 소정 프레임의 상부 또는 하부 에지 근처의 픽셀은 인접 프레임의 대향측 근처의 픽셀들의 데이터 값들에 의한 오염 없이 처리될 수 있는데, 이것은 현재 처리되고 있는 프레임의 에지 근처의 픽셀에 대한 큰-커널 필터링 동작에 바람직하지 않은 영향을 미친다. 본래 존재하는 블랭킹 영역 및 인공적으로 부가된 가상 주사 라인들을 포함한 블랭킹 영역 내의 지능적 픽셀 값들(intelligent pixel values)에서의 충전 프로세스는 특정한 구현방식의 요구조건을 따르며, 각종 유형들의 신호들 및 블랭킹 영역 크기들에 대하여 최적화될 수 있다. 단지 저 공간 주파수 내용만을 포함하고 활성 프레임의 인접 영역 내의 데이터의 평균 값들과 단지 무모순(consistency)을 유지하여, 이 지능적으로 추정된 블랭킹 데이터를 사실상 저속 변화시키면 일반적으로 충분하다.
일 실시예에서, 블랭킹 시간 동안, 피드백 루프가 2-차원 비디오 처리를 위한 수평 및 수직 저역 통과 필터들에 접속되어, 각각의 반복 이후에, 실제 블랭킹 영역 및 가상 주사 라인들을 포함하는 블랭킹 영역이 보다 적절하게 추정된 데이터로 점차적으로 충전되도록 할 수 있다. 다수의 반복들 이후에, 블랭킹 영역은 회로 내의 피드백 루프로부터 발생한 인공적인 데이터로 충전되어, 소정 프레임의 에지로부터 인공적으로 부가된 가상 블랭킹 데이터를 포함한 블랭킹 영역으로의 전이(transition) 및 블랭킹 영역으로부터 바로 인접한 프레임의 에지로의 전이가 스무드한 전이가 되도록 할 것이다. 그리고 나서, 블랭킹 영역으로 할당된 인공적인 데이터는 프레임의 에지 근처의 픽셀의 필터링 또는 처리시 입력으로서 사용될 것이다.
부가된 가상 블랭킹 데이터의 양은 특정 구현방식을 따른다. 그러나, 일반적으로, 인접 프레임들의 중첩이 반드시 피해지도록 단지 충분한 가상 블랭킹 데이터만을 부가하는 것으로 충분하게 된다.
도13은 NTSC 디스플레이(1300)의 일 예를 도시한 것이다. 현재의 프레임(1318)은 현재 프레임(1330)의 다른 복제와 함께 도시되어 있다. 그러므로, 프레임들의 복제된 칼럼들은 비디오 래스터 주사 프로세스로부터 발생한 유효 수평 인접 프레임들을 예시하고 있다. 이전 프레임(1326)은 도면의 상부에 도시되어 있고, 다음 프레임(1340)은 도면의 하부에 도시되어 있다. 현재 프레임(1318) 내의 다양한 픽셀들(1310, 1312, 1314 및 1316)은 인접 처리 커널 크기들(1302, 1304, 1306 및 1308)과 함께 강조되고 있다. 예를 들어, 픽셀(1310)에 대하여, 관련 커널(1302)이 완전히 프레임(1318) 내부에 있다. 따라서, 인접 프레임들 또는 현재 프레임의 관련 없는 영역으로부터의 픽셀 값들은 필터링, 데시메이션, 및/또는 픽셀(1310) 에 대해서 수행된 다른 유형들의 처리 동작들의 상당한 오염을 초래하지 않을 것이다. 그러나, 프레임(1318)의 상부 수평 에지에 있거나 그 근처에 있는 픽셀(1312)은 수평 블랭킹 영역(1322)의 일부 및 인접 프레임(1326) 내의 작은 화상 영역을 포함하는 관련 커널 크기(1304)를 갖는다. 따라서, 필셀(1312)의 처리는 커널 크기(1304) 내에 있는 블랭킹 영역(1322)의 부분에 적용되는 값들에 의해 영향을 받을 수 있다. 인접 프레임(1326)으로부터의 픽셀 값들은 픽셀(1312)의 처리로 인해 더욱 더 문제들을 초래할 수 있는데, 그 이유는 이들 픽셀 값들이 통상적으로 픽셀(1312)에 무관하고, 이 픽셀(1312)과 상당히 상이함으로써, 잠재적으로 바람직하지 않은 현저한 아티팩트들을 초래할 수 있기 때문이다. 프레임들의 상이한 영역들 간에 다른 모션이 존재한다고 간주하면, 유효 인접 프레임 내의 픽셀들과 처리되고 있는 픽셀 간의 관계 부족으로 인하여, 잠재적으로 훨씬 더 현저한 아티팩트들이 초래될 수 있다.
프레임(1318)의 우측 수평 에지에서 또는 그 근처의 픽셀(1314)에 대하여, 관련 커널(1306)의 크기는 도 13의 예에서, 현재 프레임(1330)의 제2 복제의 임의의 화상 영역을 중첩시킬만큼 충분히 크지 않다. 그러므로, 픽셀(1314)은 유효 인접 프레임(1330) 내의 비관련 데이터 값으로부터의 실질적인 오염없이 처리될 수 있다. 그러나, 심지어 프레임(1330)의 픽셀 값들에 의한 오염이 없어도, 블랭킹 영역에 관한 아티팩트들을 피하기 위하여 커널 크기(1306) 내의 블랭킹 영역(1334)의 부분에 여전히 적절한 값이 할당되어야만 한다.
프레임(1318)의 코너에서 또는 그 근처의 픽셀(1316)에 대하여, 대응 커널(1308)은 수직 인접 프레임(1340)의 코너 근처의 영역 및 블랭킹 영역(1334)의 상당 부분을 포함할 수 있다. 상술된 바와 같이, 인접 프레임(1340)에서의 중첩 영역은 픽셀(1316)의 처리된 값에 직접적으로 기여할 수 있다. 또한, 인접 프레임(1340)에서의 커널 영역(1308) 외부의 다른 화상 영역의 픽셀 값들은 또한, 이들이 블랭킹 영역(1334) 내로 충전되는 값들에 영향을 미치는 경우, 픽셀(1316)의 처리에 간접적으로 영향을 줄 수 있다.
따라서, 일 실시예에서, 값들은 블랭킹 영역을 포함하는 픽셀에 할당되며, 그 후에, 이들중 일부는 커널 영역(1304) 또는 커널 영역(1306)와 같은 커널의 영역 내에 존재할 것이다. 할당된 값들은 인접 프레임들 내의 데이터 간에서 블랭킹 영역에 걸쳐 저속이며 스무드한 데이터 전이를 제공하여야만 한다. 특정 구현방식에 따라서, 하나의 프레임의 에지 근처의 블랭킹 영역 내의 값들이 유효 인접 프레임의 픽셀 값들에 의해 여전히 다소 영향을 받을 수 있다는 점에 유의하여야만 한다. 이들 유효 인접 프레임들에 보다 근접한 블랭킹 영역 내의 값들은 그러한 유효 인접 프레임 내의 픽셀 값들에 의해 보다 크게 영향을 받을 수 있지만, 가령, 픽셀들(1312, 1314, 1316)에 대한 필터링된 출력값을 발생시킬때, 외부 커널 계수들은 통상적으로 할당된 작은 값들이므로, 픽셀로부터 멀리 벗어난 추정된 블랭킹 값들, 예를 들어, 유효 인접 프레임들에 보다 가까운 값들은 필터링 결과에 상당량의 영향을 초래하지 않는다.
상술된 바와 같이, 픽셀들(1312, 1314 및 1316)의 처리시에 유효 인접 프레임들(1326, 1330 및 1340)에서의 픽셀들의 영향을 제한하기 위하여, 가상 블랭킹 데이터가 가령, 블랭킹 기간들 동안 처리의 속도를 상승시킴으로써, 블랭킹 영역(1322 및 1334)에 부가될 수 있다. 그리고 나서, 값들은 상술된 바와 같이, 가상 블랭킹 데이터를 포함하는 블랭킹 영역들로 할당될 수 있다. 가상 블랭킹 데이터를 부가하면, 커널 영역들(1304, 1306 및 1308)이 유효 인접 프레임들(1326, 1330 및 1340) 내의 픽셀들을 중첩시키지 않게 하거나, 중첩이 존재하는 범위를 적어도 감소시킬 수 있다. 중첩의 감소로 인하여, 인접 프레임들(1326, 1330 및 1340) 내의 픽셀들이 가령, 픽셀들(1312, 1314 및 1316)의 처리시에 상당한 영향을 미치지 않도록 한다.
상술된 바와 같이, HDTV 신호들에 존재하는 보다 작은 블랭킹 영역들로 인해, 인접 프레임들 내의 픽셀들이 더욱 더 중요하게 된다. 도 14는 HDTV 디스플레이의 일 예를 도시한 것이다. 현재 프레임(1462)은 현재 프레임(1468)의 다른 복제와 함께 도시되어 있다. 이전 프레임(1400)은 도 14의 상부에 도시되어 있고, 다음 프레임(1478)은 하부에 도시되어 있다. 대표적인 픽셀들(1446, 1448, 1450 및 1452)이 관련 커널 크기들(1454, 1456, 1458 및 1460)과 함께 도시되어 있다. 픽셀(1446)의 처리는 커널(1454)이 완전히 프레임(1462) 내에 존재하기 때문에, 인접 프레임들, 또는 현재 프레임(1462)의 관련되지 않은 영역들의 픽셀값들에 의해 크게 영향 받지 않을 것이다. 그러나, 프레임(1462)의 우측 수직 에지에서의 또는 그 근처의 픽셀(1448)에 대하여, 커널(1456)은 프레임(1462)과 현재 프레임(1468)의 다른 복제 간에서 블랭킹 영역(1466)의 일부를 포함한다. 그러나, HDTV 화상 프레임들 간의 수평 블랭킹 영역(1456)이 필터링 동작들을 위한 전형적인 커널 크기에 비하여 상대적으로 크기 때문에, 픽셀(1448)의 처리는 프레임(1468) 내의 픽셀 값들에 의해 실질적으로 오염되지 않을 것이다. 그러나, 블랭킹 영역에 관한 아티팩트들을 피하기 위하여, 상술된 바와 같이, 적절한 인공적인 블랭킹 값들이 포뮬레이트(formulate) 되어 블랭킹 영역(1456) 내로 충전되어야만 한다. 더구나, 어떤 방식들에서, 블랭킹 영역(1456) 내의 인공적인 값들은 적어도 어느 정도로 프레임(1468) 내의 픽셀 값들에 의해 여전히 영향을 받을 수 있기 때문에, 픽셀(1448)의 처리는 여전히 프레임(1468) 내의 픽셀 값들에 의해 간접적으로 영향을 받을 수 있다.
프레임(1462)의 상부 수평 에지에서 또는 그 근처의 픽셀(1450)에 대하여, 프레임들(1462 및 1474) 간의 수직 블랭킹 영역(1442)이 HDTV 시스템에서의 필터링 및 데시메이션 동작을 위한 통상적인 커널 크기에 비하여 작기 때문에, 수직 인접 프레임(1474)의 상당한 부분이 커널(1458) 내에 존재할 수 있다. 그러므로, 프레임(1474) 내의 픽셀 값들은 펙셀(1450)의 처리를 상당히 오염시킴으로써, 실질적으로 현저한 아티팩트들을 발생시킬 수 있다. 블랭킹 영역 내로 충전된 인공적인 값들의 오염 이외에, 픽셀(1450)의 처리는 특히, 이들 픽셀 값들이 가장 무관할 것 같고 픽셀(1450)과 상당히 상이할 수 있다고 간주하는 인접 프레임(1474) 내의 실제 픽셀 값들에 의해 상당히 영향을 받을 수 있다.
유사하게, 프레임(1462)의 코너에 또는 이 근처에서 픽셀(1452)과 관계되는 커널(1460)은 수직으로 인접한 프레임(1478)의 코너 부분과 중첩하는 큰 영역을 포함할 수 있다. 그러므로, 수직으로 인접한 프레임(1478)의 코너 부분에서 픽셀 값들은 픽셀(1452) 처리하는데 상당한 오염을 초래함으로써 상당한 아티팩트들을 발생시킨다. 따라서, 블랭킹 영역들(1466 및 1444)에 할당되는 인공적인 값들은 픽셀(1452) 처리를 오염시킬 수 있고, 게다가, 인접 프레임(1478) 내의 픽셀 값들은 픽셀(1452) 처리의 오염을 상당히 악화시킬 수 있다.
가상 주사 라인들을 특히 HDTV 시스템에서 수직으로 인접한 화상 프레임들 간의 수직 블랭킹 영역들에 부가하는 것은 예를 들어, 커널들(1454, 1456 및 1458) 및 인접 프레임들(1474, 1444 및 1468) 간의 중첩 량을 제거하거나 적어도 상당히 감소시킴으로써, 픽셀들(1446, 1448 및 1450)의 데이터 값들의 오염을 피하게 하거나 적어도 완화시킨다.
도15는 본원에 서술된 시스템들 및 방법들의 일 실시예에 따라서 가상 블랭킹 데이터를 포함하는 블랭킹 영역들에 가상 블랭킹 데이터 및 관련된 값들을 삽입시키도록 구성되는 회로(1500)를 도시한 블록도이다. 전체-대역폭 입력 데이터, 예를 들어, 프레임의 활성 비디오 화상은 비디오 데이터 다중화기(1502)의 제1 입력(1500)에서 수신될 수 있으며, 이 다중화기는 또한 블랭킹이 인접 프레임들 간에서 발생될 때를 표시하는 제어 신호(1504)를 수신하도록 구성될 수 있다. 원래의 블랭킹 데이터는 입력 데이터와 동일한 경로, 예를 들어 입력(1500)상에서 수신될 수 있는데, 그 이유는 원래 블랭킹 데이터가 원래 비디오 데이터의 부분이지만 이 데이터는 다중화기의 동작에 의해 무시될 수 있기 때문이다.
다중화기(1502)는 예를 들어 상술된 바와 같이 입력 데이터를 저역 통과 필터링하도록 구성된 N-차원 저역 통과 필터(1508)로 입력 데이터를 통과시키도록 구성될 수 있다. 그 후, N-차원 저역 통과 필터(1508)의 출력은 다중화기(1502)의 피드백 입력(1512)으로 피드백될 수 있다. 그러므로, 다중화기(1502)는 제어 신호(1504)의 제어하에서 N-차원 저역 통과 필터(1510)의 입력 데이터 및 필터링된 출력을 다중화하도록 구성되어, 비블랭킹 시간 동안, 이 필터가 실제 화상 데이터에 응답하도록 하는 반면에, 블랭킹 시간 동안 이 필터가 예를 들어 디폴트 제로값으로 초기에 설정되는 사전 추정된 값에 응답하도록 함으로써, 어떤 부가적인 템포럴 특성들(temporal characteristics)을 효율적으로 취하도록 한다.
제어 신호(1504)는 또한 N-차원 저역 통과 필터(1508)에 공급되어 처리 속도를 제어하는데, 즉 블랭킹 시간 동안 처리 속도를 상승시킴으로써 가상 블랭킹 데이터를 부가한다. 예를 들어, 상술된 데이터의 데시메이션은 더 많은 사이클들을 수행하도록 사용될 수 있는 처리 자원들을 자유롭게, 즉 픽셀 클럭 속도를 상승시키도록 하는데 유용할 수 있다는 점에 유의하여야 한다. 가상 블랭킹 데이터의 초기 값은 또한 초기에 제로 값을 설정하고 나서 N-차원 저역 통과 필터(1508)의 필터링된 출력을 토대로 한 추정치들을 사용하여 충전될 수 있다.
따라서, 블랭킹 영역에 부가되는 가상 데이터를 포함하여, 인접 프레임들의 에지들 근처의 픽셀들의 실제 데이터 값들 및 블랭킹 영역들에 충전된 인공적인 데이터 값들 간에 스무드한 전이들이 형성될 때까지, 블랭킹 영역은 N-차원 저역 통과 필터(1508)를 통해서 저역 통과 필터링의 다수의 반복들 이후 데이터 값들로 점차적으로 충전될 수 있다.
어떤 실시예들에서, N-차원 저역 통과 필터는 예를 들어, 본원에 서술된 시스템들 및 방법들에 따라서 분리가능한 수평 및 수직 저역 통과 필터들을 포함하는 2차원 저역 통과 필터일 수 있다. 그러나, 상술된 바와 같이, 본원에 서술된 시스템들 및 방법들은 필터가 구현되는 방법에 관계없이, 예를 들어 분리될 수 있든지 없든지 간에 N-차원들에서 적용될 수 있다.
따라서, 회로(1500)는 상술된 회로들과 마찬가지로 동일한 장치, 예를 들어 비디오 강조 장치(1208) 또는 심지어 ASIC에 포함될 수 있다. 대안적으로, 이 회로들의 일부 또는 전부는 상이한 장치들 및/또는 ASICs에 포함될 수 있다. 게다가, 본원에 서술된 시스템들 및 방법들을 구현함으로써, 각종 시스템들을 위한 비디오 상(video imagery)의 상당한 강조가 성취될 수 있다.
본 발명의 특정 실시예들이 설명되었지만, 이 실시예들은 단지 예에 지나지 않는 다는 것을 이해할 것이다. 따라서, 본 발명은 서술된 실시예들로 국한되는 것이 아니다. 오히려, 본원에 서술된 본 발명들의 범위는 상기 설명 및 첨부한 도면들과 관련한 청구범위에 의해서만 제한되어야 한다.

Claims (67)

  1. 다차원 화상 데이터를 강조(enhance)하는 방법으로서,
    복수의 차원들에서 화상 데이터를 주사(scan)하는 단계; 및,
    상기 복수의 차원들 각각에 대해서, 상기 복수의 차원들 각각에서 화상 데이터 량을 감소시키는 서브-샘플링 동작을 수행하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  2. 제1항에서, 서브-샘플링 단계는 상대적으로 큰 커널 크기를 사용하여 상기 복수의 차원들 각각에서 상기 화상 데이터를 저역 통과 필터링하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  3. 제2항에 있어서, 서브 샘플링 단계는 상기 복수의 차원들 각각에서 상기 저역 통과 필터링된 화상 데이터를 데시메이팅(decimating)하는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  4. 제2항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원들에 대한 상기 저역 통과 필터링은 직렬로 수행되는, 다차원 화상 데이터 강조 방법.
  5. 제2항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원들에 대한 상기 저역 필터링은 병렬로 수행되는, 다차원 화상 데이터 강조 방법.
  6. 제2항에 있어서, 상기 복수의 차원들에서 상기 화상 데이터의 상기 저역 통과 필터링은 상기 복수의 차원들에서 상기 화상 데이터를 주사하는 것과 동일한 순서로 수행되는 다차원 화상 데이터 강조 방법.
  7. 제2항에 있어서, 저역 통과 필터링 단계는 매우 낮은 컷-오프 주파수들(cut-off frequencies)을 사용하는 실질적인 저역 통과 필터링 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  8. 제1항에 있어서, 상기 복수의 차원들 각각에 대해서, 상기 서브-샘플링된 화상 데이터를 보간하는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  9. 제8항에 있어서, 상기 서브-샘플링된 화상 데이터를 보간하는 단계는 상기 서브-샘플링된 화상 데이터를 저역 필터링하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  10. 제8항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  11. 제10항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 원래 화상 데이터의 고 주파수 버전을 발생시키기 위하여 상기 원래 데이터로부터 상기 보간된 화상 데이터를 감산하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  12. 제11항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 상기 원래 데이터의 상기 고 주파수 버전을 증폭시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  13. 제12항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 상기 원래 데이터의 강조된 버전을 발생시키기 위하여 상기 원래 데이터의 증폭된 고 주파수 버전을 상기 원래 데이터와 결합시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  14. 제10항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 저 주파수 화상 데이터로부터 고 주파수 화상 데이터를 분리시키는 단계를 더 포함하며, 상기 서브-샘플링은 상기 저 주파수 화상 데이터와 관련하여 발생하고, 상기 보간된 화상 데이터를 처리하는 단계는 상기 보간된 저 주파수 화상 데이터를 관련된 상기 고 주파수 화상 데이터와 결합시키는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  15. 다차원 화상 데이터를 강조하는 방법으로서,
    복수의 차원들에서 화상 데이터를 주사하는 단계; 및,
    상기 복수의 차원들 각각에 대해서, 상대적으로 큰 커널 크기를 사용하여 상기 화상 데이터를 저역 통과 필터링하고 상기 화상 데이터를 데시메이팅 하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  16. 제15항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원에 대한 상기 저역 필터링은 직렬로 수행되는, 다차원 화상 데이터 강조 방법.
  17. 제15항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원에 대한 상기 저역 필터링은 병렬로 수행되는, 다차원 화상 데이터 강조 방법.
  18. 제15항에 있어서, 상기 화상 데이터의 상기 저역 통과 필터링은 상기 복수의 차원들 각각에 대해 상기 화상 데이터를 주사하는 것과 동일한 순서로 수행되는, 다차원 화상 데이터 강조 방법.
  19. 제15항에 있어서, 상기 저역 통과 필터링 단계는 매우 낮은 컷-오프 주파수들을 사용하는 실질적인 저역 통과 필터링 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  20. 제15항에 있어서, 상기 복수의 차원들 각각에 대해서, 저역 통과 필터링 및 데시메이팅된 화상 데이터를 보간하는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  21. 제20항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  22. 제21항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 원래 화상 데이터의 고 주파수 버전을 발생시키기 위하여 상기 원래 화상 데이터로부터 상기 보간된 화상 데이터를 감산하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  23. 제22항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 상기 원래 데이터의 상기 고 주파수 버전을 증폭시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  24. 제23항에 있어서, 상기 보간된 화상 데이터를 처리하는 단계는 상기 원래 데이터의 강조된 버전을 발생시키기 위하여 상기 원래 데이터의 증폭된 고 주파수 버전을 상기 원래 데이터와 결합시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  25. 다차원 화상 데이터를 강조하는 방법으로서,
    큰 커널 크기를 사용하여 복수의 차원들 각각에서 상기 화상 데이터를 저역 통과 필터링하는 단계;
    상기 복수의 차원들 각각에서 상기 저역 통과 필터링된 화상 데이터를 데시메이팅하는 단계;
    상기 화상 데이터의 언샤프 마스크(un-sharp mask)를 발생시키기 위하여 상기 데시메이팅된 화상 데이터를 보간하는 단계; 및,
    상기 화상 데이터의 강조된 버전을 발생시키기 위하여 상기 화상 데이터의 언샤프 마스크를 사용하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  26. 제25항에 있어서, 상기 화상 데이터의 강조된 버전을 발생시키기 위하여 상기 화상 데이터의 상기 언샤프 마스크를 사용하는 단계는 상기 화상 데이터의 고 주파수 버전을 생산하기 위하여 상기 화상 데이터로부터 상기 화상 데이터의 사익 언샤프 마스크를 감산하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  27. 제26항에 있어서, 상기 화상 데이터의 강조된 버전을 발생시키기 위하여 상기 화상 데이터의 상기 언샤프 마스크를 사용하는 단계는 상기 화상 데이터의 상기 고 주파수 버전을 증폭시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  28. 제26항에 있어서, 상기 화상 데이터의 강조된 버전을 발생시키기 위하여 상기 화상 데이터의 상기 언샤프 마스크를 사용하는 단계는 상기 화상 데이터의 상기 고 주파수 버전을 상기 화상 데이터와 결합시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  29. 다차원 화상 데이터 강조 시스템으로서,
    복수의 차원들에서 화상 데이터를 주사함으로써 상기 화상 데이터를 출력하도록 구성되는 출력 장치; 및,
    상기 복수의 차원들 각각에 대해서, 상기 복수의 차원들 각각에서 화상 데이터 량을 감소시키는 서브-샘플링 동작을 수행하도록 구성된 화상 데이터 처리기를 포함하는, 다차원 화상 데이터 강조 시스템.
  30. 제29항에 있어서, 상기 화상 데이터 처리기는 큰 커널 저역 통과 필터를 포함하고, 서브-샘플링은 상기 큰 커널 저역 통과 필터를 사용하여 상기 복수의 차원들 각각에서 상기 화상 데이터를 저역 통과 필터링하는 것을 포함하는, 다차원 화상 데이터 강조 시스템.
  31. 제30항에 있어서, 상기 화상 데이터 처리기는 데시메이터를 더 포함하고, 서브-샘플링은 상기 복수의 차원들 각각에서 상기 데시메이터를 사용하여 상기 저역 통과 필터링된 화상 데이터를 데시메이팅하는 것을 더 포함하는, 다차원 화상 데이터 강조 시스템.
  32. 제30항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원들에 대한 상기 큰 커널 저역 통과 필터링은 직렬로 수행되는, 다차원 화상 데이터 강조 시스템.
  33. 제30항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원들에 대한 상기 큰 커널 저역 통과 필터링은 병렬로 수행되는, 다차원 화상 데이터 강조 시스템.
  34. 제30항에 있어서, 상기 큰 커널 저역 통과 필터는 상기 화상 데이터가 상기 화상 처리기에 의해 주사되는 것과 동일한 순서로 상기 화상 데이터를 저역 통과 필터링하도록 구성되는, 다차원 화상 데이터 강조 시스템.
  35. 제29항에 있어서, 상기 화상 데이터 처리기는 상기 복수의 차원들 각각에 대해서 상기 서브-샘플링된 화상 데이터를 보간하도록 구성되는 보간기를 더 포함하는, 다차원 화상 데이터 강조 시스템.
  36. 제35항에 있어서, 상기 화상 데이터 처리기는 상기 보간된 화상 데이터를 처리하도록 또한 구성되는, 다차원 화상 데이터 강조 시스템.
  37. 제36항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 원래 화상 데이터의 고 주파수 버전을 발생시키기 위해 상기 원래 화상으로부터 상기 보간된 화상 데이터를 감산하는 것을 포함하는, 다차원 화상 데이터 강조 시스템.
  38. 제37항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 상기 원래 데이터의 상기 고 주파수 버전을 증폭시키는 것을 더 포함하는, 다차원 화상 데이터 강조 시스템.
  39. 제38항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 원래 데이터의 강조된 버전을 발생시키기 위해 상기 원래 데이터의 증폭된 고 주파수 버전을 상기 원래 데이터와 결합시키는 것을 포함하는, 다차원 화상 데이터 강조 시스템.
  40. 제36항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 저 주파수 화상 데이터로부터 고 주파수 화상 데이터를 분리시키는 것을 더 포함하고, 상기 서브-샘플링은 상기 저 주파수 화상 데이터와 관련하여 발생하며, 상기 보간된 화상 데이터를 처리하는 것은 상기 보간된 저 주파수 화상 데이터를 관련된 고 주파수 화상 데이터와 결합시키는 것을 포함하는, 다차원 화상 데이터 강조 시스템.
  41. 다차원 화상 데이터 강조 시스템으로서,
    복수의 차원들에서 화상 데이터를 주사함으로써 상기 화상 데이터를 출력하도록 구성되는 출력 장치; 및,
    상기 복수의 차원들 각각에 대해서, 상기 화상 데이터를 저역 통과 필터링하도록 구성된 큰 커널 저역 통과 필터 및 상기 화상 데이터를 데시메이트 하도록 구성된 데시메이터를 포함하는, 다차원 화상 데이터 강조 시스템.
  42. 제41항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원에 대한 상기 큰 커널 저역 필터링은 직렬로 수행되는, 다차원 화상 데이터 강조 시스템.
  43. 제41항에 있어서, 상기 복수의 차원들 중 적어도 일부 차원에 대한 상기 큰 커널 저역 필터링은 병렬로 수행되는 다차원 화상 데이터 강조 시스템.
  44. 제41항에 있어서, 상기 화상 데이터의 상기 큰 커널 저역 통과 필터링은 상기 복수의 차원들 각각에 대해 상기 화상 데이터를 주사하는 것과 동일한 순서로 수행되는 다차원 화상 데이터 강조 시스템.
  45. 제41항에 있어서, 상기 복수의 차원들 각각에 대해서, 상기 저역 통과 필터링 및 데시메이팅된 화상 데이터를 보간하도록 구성된 보간기를 더 포함하는, 다차원 화상 데이터 강조 시스템.
  46. 제45항에 있어서, 상기 보간된 화상 데이터를 처리하도록 구성된 화상 데이터 처리기를 더 포함하는, 다차원 화상 데이터 강조 시스템.
  47. 제46항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 상기 원래 화상 데이터의 고 주파수 버전을 발생시키기 위하여 상기 원래 화상 데이터로부터 상기 보간된 화상 데이터를 감산하는 것을 포함하는, 다차원 화상 데이터 강조 시스템.
  48. 제47항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 상기 원래 데이터의 고 주파수 버전을 증폭시키는 것을 더 포함하는, 다차원 화상 데이터 강조 시스템.
  49. 제48항에 있어서, 상기 보간된 화상 데이터를 처리하는 것은 상기 원래 데이터의 강조된 버전을 발생시키기 위하여 상기 원래 데이터의 증폭된 고 주파수 버전을 상기 원래 데이터와 결합시키는 것을 더 포함하는, 다차원 화상 데이터 강조 시스템.
  50. 다차원 화상 데이터를 강조하는 방법으로서,
    유효 인접 프레임들의 픽셀들에 대한 픽셀 데이터가 현재 프레임의 에지 근처의 픽셀에 대한 픽셀 데이터의 처리에 과도한 영향을 미치지 않도록, 충분한 가상 블랭킹 데이터(blanking data)를 블랭킹 영역에 부가하는 단계; 및,
    상기 현재 프레임의 에지 근처의 픽셀에 대한 픽셀 데이터를 처리하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  51. 제50항에 있어서,
    가상 블랭킹 데이터를 부가하는 단계는 블랭킹 동안 보다 높은 데이터 레이트로 데이터를 처리하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  52. 제51항에 있어서, 상기 픽셀 데이터를 처리하는 단계는 상기 픽셀 데이터를 저역 필터링 및 데시메이팅하고 이 결과의 처리 오버헤드를 사용하여 블랭킹 동안 보다 높은 데이터 레이트로 데이터를 효율적으로 처리하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  53. 제51항에 있어서, 수직 블랭킹 시간 동안 상기 픽셀 데이터를 처리하는 단계는 상기 픽셀 데이터를 수직 저역 통과 필터링하고 상기 픽셀 데이터를 수평으로 데시메이팅하여 수평으로 데시메이팅된 데이터를 포함하는 수직 블랭킹 라인들을 발생시키고, 이에 의해 수직 블랭킹 시간 동안 처리될 수 있는 수직 라인들의 수를 증가시키는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  54. 제50항에 있어서, 상기 픽셀을 처리하는 단계는 컨볼루션 필터링 동작(convolution filtering operation)을 수행하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  55. 제54항에 있어서, 상기 컨볼루션 처리는 복수의 차원들에서 수행되는, 다차원 화상 데이터 강조 방법.
  56. 제50항에 있어서, 상기 픽셀을 처리하는 단계는 복수의 차원들에서 저역 통과 필터링하는 단계를 포함하는, 다차원 화상 데이터 강조 방법.
  57. 제50항에 있어서, 상기 가상 블랭킹 영역을 포함하는 블랭킹 영역에 인공적인 데이터를 할당하여 상기 현재 프레임의 에지 근처의 상기 픽셀에 대한 상기 픽셀 데이터를 처리할 때 인공적인 데이터가 사용되는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  58. 제57항에 있어서, 상기 가상 블랭킹 영역을 포함하는 상기 블랭킹 영역에 대한 인공적인 데이터를 반복적으로 발생시키는 단계를 더 포함하는, 다차원 화상 데이터 강조 방법.
  59. 다차원 화상 데이터 강조 장치로서,
    복수의 차원들에서 화상 데이터를 컨볼루션적으로 필터링하도록 구성된 컨볼루션 저역 통과 필터;
    상기 컨볼루션 저역 통과 필터의 출력에 결합되며, 상기 컨볼루션 저역 통과 필터의 상기 출력으로부터 필터링된 데이터를 수신하도록 구성되는 피드백 루프; 및,
    상기 피드백 루프 및 상기 컨볼루션 저역 통과 필터의 입력에 결합되며, 제어 신호의 제어 하에서 화상 데이터 및 필터링된 데이터를 다중화하도록 구성된 다중화기로서, 상기 제어 신호는 상기 화상 데이터가 블랭킹 데이터를 포함할 때를 표시하고 상기 컨볼루션 저역 통과 필터의 동작 속도를 제어하도록 구성되는 상기 다중화기를 포함하는, 다차원 화상 데이터 강조 장치.
  60. 제59항에 있어서, 상기 제어 신호는 상기 컨볼루션 필터의 동작 속도를 상승시켜 가상 블랭킹 데이터를 상기 블랭킹 데이터에 부가하도록 구성되는, 다차원 화상 데이터 강조 장치.
  61. 제59항에 있어서, 상기 화상 데이터를 컨볼루션 필터링하는 것은 상기 화상 데이터를 저역 통과 필터링 및 데시메이팅하고 이 결과의 처리 오버헤드를 사용하여 상기 컨볼루션 필터의 상기 동작 속도를 효율적으로 증가시키는 것을 포함하는, 다차원 화상 데이터 강조 장치.
  62. 제59항에 있어서, 수직 블랭킹 시간 동안 상기 픽셀 데이터를 컨볼루션 필터링하는 것은 상기 픽셀 데이터를 수직 저역 통과 필터링하고 상기 픽셀 데이터를 수평으로 데시메이팅하여 수평으로 데시메이팅된 데이터를 포함하는 수직 블랭킹 라인들을 발생시키고, 이에 의해 수직 블랭킹 시간 동안 처리될 수 있는 수직 라인들의 수를 증가시키는, 다차원 화상 데이터 강조 장치.
  63. 제61항에 있어서, 상기 컨볼루션 필터링은 복수의 차원들에서 수행되는, 다차원 화상 데이터 강조 장치.
  64. 제59항에 있어서, 상기 컨볼루션 필터링은 복수의 차원들에서 저역 통과 필터링을 수행하는 것을 포함하는, 다차원 화상 데이터 강조 장치.
  65. 제59항에 있어서, 상기 피드백 루프는 상기 가상 블랭킹 데이터를 포함하는 상기 블랭킹 데이터에 인공적인 데이터를 제공하여, 현재 프레임의 에지 근처에서 화상 데이터를 처리할 때 상기 인공적인 데이터가 사용되도록 구성되는 다차원 화상 데이터 강조 장치.
  66. 제65항에 있어서, 상기 피드백 루프는 상기 가상 블랭킹 영역을 포함하는 상기 블랭킹 영역에 인공적인 데이터를 반복적으로 제공하도록 또한 구성되는, 다차원 화상 데이터 강조 장치.
  67. 제66항에 있어서, 인공적인 데이터를 반복적으로 제공하는 것은 상기 컨볼루션적으로 필터링된 데이터를 피드백하고 상기 제어 신호의 제어 하에서 블랭킹 구간들 동안 상기 컨볼루션적으로 필터링된 데이터를 새롭게 수신된 화상 데이터와 다중화시키는 것을 포함하는, 다차원 화상 데이터 강조 장치.
KR1020057008160A 2002-11-06 2003-11-06 다차원들에서 화상 강조를 위한 시스템들 및 방법들 KR20050084992A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US42447202P 2002-11-06 2002-11-06
US42447302P 2002-11-06 2002-11-06
US60/424,472 2002-11-06
US60/424,473 2002-11-06

Publications (1)

Publication Number Publication Date
KR20050084992A true KR20050084992A (ko) 2005-08-29

Family

ID=32314538

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057008160A KR20050084992A (ko) 2002-11-06 2003-11-06 다차원들에서 화상 강조를 위한 시스템들 및 방법들

Country Status (7)

Country Link
US (2) US7668390B2 (ko)
EP (1) EP1590764A4 (ko)
JP (2) JP4503441B2 (ko)
KR (1) KR20050084992A (ko)
AU (1) AU2003287577A1 (ko)
CA (1) CA2505260A1 (ko)
WO (1) WO2004044843A2 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003900746A0 (en) * 2003-02-17 2003-03-06 Silverbrook Research Pty Ltd Methods, systems and apparatus (NPS041)
US8416468B2 (en) * 1999-09-17 2013-04-09 Silverbrook Research Pty Ltd Sensing device for subsampling imaged coded data
US7356195B2 (en) * 2004-04-29 2008-04-08 Hewlett-Packard Development Company, L.P. System and method for estimating image sharpness
USH2184H1 (en) * 2004-05-07 2007-03-06 Tektronix, Inc. Wide dynamic range vector data raster display
JP2006050358A (ja) * 2004-08-06 2006-02-16 Pioneer Electronic Corp 映像信号処理装置
JP2006185038A (ja) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc 4次元ラベリング装置、n次元ラベリング装置、4次元空間フィルタ装置およびn次元空間フィルタ装置
GB2432071A (en) 2005-11-04 2007-05-09 Autoliv Dev Determining pixel values for an enhanced image dependent on earlier processed pixels but independent of pixels below the pixel in question
FR2898410B1 (fr) * 2006-03-07 2008-05-09 Airbus France Sas Procede de caracterisation de la tenue en fatigue d'une piece a partir de son profil de surface
US20080266310A1 (en) * 2006-03-31 2008-10-30 Kayla Chalmers System and method for multiple color format spatial scaling
US8111268B2 (en) * 2006-04-20 2012-02-07 Qualcomm Incorporated Image scaling method and apparatus
JP4999392B2 (ja) * 2006-07-28 2012-08-15 キヤノン株式会社 画像処理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
JP4063306B1 (ja) * 2006-09-13 2008-03-19 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US8824833B2 (en) * 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
JP4875647B2 (ja) * 2008-03-12 2012-02-15 パナソニック株式会社 輪郭補正回路
JP4508279B2 (ja) * 2008-07-17 2010-07-21 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US8130229B2 (en) 2009-11-17 2012-03-06 Analog Devices, Inc. Methods and apparatus for image processing at pixel rate
US8798388B2 (en) * 2009-12-03 2014-08-05 Qualcomm Incorporated Digital image combining to produce optical effects
US8754988B2 (en) * 2010-12-22 2014-06-17 Tektronix, Inc. Blur detection with local sharpness map
US8729653B2 (en) 2011-10-26 2014-05-20 Omnivision Technologies, Inc. Integrated die-level cameras and methods of manufacturing the same
CN104067311B (zh) * 2011-12-04 2017-05-24 数码装饰有限公司 数字化妆
JP6408884B2 (ja) * 2014-11-28 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
DE102019128073A1 (de) * 2019-10-17 2021-04-22 Infineon Technologies Ag Verarbeitung von Radarsignalen

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720745A (en) * 1983-06-22 1988-01-19 Digivision, Inc. Method and apparatus for enhancing video displays
US4618990A (en) * 1984-11-15 1986-10-21 General Electric Company Edge enhancement filtering for digital fluorography images
US4819188A (en) * 1984-11-22 1989-04-04 Kabushiki Kaisha Toshiba Image processing apparatus
US4667304A (en) 1984-11-23 1987-05-19 Digivision, Inc. Real-time, localized enhancement of a video image using separable two-dimensional filters
US4941191A (en) * 1988-01-04 1990-07-10 O-I Neg Tv Products, Inc. Formerly Known As Owens-Illinois Television Products, Inc.) Image analysis system employing filter look-up tables
US4908876A (en) 1988-03-16 1990-03-13 Digivision, Inc. Apparatus and method for enhancement of image viewing by modulated illumination of a transparency
US5038388A (en) * 1989-05-15 1991-08-06 Polaroid Corporation Method for adaptively sharpening electronic images
DE69214229T2 (de) 1991-08-14 1997-04-30 Agfa Gevaert Nv Verfahren und Vorrichtung zur Kontrastverbesserung von Bildern
US5737022A (en) * 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
WO1995016234A1 (en) * 1993-12-12 1995-06-15 Asp Solutions Usa, Inc. Apparatus and method for signal processing
US5574572A (en) * 1994-09-07 1996-11-12 Harris Corporation Video scaling method and device
US5774599A (en) * 1995-03-14 1998-06-30 Eastman Kodak Company Method for precompensation of digital images for enhanced presentation on digital displays with limited capabilities
US5917935A (en) * 1995-06-13 1999-06-29 Photon Dynamics, Inc. Mura detection apparatus and method
JP3568279B2 (ja) * 1995-06-30 2004-09-22 富士写真フイルム株式会社 画像再生方法および装置
US6125194A (en) * 1996-02-06 2000-09-26 Caelum Research Corporation Method and system for re-screening nodules in radiological images using multi-resolution processing, neural network, and image processing
JP3738791B2 (ja) * 1996-08-19 2006-01-25 富士写真フイルム株式会社 画像処理方法および装置
US6453074B1 (en) * 1997-03-31 2002-09-17 Canon Kabushiki Kaisha System for image decimation including selective filtering
US5910908A (en) * 1997-09-16 1999-06-08 Tektronix, Inc. Fir filter for programmable decimation
US6975779B1 (en) * 1998-09-28 2005-12-13 Infineon Technologies Ag Method for modifying the image size of video images
US6853385B1 (en) * 1999-11-09 2005-02-08 Broadcom Corporation Video, audio and graphics decode, composite and display system
US6424749B1 (en) * 1999-03-30 2002-07-23 Matsushita Electric Industrial Co., Ltd. System and method for scaling combined video and computer generated imagery
JP2001056856A (ja) * 1999-06-10 2001-02-27 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
US6829016B2 (en) * 1999-12-20 2004-12-07 Texas Instruments Incorporated Digital still camera system and method
US6657677B1 (en) * 2000-01-12 2003-12-02 Koninklijke Philips Electronics N.V. Method and apparatus for improving conversion from SD to HDTV
US6724943B2 (en) * 2000-02-07 2004-04-20 Sony Corporation Device and method for image processing
US20020076116A1 (en) * 2000-12-15 2002-06-20 Xerox Corporation Fast implementation of homomorphic filters for image enhancement
US6937772B2 (en) * 2000-12-20 2005-08-30 Eastman Kodak Company Multiresolution based method for removing noise from digital images
JP4086479B2 (ja) * 2001-03-23 2008-05-14 Necディスプレイソリューションズ株式会社 画質改善装置および画質改善方法
US6993207B1 (en) * 2001-10-05 2006-01-31 Micron Technology, Inc. Method and apparatus for electronic image processing
US6891549B2 (en) * 2002-01-11 2005-05-10 Applied Materials, Inc. System and method for edge enhancement of images
US6937775B2 (en) * 2002-05-15 2005-08-30 Eastman Kodak Company Method of enhancing the tone scale of a digital image to extend the linear response range without amplifying noise

Also Published As

Publication number Publication date
EP1590764A4 (en) 2017-05-17
CA2505260A1 (en) 2004-05-27
US7092582B2 (en) 2006-08-15
AU2003287577A8 (en) 2004-06-03
JP2006506021A (ja) 2006-02-16
US7668390B2 (en) 2010-02-23
WO2004044843A2 (en) 2004-05-27
JP5000737B2 (ja) 2012-08-15
AU2003287577A1 (en) 2004-06-03
EP1590764A2 (en) 2005-11-02
JP2010213284A (ja) 2010-09-24
US20040227773A1 (en) 2004-11-18
US20040234154A1 (en) 2004-11-25
WO2004044843A3 (en) 2004-12-16
JP4503441B2 (ja) 2010-07-14

Similar Documents

Publication Publication Date Title
JP5000737B2 (ja) 多次元画像の画質向上のためのシステムおよび方法
JP3689423B2 (ja) 連続ズームが施される連続画像のための鮮鋭度向上方法およびその装置
US5325449A (en) Method for fusing images and apparatus therefor
US20070086671A1 (en) Image processing apparatus
EP2000976B1 (en) Image processing apparatus and image processing method
JP2003524903A (ja) 背景情報を挿入することによりリアルタイム安定化画像から空白領域を排除する装置と方法
JP3879543B2 (ja) 画像処理装置
EP0686941B1 (en) Method and apparatus for graphic processing
JPWO2011111819A1 (ja) 画像処理装置、画像処理プログラム、および、画像を生成する方法
US8155476B2 (en) Image processing apparatus, image processing method, and program
KR101816661B1 (ko) 비디오 스케일러들에서의 링잉 억제
JP2006304352A (ja) 画像処理装置
US8107760B2 (en) Systems and methods for image enhancement in multiple dimensions
EP1565878A1 (en) A unit for and method of image conversion
US5483474A (en) D-dimensional, fractional bandwidth signal processing apparatus
US7444034B1 (en) Systems and methods for image enhancement in multiple dimensions
Jaspers et al. A flexible heterogeneous video processor system for television applications
US8559759B2 (en) Image processing apparatus for image reduction processing and control method thereof
JP2002183726A (ja) 画像処理装置
JP2989701B2 (ja) 画像ライン補間回路及び撮像装置
JP2005136891A (ja) 画像符号化方法、装置、プログラム、及びこれを記憶した記憶媒体
JPH11187360A (ja) 画像処理装置
JPH07225835A (ja) 映像信号処理方法および映像信号処理装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid