KR100564592B1 - 동영상 데이터 잡음제거방법 - Google Patents

동영상 데이터 잡음제거방법 Download PDF

Info

Publication number
KR100564592B1
KR100564592B1 KR20030090032A KR20030090032A KR100564592B1 KR 100564592 B1 KR100564592 B1 KR 100564592B1 KR 20030090032 A KR20030090032 A KR 20030090032A KR 20030090032 A KR20030090032 A KR 20030090032A KR 100564592 B1 KR100564592 B1 KR 100564592B1
Authority
KR
South Korea
Prior art keywords
noise
image
motion
value
pixel
Prior art date
Application number
KR20030090032A
Other languages
English (en)
Other versions
KR20050057829A (ko
Inventor
강문기
박성철
Original Assignee
삼성전자주식회사
학교법인연세대학교
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 학교법인연세대학교 filed Critical 삼성전자주식회사
Priority to KR20030090032A priority Critical patent/KR100564592B1/ko
Priority to US11/001,900 priority patent/US7369181B2/en
Priority to TW93137331A priority patent/TWI275042B/zh
Priority to CNB200410103757XA priority patent/CN100539692C/zh
Priority to JP2004360468A priority patent/JP4887544B2/ja
Publication of KR20050057829A publication Critical patent/KR20050057829A/ko
Application granted granted Critical
Publication of KR100564592B1 publication Critical patent/KR100564592B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/06Continuously compensating for, or preventing, undesired influence of physical parameters
    • H03M1/08Continuously compensating for, or preventing, undesired influence of physical parameters of noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection

Abstract

시간영역 필터링에서 사용되는 프레임 개수를 줄임과 동시에 움직임감지를 용이하게 하는 동영상데이터 잡음제거방법을 개시한다. 상기 동영상 디지털데이터 잡음제거방법은, 공간영역 필터링 방법, 시간영역 필터링 방법 및 상기 공간영역 필터링 방법 및 시간영역 필터링 방법을 순차적으로 수행하는 방법을 포함하며, 상기 공간영역 필터링 방법은, YCbCr 영역에서의 공간영역 필터링, 공간영역에서의 영상의 윤곽선 보존, 공간영역 필터링에서 윤곽선을 구분하기 위한 잡음에 적응하는 가중치를 도입하며, 상기 시간영역 필터링방법은 전역움직임이 보상된 움직임/장면전환 감지기반 시간영역 필터링, 시간영역 필터링에서 움직임의 밝기/색상 차를 동시에 고려한 움직임감지 및 시간 영역 필터링에서 움직임감지를 위한 잡음에 적응하는 가중치를 도입하고, 상기 공간영역 필터링 방법 및 시간영역 필터링 방법의 순차적 수행방법은 상기 공간영역 필터링방법을 먼저 실행하고 그 실행결과를 이용하여 상기 시간영역 필터링방법을 수행한다.

Description

동영상 데이터 잡음제거방법{Methods for noise removal of moving picture digital data}
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시 예에 따른, 동영상 디지털데이터 잡음제거방법을 나타내는 신호흐름도(flowchart)이다.
도 2는 가중치W(k,l,n) 의 특성(C=1)을 나타내는 그래프이다.
도 3은 가중치W(k,l,n) 의 특성(C
Figure 112003047296285-pat00001
1)을 나타내는 그래프이다.
도 4는 본 발명의 제1 실시 예에 따른 동영상디지털 데이터 잡음제거방법에 포함된 각각의 단계를 나타내는 다이어그램이다.
도 5는 본 발명의 제2 실시 예에 따른 동영상디지털 데이터 잡음제거방법에 포함된 각각의 단계를 나타내는 다이어그램이다.
본 발명은 동영상에 관한 것으로서, 특히 동영상 데이터 잡음제거방법에 관한 것이다.
동영상 디지털 데이터는 그 양이 방대하기 때문에, 이들의 효율적인 전송 및 저장을 위하여 반드시 데이터 압축과정을 거친다. 비디오 신호의 재생화질 개선 및 데이터 압축률 향상에 대한 기술은 관련 상품의 경쟁력 향상을 위한 필수 요소가 된다. 최근에 HDTV(High Definition TV) 및 DVD(Digital Versatile Disc)와 같은 비교적 고화질이 요구되는 디지털 멀티미디어 상품에 MPEG-2(Moving Picture Experts Group) 압축 알고리듬이 표준으로 채택된 것도 이러한 이유를 반영한 것이다.
한편 동영상을 취급하는 영상입력시스템, 전송채널 및 송수신단에 내재된 기술적 한계로 인하여, 영상을 획득하고 송수신하는 과정에서 잡음이 필연적으로 발생하게 된다. 동영상 디지털 데이터인 영상 시퀀스에 포함된 잡음은, 재생화질을 저하시킬 뿐만 아니라 신호의 고주파 성분으로 인식되어 압축률을 저하시키는 원인이 된다. 다시 말하면, 잡음도 데이터로 인식되기 때문에 정해진 비트 레이트(bit rate)를 맞추기 위하여 원래 신호를 더 많이 압축시켜야 하므로 블로킹 아타팩트(blocking artifact)와 같은 코딩 아티팩트(coding artifact)가 생기게 된다.
이러한 단점을 극복하기 위하여, 효율적인 잡음 제거 알고리듬을 이용하여 잡음을 미리 제거한 후에 MPEG-2를 적용하여 데이터를 압축한다면, 영상 시퀀스의 압축률을 크게 향상시킬 수 있으며 궁극적으로는 화질의 향상을 가져올 수 있게 된다. 종래에 사용중인 일반적인 잡음제거 알고리듬은 크게 공간영역 필터링, 시간영역 필터링 및 시공간영역 필터링으로 구분될 수 있다.
일반적인 공간 영역에서의 잡음제거 알고리듬(Spatial Filtering, 공간영역 필터링)은 정적 영상 모델(stationary model)을 기초로 하기 때문에, 잡음이 제거된 후 재생된 영상이 윤곽선을 보존하지 못하는 단점이 있다. 이를 극복하기 위하여 윤곽선 적응 필터를 추가로 사용한다 하더라도, 윤곽선을 구분하기 위한 임계값을 잡음의 정도에 상관없이 상수로 고정한 경우나 컬러얼룩이 생긴 경우에는 그다지 유효한 방법이 되지 못한다. 여기서 컬러얼룩이라 함은, CCD 센서상 Color Filter Array(CFA)를 구성하는 각 채널이 조도에 따라 나타내는 서로 다른 특성을, 조도와 관계없이 동일하게 처리해서 나타난 현상을 말한다.
또한, 공간 영역에서의 필터링은 정지 영상 한 장을 처리할 때는 효율적이지만, 영상 시퀀스를 필터링 할 때는 각 프레임마다 잡음이 제거된 정도가 다르게되므로, 이러한 차이가 데이터 재생 시 깜박임 현상(flickering)으로 나타난다. 그러므로 기존의 공간영역 필터링의 성능을 개선하기 위해서는 잡음에너지(정확하게는 잡음에너지분산)에 따라 윤곽선을 결정하기 위한 임계값을 적응적으로 바꿀 수 있어야 하며, 컬러얼룩 및 깜박임 현상을 제거하기 위해서는 공간영역 필터링만으로는 부족하고 시간영역 필터링을 효율적으로 첨가시켜야 한다.
한편 시간 영역에서의 잡음제거 알고리듬(Temporal Filtering, 시간영역 필터링)의 경우, 움직임에 의한 영상의 왜곡을 방지하기 위하여 움직임 보상(motion compensation)의 개념을 사용한다. 그러나 움직임 보상을 고려하기 위해서는 물체의 움직임을 각 프레임마다 추정하고 그 움직임 궤적을 따라 필터링 하여야 하며, 움직임 추정을 하기 위하여 상당한 계산을 추가적으로 하여야 한다.
최근에 움직임 보상에 의한 오차 및 계산 량의 부담을 덜기 위하여 움직임 감지(motion detection) 알고리즘에 기초한 새로운 시간영역 잡음제거 알고리듬이 사용되고 있다. 움직임감지 알고리즘에 기초한 새로운 시간영역 잡음제거 알고리듬의 효율성은, 움직임감지 알고리듬의 정확성(robustness)에 크게 의존한다. 일반적인 움직임감지 알고리듬은 컬러영상의 움직임을 밝기 차로만 구분하기 때문에 색상차이로 인한 움직임은 구분하지 못한다. 따라서 물체와 배경의 밝기 차가 크기 않은 경우에는 물체의 움직임은 밝기차이 보다는 색상차이로 구분해야 하기 때문에 문제가 발생하게 된다.
이를 극복하기 위한 방법으로 컬러영상의 벡터특성을 고려하여 RGB 벡터간의 크기(밝기) 및 각도(색상)의 차이를 동시에 반영하여 움직임을 감지하는 방법이 있다. 이 방법은 시스템의 입력신호가 RGB 신호이거나 알고리듬이 소프트웨어에 의하여 처리될 때에는 연산 량 및 메모리의 용량에 관계없이 사용될 수 있으나, 알고리듬을 하드웨어로 구현하고자 할 때에는 제약이 생기게 된다. 왜냐하면, 대부분의 입력신호는 YCbCr 과 같은 변환된 형태의 신호이므로, RGB 벡터연산을 하기 위해서는 YCbCr 형태의 입력신호를 RGB영역으로 변환하여야 하며, RGB 벡터의 각도(색상)의 차이를 계산하기 위해서는 코사인(cosine) 혹은 사인(sine) 함수의 역함수 계산을 위한 비 선형적 연산이 필요하기 때문에 이를 하드웨어로 구현하려면 하드웨어의 규모가 너무 커지게 된다.
RGB 벡터의 각도(색상) 차이를 이용한 움직임 감지는, 감지된 신호를 구별하는데 기준이 되는 임계 값을 정하는데 있어서도 어려움이 있다. 임계 값의 결정은 필터링의 성능에 크게 영향을 끼치는데 임계 값이 너무 크면 움직임 잔상과 같은 가공물(artifact)이 생길 수 있고, 너무 작으면 잡음이 제거되지 않기 때문이다. 예를 들면, RGB 벡터간의 각도(색상)를 이용한 움직임 감지에서는 cosine 함수의 입력 값이 0(zero)에 가까울 때는 출력 값 사이의 차이가 적기 때문에 임계 값이 소수점 아래로 정밀하게 정해져야만 움직임을 효율적으로 감지할 수 있다. 이러한 임계 값 결정의 어려움을 극복하고 가공물 없이 잡음을 효율적으로 제거하기 위해서는, 상대적으로 많은 프레임을 처리할 것이 필요하게 되고 이를 하드웨어로 구현하기 위해서는 상당한 용량의 메모리가 확보되어야 하며 이는 하드웨어의 규모가 커지게 되는 것을 의미한다.
이러한 문제 외에 일반적인 움직임 감지 기반 시간영역 필터링에서 추가적으로 고려되어야 할 점은 장면 전환 감지(scene detection)와 시퀀스에 속한 잡음의 에너지에 따라 움직임감지 임계 값이 적응적으로 변화되어야 한다는 점이다. 즉, 자주 일어나는 장면전환데이터를 포함하는 일반적인 시퀀스를 처리할 때 움직임감지에만 의존한다면, 장면이 전환된 프레임들에 속한 화소(pixel) 사이의 밝기 혹은 색상이 비슷할 경우, 이들 전환된 장면들이 한꺼번에 필터링 되므로, 필터링 된 프레임에 서로 다른 장면이 섞일 수 있다. 또한 가공물에 강인하면서도 효율적으로 잡음을 제거하기 위해서는 잡음의 에너지가 작을 때는 작은 임계 값이, 클 경우에는 큰 임계 값이 움직임 감지 알고리듬에 적응적으로 사용되어야만 한다.
그러므로 기존의 움직임 기반 시간영역 필터링의 성능을 개선하기 위해서는 장면 전환감지 알고리듬을 추가해야 하며, YCbCr 영역에서 밝기/색상 움직임 임계 값을 연산 량의 부담 없이 잡음의 에너지에 적응적으로 결정하여 필터링에 필요한 프레임 개수를 줄일 수 있어야 한다.
상기 두 가지를 조합하여 사용하는 종래의 시공간영역에서의 잡음제거 알고리듬(Spatio-temporal Filtering)은, 대부분 공간필터링(Spatial Filtering)을 시간 영역으로 확장한 것으로서 잡음을 보다 효율적으로 제거할 수 있지만, 위에서 언급한 시간영역 혹은 공간영역 필터링의 한계를 그대로 간직하고 있다.
본 발명이 이루고자하는 기술적 과제는, 시간영역 필터링에서 사용되는 프레임 개수를 줄임과 동시에 움직임감지를 용이하게 하는 동영상데이터 잡음제거방법을 제공하는데 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 제1면(aspect)에 따른 동영상데이터 잡음제거방법은, 동영상의 색상성분에 대해서는 SMO(Sample Mean Operator)에 기반을 둔 공간영역 필터링을 수행하는 단계, 동영상의 밝기성분에 대해서는 MMSE(Minimum Mean Square Error) 필터에 기반을 둔 공간영역 필터링을 수행하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 제2면에 따른 동영상데이터 잡음제거방법은, 공간영역 필터링을 거친 프레임들(예를 들면, 1개의 밝기성분 및 2개의 색상성분), 전역움직임 추정벡터 및 동영상 내의 잡음의 양에 따라 설계자가 임의로 정할 수 있는 임계 값에 따라 결정되는 소정의 기준 값을 이용하여, 시간영 역에서의 잡음의 상대적 크기(예를 들면, 에너지)를 추정하고, 추정된 잡음의 상대적 크기 및 상기 공간영역 필터링을 거친 프레임들을 이용하여 추정된 상대적 잡음의 상대적 크기에 따라 움직임감지에 사용되는 밝기성분에 대한 가중치 및 색상성분에 대한 가중치를 적응적으로 변환시키며, 장면전환 감지결과, 상기 변환된 밝기성분 및 색상성분에 대한 가중치 및 상기 공간영역 필터링을 거친 프레임들을 이용하여 전역(global)움직임이 보상된 시간영역 필터링을 수행한다.
상기 기술적 과제를 달성하기 위한 본 발명의 제3면에 따른 동영상데이터 잡음제거방법은, 동영상디지털 데이터의 색상성분을 SMO에 기반을 둔 공간영역 필터링을 수행한 공간영역 필터링에 의하여 얻은 색상성분에 대한 2개의 데이터 및 동영상디지털 데이터의 밝기성분에 대하여 MMSE에 기반을 둔 공간영역 필터링을 수행하여 얻은 1개의 밝기성분 데이터에 대하여 상대적 크기에 적응된 가중치를 적용하여 전역움직임이 보상된 시간영역 필터링을 수행한다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
제안된 알고리듬은 크게 공간영역 필터와 시간영역 필터로 구분되며, 공간영역 필터를 먼저 취한 후 그 결과에 시간영역 필터를 적용하는 것이 바람직하다.
도 1은 본 발명에 따른, 동영상 디지털데이터 잡음제거방법을 나타내는 신호흐름도(flowchart)이다.
도 1을 참조하면, 본 발명에 따른 동영상 디지털데이터 잡음제거방법은, 제1실시 예로서의 공간영역 필터링 단계(110) 및 제2실시 예로서의 시간영역 필터링 단계(150)를 구비한다. 제3실시 예는 상기 2개의 단계(110 및 150)를 연속적으로 이용하는 것이다.
상기 기술적 과제를 달성하기 위한 제1실시 예에 따른 동영상 디지털데이터 잡음제거방법(110)은, YCbCr 포맷(format)의 입력신호에 대하여 밝기성분(Y)에는 에지 보존을 위한 LMMSE(Linear Minimum Mean Square Error)기반의 필터를, 색상성분(CbCr)에는 영상의 안정감을 높이기 위하여 저역 통과 필터(low pass filter)를 취한다.
색상성분의 대표 값을 구한다(111)는 것은, 색상성분의 평균값 또는 중앙값을 구하는 것을 의미하는데, 색상성분에 저역 통과 필터를 적용한다는 말은 특정 마스크 내에서 평균을 구한다는 것과 같다.
밝기성분에 대하여 LMMSE 기반의 필터를 적용(112)하기 위해서는 모두 5단계를 거쳐야 한다.
첫째, 소정의 잡음 적응적인 에지 임계 값을 이용하여 각 화소의 밝기성분에 대한 에지(edge)에 적응적인(adaptive) 대표 값을 구한다(113). 여기서 대표 값은 각 화소의 평균 값 또는 중앙값을 의미하는데 에지에 적응적인 대표 값은 로컬 마스크 내에서 에지의 한쪽 면에 위치한 화소들을 이용하여 구한다.
상기 소정의 잡음 적응적인 에지 임계 값은, 종래의 경우와 같이 일정한 값으로 고정되는 것이 아니라 잡음의 양에 따라 적응적으로 변화하는 값인 것이 본 발명에 포함된 여러 가지 특징 중의 하나이다.
둘째, 상기 잡음 적응적인 임계 값을 이용한 소정의 에지 적응적인 가중치 및 상기 에지 적응적인 대표 값을 이용하여 각 화소의 산포도 값을 추정한다(114). 상기 산포도 값은 분산 또는 표준편차를 의미하는데, 화소의 분산(signal activity)이란 영상의 변화도 또는 영상의 에지 정도를 의미한다.
셋째, 입력영상과 상기 영상의 대표 값과의 차 영상을 구한다(115). 구하여진 차 영상에는 입력영상의 잡음 성분과 에지 성분이 모두 포함되어 있다.
넷째, 상기 영상의 산포도 값과 잡음산포도 값을 비교하여 가중치를 구한다. (116)
다섯째, 상기 차 영상에서 영상의 에지 성분에는 큰 가중치를 부여하고 잡음 성분에는 작은 가중치를 부여하고, 상기 에지 적응적인 대표 값에 상기 가중치가 적용된 차 영상을 더한다(117). 잡음산포도 값이란 잡음 분산과 잡음 표준편자를 의미하며, 잡음분산은 잡음이 심한 정도를 나타낸다.
상기 다섯 단계(113 내지 117)를 모두 거치면, 영상의 평탄한 영역에서는 상기 차 영상에 적은 가중치가 부여되므로 필터의 결과가 상기 에지 적응적인 대표 값과 같고, 영상의 에지 부분에서는 상기 차 영상에 큰 가중치가 부여되므로 필터의 결과가 상기 에지 적응적인 대표 값에 영상의 에지를 더해준 결과가 된다.
상기 기술적 과제를 달성하기 위한 제2실시 예에 따른 동영상 디지털데이터 잡음제거방법은(150), 총 4개의 단계(151 내지 154)로 구성된다.
첫째, 프레임 간에 장면전환이 있었는가를 감지한다(151).
둘째, 프레임간의 전역움직임을 추정하고, 각 화소에 대하여 전역 움직임 궤적을 따라 시간영역에서의 잡음의 상대적 크기를 추정한다(152).
셋째, 각 화소에 대하여 전역움직임 궤적을 따라 움직임을 감지한다. 영상의 밝기성분(Y)과 색상성분(CbCr)을 동시에 이용하며, 잡음정도에 적응적인 움직임 임계 값을 사용한다. 최종적으로 영상의 밝기성분의 움직임 감지를 나타내는 가중치 및 영상의 색상성분의 움직임 감지를 나타내는 가중치를 구한다(153).
넷째, 장면전환이 일어나지 않은 범위 내에서 필터링하기 위한 가중치, 상기 잡음의 상대적 크기, 상기 영상의 밝기성분의 움직임 감지를 위한 가중치, 상기 영상의 색상성분의 움직임 감지를 위한 가중치 및 정규화를 위한 상수 전부 또는 일부를 이용하여 전역움직임이 보상된 장면전환/움직임 감지 기반 필터링을 수행(154)한다.
상기 기술적 과제를 달성하기 위한 제3실시 예에 따른 동영상 디지털데이터 잡음제거방법은, 상기 공간영역 필터링(110)을 수행하고 상기 공간영역 필터링을 수행한 결과로 생성된 프레임(예를 들면, 3개의 프레임)에 대하여 전역움직임이 보상된 장면전환 및 움직임 감지 기반 시간영역 필터링(150)을 수행하는 것이다. 제3실시 예에서는 공간영역 필터링을 먼저 적용함으로써 잡음이 어느 정도 제거되었으므로, 시간영역 필터에 필요한 움직임 감지가 용이하기 때문에 잡음의 제거를 위하여 제3실시 예를 사용하는 것이 바람직하다.
본 발명의 제1 실시 예에 따른 동영상 디지털 데이터 잡음제거방법은, 동영상의 밝기성분의 에지(edge)를 보존함으로써 영상의 선명도를 높이고, 영상의 윤곽선을 보존하면서 잡음을 제거하며, 색상성분을 평활(smoothing)화 시킴으로써 영상의 안정감을 높인다.
영상의 밝기성분(Y) 및 색상성분(Cb 및 Cr)에 대한 공간영역 필터링 된 값을 각각
Figure 112003047296285-pat00002
,
Figure 112003047296285-pat00003
Figure 112003047296285-pat00004
이라 하면, 각각 수학식 1 내지 수학식 3과 같이 표현될 수 있다.
Figure 112003047296285-pat00005
Figure 112003047296285-pat00006
Figure 112003047296285-pat00007
여기에서, N은 로컬 마스크(local mask)의 크기이고, i 및 j는 화소(pixel)의 2차원 좌표를 나타내며, n은 프레임을 의미하고,
Figure 112005059744514-pat00008
는 입력영상으로서 열화된 영상의 Y성분,
Figure 112005059744514-pat00009
Figure 112005059744514-pat00010
의 평균,
Figure 112005059744514-pat00011
Figure 112005059744514-pat00012
의 분산,
Figure 112005059744514-pat00013
는 잡음의 분산,
Figure 112005059744514-pat00014
는 열화된 영상의 {Cb}성분,
Figure 112005059744514-pat00015
은 열화된 영상의 {Cr}성분을 각각 나타낸다.
수학식1의 밝기성분(Y)에 대한 공간영역 필터링을 살펴보면, 열화된 영상의 평탄한 부분에서는
Figure 112003047296285-pat00016
이 될 것이므로, 필터의 출력이 열화된 영상의 평균치(대표 값)(
Figure 112003047296285-pat00017
)가 되고, 열화된 영상의 고주파성분에 대해서는
Figure 112003047296285-pat00018
이 될 것이므로, 열화된 영상의 평균치(대표 값)에 일정한 가중치 성분(
Figure 112003047296285-pat00019
)을 더해주어 영상의 고주파 성분을 보존하게 한다.
상기 수학식1이 영상의 미세한 성분에도 효력을 발휘하게 하도록 하기 위하여 동영상의 비-정적(non-stationary) 특성을 반영한다. 이를 위해, 열화된 영상의 평균 및 분산은, (2N+1)x(2N+1) 로컬 마스크(local mask) 내에서 영상의 윤곽선을 가로지르지 않는 범위 내에서 다음의 수학식 4 및 수학식 5와 같이 계산된다. (이때 수학식 1의 잡음 분산에너지는 추정되었거나 알고 있다고 가정한다.)
Figure 112003047296285-pat00020
Figure 112003047296285-pat00021
여기에서, W(k,l,n)은 필터링 될 중심화소와 주변화소가 에지(edge)를 기준으로 서로 같은 영역에 있는 지를 판단하는 에지 적응적인 가중치이며, 중심화소와 주변화소와의 밝기 차이에 반비례하는 특성을 가져야 한다. 즉, W(k,l,n)은 주변화소가 에지(edge)와 같은 면에 있으면 큰 값(
Figure 112003047296285-pat00022
)을 가지고, 다른 면에 있으면 작은 값(
Figure 112003047296285-pat00023
)을 가져야 한다.
상기 에지 적응적인 가중치W(k,l,n)는 수학식 6과 같이 표현된다.
Figure 112003047296285-pat00024
밝기 차이를 나타내는
Figure 112003047296285-pat00025
는,
Figure 112003047296285-pat00026
이고
Figure 112003047296285-pat00027
는 일차함수, 지수함수 또는 로그함수 등의 단조증가함수, C는 1보다 크거나 같은 상수이며, 잡음 적응적인 에지 임계 값
Figure 112003047296285-pat00028
는 일차함수, 지수함수 또는 로그함수 등의 단조증가함수로서 다음과 같이 정의될 수 있다.
사전지식에 의하여, 상기 잡음 적응적인 에지 임계 값(
Figure 112003047296285-pat00029
)이 가져야 할 하한 값(잡음이 적은 경우 가져야할 바람직한 값)과 상한 값(잡음이 많은 경우 가져야할 바람직한 값)을 미리 정의 할 수 있으므로, 상기 잡음 적응적인 에지 임계 값(
Figure 112003047296285-pat00030
)은 상기 상한 값과 하한 값 사이에서 잡음 분산의 크기에 비례하도록 정의된다.
도 2는 에지 적응적인 가중치W(k,l,n)의 특성(C=1)을 나타내는 그래프이다.
도 3은 에지 적응적인 가중치W(k,l,n)의 특성(C
Figure 112003047296285-pat00031
1)을 나타내는 그래프이다.
도 2 및 도 3을 참조하면, C가 1인 경우 가중치(W(k,l,n))는 단순히 "1" 또는 "0"의 형태를 나타내며, C가 1이 아닌 경우로서 C가 1보다 큰 경우 가중치함수는 주변화소와의 차이를 좀 더 세분하여 선형적으로 고려할 수 있음을 알 수 있다. 또한 수학식 6의 특성을 나타낸 도 3의 구간
Figure 112003047296285-pat00032
Figure 112003047296285-pat00033
사이의 선형함수는 경우에 따라 다른 형태의 단조감소함수가 사용될 수 있다.
Figure 112003047296285-pat00034
Figure 112003047296285-pat00035
는 잡음 적응적인 에지 임계 값을 나타낸다.
수학식 4 내지 6 및 도 2 내지 도 3을 참조하면, 중심화소와 어떤 이웃화소와의 차이(
Figure 112003047296285-pat00036
)가 잡음 적응적인 임계 값(
Figure 112003047296285-pat00037
)보다 크거나 같을 경우, 해당 화소는 평균 및 분산 계산 시 제외됨(W(k,l,n)=0)을 알 수 있다. 이러한 가중치 W(k,l,n)을 도입하여 국부적 평균/분산(local mean/variance)들을 추정하게 되면 필터링 시 다음과 같은 적응적 특성을 나타내게 된다.
국부평균 추정 시 평균을 구하는 중심화소와 상관관계가 적은(즉, 중심화소와 이웃화소와의 차이(
Figure 112003047296285-pat00038
)가 잡음 적응적인 에지 임계 값(
Figure 112003047296285-pat00039
)보다 큰 경우) 윤곽선을 기준으로 반대편 화소들은 사용하지 않고, 상관관계가 큰 주위 화소(윤곽선을 기준으로 같은 편에 위치한 화소)들만 사용하게 되므로 결과적으로 윤곽선에서 흐림 현상(blurring effect)을 방지하게 된다. 마찬가지로, 국부분산추정 시 상대적으로
Figure 112003047296285-pat00040
값이 매우 큰 윤곽선에 위치한 잡음성분들을 계산에서 제외하므로, 재생된 영상에서 윤곽선에 위치한 잡음성분들이 크게 눈에 띄지 않게 된다.
수학식 6에서 유의해야 할 점은, 윤곽선이 상수 임계 값에 의해 결정되는 것이 아니라, 잡음 분산의 함수에 의해 추정된다는 점이다. 본 발명에 따른 잡음 적응적인 에지 임계 값(
Figure 112003047296285-pat00041
)을 임의의 상수로 고정하는 종래의 방법으로 윤곽선을 판별한다면, 임계 값이 너무 작게 설정되었을 때에는 잡음이 많은 경우 이를 효율적으로 제거하지 못할 수가 있고, 반대로 임계 값이 너무 크게 설정되었을 때에는 영상의 미세 성분이 잘 보존되지 않는 한계가 있다. 그러나 본 발명에 따른 디지털데이터 잡음제거방법에서는, 에지 임계 값(
Figure 112003047296285-pat00042
)이 잡음의 분산으로부터 잡음의 유효범위를 판별해서 적응적으로 결정되기 때문에 다양한 환경에서 좀 더 충실한(robust) 결과를 얻을 수 있다.
일반적으로 실제 영상에 대한 잡음 분산 추정 알고리듬은 오차를 가지므로, 추정된 잡음 분산 값이나 표준편차 값을 그대로 임계 값으로 사용할 경우 임계 값이 바람직하지 않게 설정되는 경우가 발생한다. 그러나 잡음 분산 추정 알고리듬이 오차를 가지더라도 잡음의 상대적인 크기에 대해서는 정확하게 판별할 수 있으므로, 본 발명에서와 같이 잡음 분산의 상대적인 크기에 따라 상한 값 및 하한 값이 정해진 함수에 새로 매핑(mapping)시키면 임계 값이 불안정하게 설정되는 것을 방지할 수 있다.
즉, 본 발명에서는 잡음 적응적인 에지 임계 값을 특정 구간 내에서 잡음 분산의 함수로 정의하므로, 잡음의 분산 값 또는 표준편차 값 자체를 직접 이용하여 임계 값을 정하는 종래의 경우보다 잡음분산 추정 알고리듬의 에러에 더 효과적(robust)이다.
도 4는 본 발명의 제1 실시 예에 따른 동영상디지털 데이터 잡음제거방법의 각각의 단계를 나타내는 다이어그램이다.
상술한 본 발명의 제1 실시 예에 따른 동영상디지털 데이터 잡음제거방법을 구성하는 각각의 단계는 도 4을 통하여 보다 정확하게 알 수 있다.
도 4를 참고하면, 본 발명의 제1 실시 예에 따른 동영상디지털 데이터 잡음제거방법은, 열화된 영상의 Y성분(
Figure 112003047296285-pat00043
)에 대하여 잡음분산(
Figure 112003047296285-pat00044
)을 구하는 단계(410), 열화된 영상의 Y성분(
Figure 112003047296285-pat00045
)에 대하여 임의의 상수(C)를 도입하여 필터링 될 중심화소와 주변화소가 서로 같은 영역에 있는 지를 판단하는 가중치(W(k,l,n))를 얻는 단계(420), 상기 가중치(W(k,l,n)) 및
Figure 112003047296285-pat00046
을 이용하여
Figure 112003047296285-pat00047
을 구하는 단계(430), 상기 가중치(W(k,l,n)), 상기
Figure 112003047296285-pat00048
및 상기
Figure 112003047296285-pat00049
을 이용하여 분산(
Figure 112003047296285-pat00050
)을 구하는 단계(440) 및 상기
Figure 112003047296285-pat00051
,
Figure 112003047296285-pat00052
,
Figure 112003047296285-pat00053
Figure 112003047296285-pat00054
을 이용하여 동영상의 밝기성분(Y)에 대한 공간영역 필터링 된 값(
Figure 112003047296285-pat00055
)을 구하는 단계(450)를 구비한다.
본 발명의 제2 실시 예에 따른 디지털 데이터 잡음제거방법은, 전역움직임(global motion)이 보상된 YCbCr 영역에서의 움직임/장면전환 감지 기반 시간영역 필터링으로서, 공간영역 필터링을 취한 프레임들(예를 들면, 3개의 프레임)을 이용하여 다음과 같은 시간영역 필터링을 행하며, 수행 과정을 요약하면 다음과 같다.
첫째, 시간영역을 취하게 될 프레임들 내에 장면 전환이 있는지를 감지하여 반영한다. 둘째, 각 프레임 사이의 전역움직임을 추정한다. 셋째, 전역움직임 궤적을 따라 각 화소간의 움직임을 감지한다. 넷째, 장면전환이 생기지 않은 프레임들의 전역움직임 궤적을 따라 움직임감지 기반 시간영역 필터링을 수행한다.
여기에서는, 장면전환 감지 및 전역움직임 추정이 먼저 수행되었다고 가정하고, 본 발명에서 제안하는 디지털데이터 잡음제거방법의 핵심부분인 YCbCr 영역에서의 움직임감지 및 시간영역 필터링에 대해서 기술한다.
먼저 잡음에너지에 적응적인 YCbCr 영역에서의 움직임감지에 대해 설명한다. 기존의 움직임감지 알고리듬에서는 움직임으로 인한 화소간의 밝기/색상 차이를 결정하는 임계 값이 잡음의 양에 상관없이 고정되어 있었다. 즉, 임계 값이 고정되어있다면, 잡음의 양이 적을 때에는 임계 값이 필요 이상으로 큰 값을 가지는 경우가 발생하여 움직임 잔상과 같은 가공물을 생성시킬 수 있으며, 반대로 잡음의 양이 많은 때에는 임계 값이 잡음의 크기에 비해 상대적으로 작은 경우가 생겨 잡음제거가 효과적이지 못할 경우가 생기게 된다.
따라서 본 발명에 따른 디지털데이터 잡음제거방법에서는 시간영역에서의 잡음의 양을 추정하여 잡음의 에너지에 따라 움직임감지에 사용되는 밝기/색상 가중치를 적응적으로 변환시켜 사용함으로써 종래의 방법의 단점을 극복하고자 한다.
필터링 될 중심 프레임의 밝기성분(Y)을
Figure 112003047296285-pat00056
이라 하고, 전역움직임 추정에 의해 추정된 이전 프레임 또는 이후 프레임과의 움직임벡터를
Figure 112003047296285-pat00057
Figure 112003047296285-pat00058
라 하 면, 시간영역에서의 잡음의 상대적 크기는 이전 프레임과 비교하여 계산될 수 있으며 이전 프레임과 비교하는 경우 수학식 7과 같이 계산될 수 있다.
Figure 112003047296285-pat00059
여기에서,
Figure 112003047296285-pat00060
는 임의의 단조증가함수이며,
Figure 112003047296285-pat00061
Figure 112003047296285-pat00062
의 값이 설계자가 임의로 설정할 수 있는 임계 값(nT)보다 작으면 1, 크면 0의 값을 가진다. 즉, 수학식 7은 영상 내의 움직임이 대부분 임계 값(nT)보다 크다는 가정 하에 임계 값(nT) 보다 작은 차이 값(차 영상에서 움직임을 제외한 화소)만 가지고 에너지를 구한 것으로서, 영상 내의 잡음의 양이 작은 경우 작은 값을 가지며, 잡음의 양이 큰 경우 임계 값(nT)보다 작은 잡음 화소의 크기가 상대적으로 크므로 잡음의 에너지(
Figure 112003047296285-pat00063
)가 큰 값을 가지게 된다.
영상의 밝기 성분의 움직임 감지를 위한 가중치는, 중심 프레임의 화소와 필터링 될 다른 프레임의 화소 사이에서의 움직임이 밝기 영역에서 발생했는가를 판단하는 기준 값이 된다. 상기 영상의 밝기 성분의 움직임 감지를 위한 가중치는, 화소간의 밝기 차이에 반비례하며, 상기 화소 사이의 밝기 차이가 소정의 밝기 움직임 임계 값 보다 크면 0(zero)의 값을 가지고, 상기 밝기 움직임 임계 값은 밝기 영역의 움직임을 구분하기 위하여 가져야 할 바람직함 범위 내에서 잡음의 크기에 비례하는 함수에 의하여 결정된다.
영상의 색상성분의 움직임 감지를 위한 가중치는 중심프레임의 화소와 필터 링될 다른 프레임의 화소사이의 움직임이 색상영역에서 발생하였는가를 판단하는 기준 값이 된다. 상기 영상의 색상성분의 움직임 감지를 위한 가중치는, 화소 사이의 색상 차이가 소정의 색상움직임 임계 값보다 크면 0(zero)의 값을 가지며, 상기 색상움직임 임계 값은 색상 영역의 움직임을 구분하기 위하여 가져야 할 바람직한 범위 내에서 잡음의 크기에 비례하는 함수에 의하여 결정된다.
밝기 영역에서의 움직임감지 가중치(
Figure 112003047296285-pat00064
)는 수학식 8과 같이 결정된다.
Figure 112003047296285-pat00065
여기에서, 움직임으로 인한 밝기 차이를 나타내는
Figure 112003047296285-pat00066
는,
Figure 112003047296285-pat00067
,
Figure 112003047296285-pat00068
는 일차함수, 지수함수 또는 로그함수 등의 단조증가함수,
Figure 112003047296285-pat00069
는 1보다 큰 상수이며, 밝기임계 값
Figure 112003047296285-pat00070
는 단조증가함수이다. 수학식 8에서 적응적인 밝기 영역에서의 움직임감지 가중치(
Figure 112003047296285-pat00071
)의 값이 0이면 해당 화소의 밝기성분(Y)에서 움직임이 감지되었음을 뜻한다.
한편 색상영역에서의 움직임감지 가중치(
Figure 112003047296285-pat00072
)는 수학식 9와 같다.
Figure 112003047296285-pat00073
여기에서, 움직임으로 인한 색상 차이를 나타내는
Figure 112003047296285-pat00074
는,
Figure 112003047296285-pat00075
이고,
Figure 112003047296285-pat00076
는 일차함수, 지수함수 또는 로그함수 등의 단조증가함수,
Figure 112003047296285-pat00077
는 1보다 큰 상수이며, 색상임계 값(
Figure 112003047296285-pat00078
)은 단조증가함수이다. 수학식 9에서 색상영역에서의 움직임감지 가중치(
Figure 112003047296285-pat00079
)의 값이 0이면 해당 화소의 색상성분(Cb 및 Cr)에서 움직임이 감지되었음을 뜻한다.
수학식 8 및 9의 가중치 함수의 형태는 기본적으로 도 1에 도시된 파형과 같은 형태이고, 공간영역 필터링에서의 윤곽선 감지와 마찬가지로 움직임 감지 알고리듬 역시 잡음의 에너지에 적응적으로 변함을 알 수 있다. 또한 종래의 RGB 벡터 특성을 이용해서 색상성분의 차이를 감지할 때에는 코사인(cosine)함수의 입력인 벡터간의 내적 및 분수연산을 해야 되었으나, 제안하는 알고리듬에서는 색상성분의 차이가
Figure 112003047296285-pat00080
의 형태로 간단히 나타남을 알 수 있다. 또한 수학식 9의
Figure 112003047296285-pat00081
의 값은 색상의 차이에 따라 선형적으로 변하므로 색상감지 임계 값을 정하기가 훨씬 쉬워지게 된다.
전역움직임이 보상된 YCbCr 영역에서의 움직임/장면전환 감지 기반 시간영역 필터링에 대하여 설명한다. 종래의 시간영역 필터링에서는 대부분 영상의 밝기성분만을 필터링 한다. 이러한 경우, 잡음의 양이 작을 때에는 효과적이나, 잡음의 양이 많거나 색상영역에 컬러얼룩과 같은 잡음이 섞여 있을 때에는 잡음 제거의 성능이 현저하게 떨어지게 된다.
이러한 점을 극복하기 위하여, 본 발명에서는 전술한 장면전환 및 움직임감지를 기반으로 YCbCr 영역을 수학식 10 내지 12와 같이 동시에 필터링 한다.
Figure 112003047296285-pat00082
Figure 112003047296285-pat00083
Figure 112003047296285-pat00084
여기에서
Figure 112005059744514-pat00085
는 시간영역 필터링 된 결과이고, Z 는 정규화를 위한 상수로서,
Figure 112005059744514-pat00182
는 밝기 성분에 대한 정규화상수이고,
Figure 112005059744514-pat00183
Figure 112005059744514-pat00184
은 색상 성분에 대한 정규화 상수이다. 또한
Figure 112005059744514-pat00086
Figure 112005059744514-pat00087
는 n 번째 프레임과 k번째 프레임 사이의 전역움직임 벡터를 나타낸다. 수학식 10에서
Figure 112005059744514-pat00088
는 장면전환이 일어나지 않는 범위 내에서 필터링하기 위한 가중치(weight)이며,
Figure 112005059744514-pat00089
Figure 112005059744514-pat00090
는 수학식 8 및 수학식 9에서 정의된 움직임 감지 가중치이다.
상기 밝기성분의 움직임 감지를 위한 가중치(
Figure 112003047296285-pat00091
)는 필터링 될 프레임의 특정화소와 이전 혹은 이후 프레임의 화소 사이에 밝기 성분의 움직임이 발생하였는가를 판단하는 가중치로서, 두 화소의 밝기 차이에 반비례하는 값을 가지며, 두 화소의 밝기 차이가 밝기임계 값보다 크면 0(zero)의 값을 가진다.
상기 밝기임계 값은 밝기 차에 의한 움직임을 구분하기 위한 임계 값이 가져야 할 바람직한 범위 내에서 시간영역의 잡음 크기에 비례하는 함수에 의하여 결정된다.
상기 색상성분의 움직임 감지를 위한 가중치(
Figure 112003047296285-pat00092
)는 필터링 될 프레임의 특정화소와 이전 혹은 이후 프레임의 화소 사이에 색상성분의 움직임이 발생하였는가를 판단하는 가중치로서, 두 화소의 색상 차이에 반비례하는 값을 가지며, 두 화소의 색상 차이가 색상임계 값보다 크면 0(zero)의 값을 가진다.
상기 색상임계 값은 색상 차에 의한 움직임을 구분하기 위한 임계 값이 가져야할 바람직한 범위 내에서 시간영역의 잡음 크기에 비례하는 함수에 의하여 결정된다.
수학식 10 내지 수학식 12에서 유의할 점은 필터링 서포트(support) 내의 어떤 프레임에서 장면이 감지되었다면 그 이후의 프레임들은 필터링에서 제외되어야 한다는 점과, 어떤 프레임의 특정 화소에서 움직임이 검출되었다면 그 이후의 프레임들의 같은 위치의 화소 역시 필터링에서 제외되어야 한다는 점이다. 또한 경우에 따라 수학식 10 내지 수학식 12에서
Figure 112003047296285-pat00093
와 전역움직임 벡터의 사용은 생략될 수 있으며,
Figure 112003047296285-pat00094
Figure 112003047296285-pat00095
둘 중에 하나도 생략된 상태로 사용 될 수 있다.
도 5는 본 발명의 제2 실시 예에 따른 동영상디지털 데이터 잡음제거방법의 각각의 단계를 나타내는 다이어그램이다.
상술한 본 발명의 제2 실시 예에 따른 동영상디지털 데이터 잡음제거방법을 구성하는 각각의 단계는 도 5를 통하여 보다 정확하게 알 수 있다.
도 5를 참고하면, 본 발명의 제2 실시 예에 따른 동영상디지털 데이터 잡음제거방법은, 중심화소의 밝기성분(Y)을 공간영역 필터링 하여 구한
Figure 112003047296285-pat00096
, 전역(global) 움직임 추정벡터(
Figure 112003047296285-pat00097
) 및 동영상 내의 잡음의 양에 따라 설계자가 임의로 정할 수 있는 임계 값(nT, 미도시)에 따라 결정되는 소정의 기준 값(
Figure 112003047296285-pat00098
)을 이용하여 시간영역에서의 잡음의 상대적 에너지(
Figure 112003047296285-pat00099
)를 추정하는 단계(510),
Figure 112003047296285-pat00100
,
Figure 112003047296285-pat00101
,
Figure 112003047296285-pat00102
,
Figure 112003047296285-pat00103
및 소정의 상수 값(
Figure 112003047296285-pat00104
)을 이용하여 밝기성분의 가중치(
Figure 112003047296285-pat00105
)를 적응적으로 변환시키는 단계(520), 중심화소의 색상성분(Cb 및 Cr)을 공간영역 필터링 하여 구한
Figure 112003047296285-pat00106
,
Figure 112003047296285-pat00107
,
Figure 112003047296285-pat00108
,
Figure 112003047296285-pat00109
,
Figure 112003047296285-pat00110
및 소정의 상수 값(
Figure 112003047296285-pat00111
)을 이용하여 색상성분의 가중치(
Figure 112003047296285-pat00112
)를 적응적으로 변환시키는 단계(530) 및
Figure 112003047296285-pat00113
,
Figure 112003047296285-pat00114
,
Figure 112003047296285-pat00115
,
Figure 112003047296285-pat00116
,
Figure 112003047296285-pat00117
,
Figure 112003047296285-pat00118
,
Figure 112003047296285-pat00119
및 장면전환이 일어나지 않는 범위에 내에서 필터링 하기 위한 가중치인
Figure 112003047296285-pat00120
를 이용하여 전역움직임이 보상된 데이터(
Figure 112003047296285-pat00121
,
Figure 112003047296285-pat00122
Figure 112003047296285-pat00123
)를 구하는 시간영역 필터링 하는 단계(540)를 구비한다.
상술한 내용을 요약하면, 본 발명에 따른 동영상 디지털데이터 잡음제거방법은, 첫째, YCbCr 영역에서의 시공간 영역필터링, 공간영역에서의 영상의 윤곽선 보존, 공간 영역 필터링에서 윤곽선을 구분하기 위한 잡음에 적응하는 가중치를 도입하는 공간영역 필터링방법을 제안한다. 둘째, 전역움직임이 보상된 움직임/장면전환 감지기반 시간영역 필터링, 시간영역 필터링에서 움직임의 밝기/색상 차를 동시에 고려한 움직임감지 및 시간 영역 필터링에서 움직임감지를 위한 잡음에 적응하는 가중치를 도입하는 시간영역 필터링 방법을 제안한다. 셋째, 상기 첫째와 둘째에서 제안하는 공간영역 필터링을 먼저 수행하고 이어서 상기 공간영역 필터링을 수행한 결과신호를 이용하여 시간영역 필터링 하는 것이다.
실제 본 발명이 제안하는 상기 공간영역 필터링 또는 상기 시간영역 필터링을 독립적으로 사용하여도 잡음제거에 효과가 있으나, 먼저 공간영역 필터링을 수행한 후 결과 데이터에 시간영역 필터링을 적용하면 뛰어난 잡음제거 효과를 얻을 수 있다. 본 발명의 제3 실시 예에 따른 동영상디지털 데이터 잡음제거방법이 바로 공간영역 필터링 및 시간영역 필터링을 동시에 수행한 경우를 반영한 것이다.
이상에서와 같이 도면과 명세서에서 최적 실시 예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 이라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해 져야 할 것이다.
상술한 바와 같이 본 발명에 따른 동영상 디지털데이터 잡음제거방법은, 시간영역 필터링에서 사용되는 프레임 개수를 줄임과 동시에 움직임 감지를 용이하게 할 수 있으므로, CCD/CMOS 등 각종 영상센서에 직접 적용되어 고해상도의 영상을 획득하기가 용이하게 된다. 특히, 화질의 개선 및 데이터 압축률 향상을 위한 압축알고리듬에서의 전(before) 처리 및 저장된 영상의 화질개선을 위한 후(after) 처리에 사용될 수 있다.

Claims (16)

  1. 공간영역 필터링을 통하여 동영상 디지털 데이터에 포함된 잡음을 제거하는 동영상 디지털데이터 잡음제거 방법에 있어서,
    각 화소의 색상성분에 대하여 공간영역 필터링을 하여 특정 로컬 마스크 내에서 대표 값을 구하는 단계; 및
    각 화소의 밝기성분에 대한 공간영역 필터링을 하여 에지를 보존하는 단계를 구비하고,
    상기 에지를 보존하는 단계는,
    소정의 잡음 적응적인 에지 임계 값을 이용하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  2. 제1항에 있어서, 상기 에지를 보존하는 단계는,
    상기 잡음 적응적인 에지 임계 값을 이용하여 각 화소의 에지 적응적인 대표 값을 구하는 단계;
    상기 잡음 적응적인 에지 임계 값을 이용하여 생성된 소정의 잡음 적응적인 가중치 및 상기 에지 적응적인 대표 값을 이용하여 각 영상의 산포도 값을 추정하는 단계;
    입력영상(열화된 영상의 밝기성분)과 상기 에지 적응적인 대표 값과의 차 영상을 구하는 단계;
    상기 영상의 산포도 값과 잡음성분에 대한 산포도 값을 비교하여 가중치를 구하는 단계; 및
    상기 차 영상에서 영상의 에지 성분에는 큰 가중치를 부여하고 잡음 성분에는 작은 가중치를 부여하며, 상기 에지 적응적인 대표 값에 상기 가중치가 부여된 차 영상을 더하는 단계를 구비하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  3. 제2항에 있어서, 상기 에지 적응적인 대표 값은,
    각 화소의 평균 값 또는 중간 값이고,
    상기 산포도 값은,
    각 화소에 대한 분산 또는 표준편차인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  4. 제1항에 있어서, 상기 각 화소의 색상성분에 대하여 특정 로컬 마스크 내에서 대표 값을 구하는 단계는,
    색상성분(Cb 및Cr)에 대한 특정 로컬 마스크 내에서의 대표 값을 각각
    Figure 112005059744514-pat00124
    Figure 112005059744514-pat00125
    라 하면,
    Figure 112005059744514-pat00126
    Figure 112005059744514-pat00127
    를 만족하며,
    N은 로컬 마스크(local mask)의 크기이고, i 및 j는 화소(pixel)의 2차원 좌표를 나타내며, n은 프레임을 의미하고,
    Figure 112005059744514-pat00128
    는 열화된 영상의 {Cb}성분,
    Figure 112005059744514-pat00129
    은 열화된 영상의 {Cr}성분을 각각 나타내는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  5. 제2항에 있어서, 상기 각 화소의 에지 적응적인 대표 값은,
    Figure 112005059744514-pat00130
    을 만족하며, N은 로컬 마스크(local mask)의 크기, i 및 j는 화소(pixel)의 2차원 좌표, n은 프레임,
    Figure 112005059744514-pat00131
    는 열화된 영상의 밝기성분을 각각 나타내며,
    상기 에지 적응적인 가중치(
    Figure 112005059744514-pat00132
    )는, 필터링 될 중심 화소와 주변화소가 에지를 기준으로 서로 같은 영역에 있는지를 판단하는 기준이 되는 가중치로서 중심화소와 주변화소의 밝기 차이에 반비례하며, 상기 중심화소와 주변화소의 밝기 차이가 상기 잡음 적응적인 에지 임계 값 보다 크면 0(zero)의 값을 가지고, 상기 잡음 적응적인 에지 임계 값은 에지를 구분하기 위하여 가져야 할 바람직한 범위 내에서 잡음의 크기에 비례하는 함수에 의하여 결정되는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  6. 제5항에 있어서, 상기 에지 적응적인 가중치는,
    Figure 112005059744514-pat00133
    을 만족하며,
    Figure 112005059744514-pat00134
    는 열화된 영상의 밝기성분인
    Figure 112005059744514-pat00135
    의 잡음의 분산,
    Figure 112005059744514-pat00136
    는 밝기차이를 나타내며
    Figure 112005059744514-pat00137
    을 만족하고, C는 1보다 크거나 같은 상수이며,
    Figure 112005059744514-pat00138
    는 일차함수, 지수함수 및 로그함수 등의 단조증가함수이고, 상기 에지 적응적인 임계 값
    Figure 112005059744514-pat00139
    는 일차함수, 지수함수 및 로그함수 등의 단조증가함수인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  7. 제2항 또는 제6항에 있어서, 상기 추정된 영상의 산포도 값은,
    Figure 112005059744514-pat00140
    을 만족하며, N은 로컬 마스크(local mask)의 크기, i 및 j는 화소(pixel)의 2차원 좌표, n은 프레임,
    Figure 112005059744514-pat00141
    는 열화된 영상의 밝기성분인 상기
    Figure 112005059744514-pat00142
    에 대하여 에지 적응적인 가중치가 적용된 분산,
    Figure 112005059744514-pat00143
    는 상기 에지 적응적인 가중치,
    Figure 112005059744514-pat00144
    는 상기 에지 적응적인 대표 값인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  8. 제2항에 있어서, 상기 차 영상은,
    Figure 112005059744514-pat00145
    을 만족하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  9. 제2항에 있어서, 상기 가중치는,
    Figure 112003047296285-pat00146
    을 만족하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  10. 제2항에 있어서, 상기 가중치를 상기 차 영상에 부여하는 단계는,
    Figure 112003047296285-pat00147
    을 만족하고,
    상기 에지 적응적인 대표 값에 상기 가중치가 부여된 차 영상을 더하는 단계는,
    Figure 112003047296285-pat00148
    을 만족하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  11. 영상의 밝기성분(Y), 색상성분(Cb 및 Cr)에 대하여 각각 공간영역 필터링 된 값들(
    Figure 112003047296285-pat00149
    ,
    Figure 112003047296285-pat00150
    Figure 112003047296285-pat00151
    )을 시간영역 필터링 하는 동영상데이터 잡음제거방법에 있어서,
    프레임 간에 장면전환이 있는 지를 감지하는 단계;
    프레임간의 전역움직임을 추정하고, 각 화소에 대하여 전역 움직임 궤적을 따라 시간영역에서의 잡음의 상대적 크기를 추정하는 단계;
    영상의 밝기성분의 움직임 감지를 위한 가중치 및 영상의 색상성분의 움직임 감지를 위한 가중치를 구하는 단계; 및
    장면전환이 일어나지 않은 범위 내에서 필터링하기 위한 가중치, 상기 잡음의 상대적 크기, 상기 영상의 밝기성분의 움직임 감지를 위한 가중치, 상기 영상의 색상성분의 움직임 감지를 위한 가중치 및 정규화를 위한 상수 전부 또는 일부를 이용하여 전역움직임이 보상된 장면전환/움직임 감지 기반 필터링 단계를 구비하며,
    상기 영상의 밝기 성분의 움직임 감지를 위한 가중치는,
    중심 프레임의 화소와 필터링 될 다른 프레임의 화소 사이에서의 움직임이 밝기 영역에서 발생했는가를 판단하는 값으로서, 화소간의 밝기 차이에 반비례하 며, 상기 화소 사이의 밝기 차이가 소정의 밝기 움직임 임계 값 보다 크면 0(zero)의 값을 가지고, 상기 밝기 움직임 임계 값은 밝기 영역의 움직임을 구분하기 위하여 가져야 할 바람직함 범위 내에서 잡음의 크기에 비례하는 함수에 의하여 결정되며,
    상기 영상의 색상성분의 움직임 감지를 위한 가중치는,
    중심프레임의 화소와 필터링 될 다른 프레임의 화소사이의 움직임이 색상영역에서 발생하였는가를 판단하는 값으로서, 화소 사이의 색상 차이가 소정의 색상움직임 임계 값보다 크면 0(zero)의 값을 가지며, 상기 색상움직임 임계값은 색상 영역의 움직임을 구분하기 위하여 가져야 할 바람직한 범위 내에서 잡음의 크기에 비례하는 함수에 의하여 결정되는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  12. 제11항에 있어서, 상기 잡음의 상대적 크기(
    Figure 112003047296285-pat00152
    )는,
    Figure 112003047296285-pat00153
    을 만족하고,
    i 및 j는 2차원 좌표,
    n은 프레임,
    Figure 112003047296285-pat00154
    Figure 112003047296285-pat00155
    는 움직임 벡터성분,
    Figure 112003047296285-pat00156
    는 임의의 단조증가함수,
    Figure 112003047296285-pat00157
    Figure 112003047296285-pat00158
    의 값이 임계 값(nT)보다 작으면 1, 크면 0의 값을 가지며,
    상기 임계 값(nT)은, 최적의 잡음의 상대적 크기를 구하기 위하여 설계자가 임의로 정할 수 있는 값인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  13. 제11항에 있어서, 상기 영상의 밝기성분의 움직임 감지를 위한 가중치(
    Figure 112005059744514-pat00159
    )는,
    Figure 112005059744514-pat00160
    을 만족하며,
    상기 영상의 색상성분의 움직임 감지를 위한 가중치(
    Figure 112005059744514-pat00161
    )는,
    Figure 112005059744514-pat00162
    을 만족하고,
    Figure 112005059744514-pat00163
    ,
    Figure 112005059744514-pat00164
    ,
    Figure 112005059744514-pat00165
    Figure 112005059744514-pat00166
    는 각각 1보다 큰 상수,
    Figure 112005059744514-pat00167
    는 임의의 단조증가함수,
    상기 밝기임계 값
    Figure 112005059744514-pat00168
    및 상기 색상임계 값
    Figure 112005059744514-pat00169
    는 각각 단조증가함수인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  14. 제11항에 있어서, 상기 전역움직임이 보상된 장면전환/움직임 감지 기반 필터링 단계는,
    Figure 112005059744514-pat00170
    Figure 112005059744514-pat00171
    Figure 112005059744514-pat00172
    을 만족하며,
    Figure 112005059744514-pat00173
    는 시간영역 필터링 된 결과이고,
    Figure 112005059744514-pat00174
    는 장면전환이 일어나지 않는 범위 내에서 필터링하기 위한 가중치(weight)이며,
    Figure 112005059744514-pat00175
    Figure 112005059744514-pat00176
    는 n 번째 프레임과 k 번째 프레임 사이의 전역 움직임 벡터를 각각 나타내고, Z는 정규화를 위한 상수로서,
    Figure 112005059744514-pat00185
    는 밝기 성분에 대한 정규화상수이고
    Figure 112005059744514-pat00186
    Figure 112005059744514-pat00187
    은 색상성분에 대한 정규화 상수인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  15. 동영상 디지털 데이터에 포함된 잡음을 제거하는 동영상 디지털데이터 잡음제거 방법에 있어서,
    각 화소의 밝기성분 및 색상성분에 대하여 공간영역 필터링을 하는 단계; 및
    상기 공간영역 필터링을 수행한 결과 데이터에 대하여 움직임 감지를 기반으로 한 시간영역 필터링을 하는 단계를 구비하며,
    상기 공간영역 필터링을 하는 단계는,
    각 화소의 색상성분에 대하여 공간영역 필터링을 하여 특정 로컬 마스크 내에서 대표 값을 구하는 단계 및 각 화소의 밝기성분에 대한 공간영역 필터링을 하여 에지를 보존하는 단계를 구비하고,
    상기 시간영역 필터링 단계는,
    프레임에 장면전환이 있는가를 감지하는 단계, 프레임간의 전역움직임을 추정하고, 각 화소에 대하여 전역 움직임 궤적을 따라 움직임을 감지하여 시간영역에서의 잡음의 상대적 크기를 추정하는 단계, 영상의 밝기성분의 움직임 감지를 위한 가중치 및 영상의 색상성분의 움직임 감지를 위한 가중치를 구하는 단계 및 장면전환이 일어나지 않은 범위 내에서 필터링하기 위한 가중치, 상기 잡음의 상대적 크기, 상기 영상의 밝기성분의 움직임 감지를 위한 가중치, 상기 영상의 색상성분의 움직임 감지를 위한 가중치 및 정규화를 위한 상수 전부 또는 일부를 이용하여 전역움직임이 보상된 장면전환/움직임 감지 기반 필터링 단계를 구비하는 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
  16. 제15항에 있어서, 상기 에지를 보존하는 단계는,
    소정의 잡음 적응적인 에지 임계 값을 이용하여 각 화소의 에지 적응적인 대표 값을 구하는 단계;
    상기 잡음 적응적인 에지 임계 값을 이용하여 생성시킨 소정의 잡음 적응적인 가중치 및 상기 에지 적응적인 대표 값을 이용하여 각 영상의 산포도 값을 추정하는 단계;
    입력영상과 상기 에지 적응적인 대표 값과의 차 영상을 구하는 단계;
    상기 영상의 산포도 값과 잡음성분에 대한 산포도 값을 비교하여 가중치를 구하여 상기 차 영상에 적용하는 단계; 및
    상기 에지 적응적인 대표 값에 상기 가중치가 적용된 차 영상을 더하는 단계를 구비하며,
    상기 대표 값은,
    평균 값 또는 중간 값이고,
    상기 산포도 값은,
    분산 또는 표준편차인 것을 특징으로 하는 동영상 디지털데이터 잡음제거방법.
KR20030090032A 2003-12-11 2003-12-11 동영상 데이터 잡음제거방법 KR100564592B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR20030090032A KR100564592B1 (ko) 2003-12-11 2003-12-11 동영상 데이터 잡음제거방법
US11/001,900 US7369181B2 (en) 2003-12-11 2004-12-02 Method of removing noise from digital moving picture data
TW93137331A TWI275042B (en) 2003-12-11 2004-12-03 Method of removing noise from digital moving picture data
CNB200410103757XA CN100539692C (zh) 2003-12-11 2004-12-13 从数字运动画面数据中去除噪声的方法
JP2004360468A JP4887544B2 (ja) 2003-12-11 2004-12-13 動画データのノイズ除去方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20030090032A KR100564592B1 (ko) 2003-12-11 2003-12-11 동영상 데이터 잡음제거방법

Publications (2)

Publication Number Publication Date
KR20050057829A KR20050057829A (ko) 2005-06-16
KR100564592B1 true KR100564592B1 (ko) 2006-03-28

Family

ID=34651367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20030090032A KR100564592B1 (ko) 2003-12-11 2003-12-11 동영상 데이터 잡음제거방법

Country Status (5)

Country Link
US (1) US7369181B2 (ko)
JP (1) JP4887544B2 (ko)
KR (1) KR100564592B1 (ko)
CN (1) CN100539692C (ko)
TW (1) TWI275042B (ko)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346226B2 (en) * 2003-12-16 2008-03-18 Genesis Microchip Inc. Method and apparatus for MPEG artifacts reduction
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7457438B2 (en) 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
US7724307B2 (en) * 2004-07-28 2010-05-25 Broadcom Corporation Method and system for noise reduction in digital video
US7643088B2 (en) * 2004-12-01 2010-01-05 Hewlett-Packard Development Company, L.P. Artifact reduction in a digital video
KR20060070400A (ko) * 2004-12-20 2006-06-23 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US7590303B2 (en) * 2005-09-29 2009-09-15 Samsung Electronics Co., Ltd. Image enhancement method using local illumination correction
KR101225056B1 (ko) * 2006-01-27 2013-01-23 삼성전자주식회사 이미지 센서 노이즈 저감 장치 및 방법
CN101379827B (zh) * 2006-01-31 2011-07-06 汤姆森许可贸易公司 基于边缘的时空滤波方法和装置
US8498336B2 (en) * 2006-02-02 2013-07-30 Thomson Licensing Method and apparatus for adaptive weight selection for motion compensated prediction
TWI324013B (en) * 2006-02-22 2010-04-21 Huper Lab Co Ltd Video noise reduction method using adaptive spatial and motion-compensation temporal filters
US8369417B2 (en) * 2006-05-19 2013-02-05 The Hong Kong University Of Science And Technology Optimal denoising for video coding
US8831111B2 (en) * 2006-05-19 2014-09-09 The Hong Kong University Of Science And Technology Decoding with embedded denoising
TWI326189B (en) 2006-05-19 2010-06-11 Novatek Microelectronics Corp Method and apparatus for suppressing cross-color in a video display device
US20080099675A1 (en) * 2006-10-31 2008-05-01 Hitachi High-Technologies Corporation Inspection apparatus and an inspection method
US7653626B2 (en) * 2006-11-03 2010-01-26 Mediatek Inc. Method for detecting regularly appearing patterns
JP4859632B2 (ja) * 2006-11-15 2012-01-25 富士通セミコンダクター株式会社 画像処理装置及び画像処理方法
KR101298642B1 (ko) * 2006-11-21 2013-08-21 삼성전자주식회사 영상 잡음 제거 방법 및 장치
KR100856411B1 (ko) * 2006-12-01 2008-09-04 삼성전자주식회사 조도 보상 방법 및 그 장치와 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
US9633426B2 (en) * 2014-05-30 2017-04-25 General Electric Company Remote visual inspection image capture system and method
JP4850689B2 (ja) * 2006-12-22 2012-01-11 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム並びに記憶媒体
WO2008119480A2 (en) * 2007-03-31 2008-10-09 Sony Deutschland Gmbh Noise reduction method and unit for an image frame
KR20080095084A (ko) * 2007-04-23 2008-10-28 삼성전자주식회사 영상 잡음 제거 장치 및 방법
JP5050637B2 (ja) * 2007-05-11 2012-10-17 ソニー株式会社 映像信号処理装置、映像信号処理方法、映像信号処理方法のプログラム及び映像信号処理方法のプログラムを記録した記録媒体
US8031967B2 (en) * 2007-06-19 2011-10-04 Microsoft Corporation Video noise reduction
TWI479891B (zh) 2007-06-26 2015-04-01 Apple Inc 動態背光調適
TWI466093B (zh) 2007-06-26 2014-12-21 Apple Inc 用於視訊播放的管理技術
CN101335826B (zh) * 2007-06-28 2011-06-29 联詠科技股份有限公司 用于视讯处理系统的噪声消除装置
US9177509B2 (en) * 2007-11-30 2015-11-03 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with scene-cut detection
CN101453559B (zh) * 2007-12-04 2010-12-08 瑞昱半导体股份有限公司 视频信号的噪声检测方法及装置
US8766902B2 (en) 2007-12-21 2014-07-01 Apple Inc. Management techniques for video playback
US8447130B2 (en) * 2007-12-31 2013-05-21 Intel Corporation History-based spatio-temporal noise reduction
US20090268098A1 (en) * 2008-02-04 2009-10-29 Jean-Yves Babonneau Method for detection of scene changes in a video picture sequence
US8731062B2 (en) 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing
CN101527035B (zh) * 2008-03-07 2012-06-27 瑞昱半导体股份有限公司 图像噪声的检测方法
FR2929736A1 (fr) * 2008-04-02 2009-10-09 Thomson Licensing Sas Procede de detection de changement de scene dans une sequence d'images video.
FR2929737A1 (fr) * 2008-04-02 2009-10-09 Thomson Licensing Sas Procede de detection de changement de scene dans une sequence d'images video.
EP2120448A1 (en) 2008-05-14 2009-11-18 Thomson Licensing Method of processing of a compressed image into a gamut mapped image using spatial frequency analysis
US20100158320A1 (en) * 2008-12-19 2010-06-24 Himax Technologies Limited Method of motion detection using content adaptive penalty function
JP5328809B2 (ja) * 2008-12-22 2013-10-30 パナソニック株式会社 画像ノイズ除去装置及び方法
CN101448077B (zh) * 2008-12-26 2010-06-23 四川虹微技术有限公司 一种自适应视频图像3d降噪方法
JP4640508B2 (ja) * 2009-01-09 2011-03-02 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び撮像装置
CN101546425B (zh) * 2009-05-05 2011-04-13 广东工业大学 双阈值开关型彩色图像矢量滤波方法
KR101590767B1 (ko) * 2009-06-09 2016-02-03 삼성전자주식회사 영상 처리 장치 및 방법
KR101114698B1 (ko) * 2010-01-29 2012-02-29 삼성전자주식회사 이미지 특성에 따라 에지를 강조하기 위한 이미지 생성 장치 및 방법
US8345130B2 (en) * 2010-01-29 2013-01-01 Eastman Kodak Company Denoising CFA images using weighted pixel differences
EP2413586B1 (en) 2010-07-26 2014-12-03 Sony Corporation Method and device for adaptive noise measurement of a video signal
US9560372B2 (en) * 2010-12-27 2017-01-31 Stmicroelectronics, Inc. Directional motion vector filtering
TWI488494B (zh) * 2011-04-28 2015-06-11 Altek Corp 多畫面的影像降噪方法
CN102256048B (zh) * 2011-07-19 2013-04-03 南京信息工程大学 一种自适应密度的图像椒盐噪声开关滤波方法
US9215355B2 (en) 2011-09-30 2015-12-15 Apple Inc. Scene adaptive temporal filtering
CN103051888B (zh) * 2011-10-14 2015-07-29 华晶科技股份有限公司 产生动态影像的影像处理方法及其影像获取装置
WO2013075319A1 (en) * 2011-11-24 2013-05-30 Technicolor (China) Technology Co., Ltd. Methods and apparatus for an artifact detection scheme based on image content
CN102629970B (zh) * 2012-03-31 2015-01-21 广东威创视讯科技股份有限公司 视频图像的噪点去除方法和系统
US9326008B2 (en) * 2012-04-10 2016-04-26 Google Inc. Noise reduction for image sequences
KR101929494B1 (ko) 2012-07-10 2018-12-14 삼성전자주식회사 영상 처리 방법 및 장치
JP6161326B2 (ja) * 2013-02-27 2017-07-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
TWI536319B (zh) * 2014-06-24 2016-06-01 瑞昱半導體股份有限公司 去雜訊方法以及影像系統
KR102632193B1 (ko) * 2016-01-29 2024-02-01 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 광 레벨 적응 필터 및 방법
US10043252B2 (en) * 2016-06-14 2018-08-07 Intel Corporation Adaptive filtering with weight analysis
CN108632502B (zh) * 2017-03-17 2021-04-30 深圳开阳电子股份有限公司 一种图像锐化的方法及装置
WO2019079398A1 (en) 2017-10-18 2019-04-25 Gopro, Inc. CHROMINANCE DENGING
KR102453392B1 (ko) * 2018-02-27 2022-10-07 에스케이텔레콤 주식회사 이동체를 고려한 영상 잡음 제거 방법 및 그를 위한 장치
CN108765322B (zh) * 2018-05-16 2021-04-27 上饶师范学院 图像去噪方法及装置
CN109767385B (zh) * 2018-12-20 2023-04-28 深圳市资福医疗技术有限公司 一种去除图像色度噪声的方法和装置
TWI735959B (zh) * 2019-09-26 2021-08-11 瑞昱半導體股份有限公司 影像處理電路與方法
CN113469889B (zh) * 2020-03-30 2023-08-25 杭州海康威视数字技术股份有限公司 一种图像降噪的方法及装置
CN111667422A (zh) * 2020-05-25 2020-09-15 东华大学 一种基于综合滤波器的图像/视频目标检测结果增强方法
CN113055669B (zh) * 2021-01-15 2023-01-17 北京博雅慧视智能技术研究院有限公司 一种编码前的图像滤波方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745458A (en) * 1984-11-21 1988-05-17 Hitachi, Ltd. Television signal processing system
DE69329670T2 (de) * 1992-09-14 2001-03-15 Thomson Multimedia Sa Verfahren und Gerät zur Rauschminderung
US5585859A (en) * 1994-05-17 1996-12-17 The University Of British Columbia System for reducing beat type impairments in a TV signal
GB2303513B (en) 1995-07-21 1999-09-29 Innovision Res Ltd Improved correlation processing for motion estimation
JPH10262160A (ja) * 1997-03-18 1998-09-29 Nippon Hoso Kyokai <Nhk> Sn比検出装置および雑音低減装置
US6281942B1 (en) 1997-08-11 2001-08-28 Microsoft Corporation Spatial and temporal filtering mechanism for digital motion video signals
JPH11196295A (ja) * 1997-12-26 1999-07-21 Hitachi Ltd ノイズ低減回路
JP3621288B2 (ja) * 1999-04-16 2005-02-16 シャープ株式会社 画像処理装置
US6697109B1 (en) * 1999-05-06 2004-02-24 Sharp Laboratories Of America, Inc. Method and system for field sequential color image capture
JP2000331152A (ja) * 1999-05-18 2000-11-30 Matsushita Electric Ind Co Ltd 画像処理装置
JP2001189944A (ja) * 1999-12-28 2001-07-10 Sony Corp 撮像装置
EP1209624A1 (en) 2000-11-27 2002-05-29 Sony International (Europe) GmbH Method for compressed imaging artefact reduction
KR100405150B1 (ko) * 2001-06-29 2003-11-10 주식회사 성진씨앤씨 시공간 적응적 잡음 제거/고화질 복원 방법 및 이를응용한 고화질 영상 입력 장치

Also Published As

Publication number Publication date
CN100539692C (zh) 2009-09-09
JP4887544B2 (ja) 2012-02-29
US20050128355A1 (en) 2005-06-16
JP2005176388A (ja) 2005-06-30
US7369181B2 (en) 2008-05-06
TW200529101A (en) 2005-09-01
TWI275042B (en) 2007-03-01
CN1665298A (zh) 2005-09-07
KR20050057829A (ko) 2005-06-16

Similar Documents

Publication Publication Date Title
KR100564592B1 (ko) 동영상 데이터 잡음제거방법
KR100754181B1 (ko) 복호화된 비디오 시퀀스에서 모스퀴토 잡음을 제거하는방법 및 장치
KR100782843B1 (ko) 비디오 퀄리티에 적응적인 코딩 아티팩트 감쇄 시스템
US8139883B2 (en) System and method for image and video encoding artifacts reduction and quality improvement
US7203234B1 (en) Method of directional filtering for post-processing compressed video
JP4880895B2 (ja) Mpegアーチファクト低減のための方法及び装置
US7145607B1 (en) Spatio-temporal video noise reduction system
KR20010041909A (ko) 선명도를 강화하기 위한 방법 및 장치
JP2003520506A (ja) ノイズリダクション
WO2002102086A2 (en) Apparatus and method for adaptive spatial segmentation-based noise reducing for encoded image signal
KR20050106548A (ko) 디지탈 영상 신호 필터링 장치 및 방법
JPH08186714A (ja) 画像データのノイズ除去方法及びその装置
CN101123681A (zh) 一种数字图像降噪方法及装置
US20130022288A1 (en) Image processing apparatus and method for reducing edge-induced artefacts
EP1506525B1 (en) System for and method of sharpness enhancement for coded digital video
JP2004503960A (ja) 画像シーケンスのノイズフィルタリング
US9959599B2 (en) System for enhanced images
US8411205B2 (en) Noise reducing image processing apparatus
US20160343113A1 (en) System for enhanced images
Dai et al. Color video denoising based on combined interframe and intercolor prediction
US7711044B1 (en) Noise reduction systems and methods
JP2007323635A (ja) ビデオ・イメージの再帰的フィルタリング
JP2637978B2 (ja) 動き適応形画質改善装置
JP2002208006A (ja) 画像ノイズ減少方法
Tenze et al. Design and real-time implementation of a low-cost noise reduction system for video applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130228

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150302

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170228

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180228

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190228

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20200228

Year of fee payment: 15