KR20080050491A - 시간 예측을 위한 분류 필터링 - Google Patents

시간 예측을 위한 분류 필터링 Download PDF

Info

Publication number
KR20080050491A
KR20080050491A KR1020087008977A KR20087008977A KR20080050491A KR 20080050491 A KR20080050491 A KR 20080050491A KR 1020087008977 A KR1020087008977 A KR 1020087008977A KR 20087008977 A KR20087008977 A KR 20087008977A KR 20080050491 A KR20080050491 A KR 20080050491A
Authority
KR
South Korea
Prior art keywords
prediction
filter
squares
generating
irregular
Prior art date
Application number
KR1020087008977A
Other languages
English (en)
Inventor
마르코 파니코니
제임스 제이. 캐릭
져롱 미아오
Original Assignee
소니 일렉트로닉스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 일렉트로닉스 인코포레이티드 filed Critical 소니 일렉트로닉스 인코포레이티드
Publication of KR20080050491A publication Critical patent/KR20080050491A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)

Abstract

시간 예측을 실행하는 방법은 타겟 화상의 예측을 생성하는 불규칙 필터 탭을 사용하는 단계와, 불규칙 필터 탭을 개선된 예측을 생성하는 예측에 적용하는 단계를 포함한다.
움직임 벡터, 타겟 화상, 분류 맵, 샘플링 패턴 정보

Description

시간 예측을 위한 분류 필터링{CLASSIFIED FILTERING FOR TEMPORAL PREDICTION}
본 발명은 비디오 압축 분야에 관한 것이다.
시간 예측 필터(temporal prediction filter)는 타겟 화상을 이전에 디코드된 한 세트의 기준 화상들로부터 예측하는 비디오 압축 프로세스에서 사용된다. 시간 예측 프로세스는 상당량의 시간적 중복성을 제거하는데 효과적이며, 그 결과 대체로 코딩 효율을 더 높여준다. 예측 프로세스는 한 세트의 움직임 벡터들 및 상기 움직임 벡터들을 조작하여 타겟 화상을 예측하는 필터를 사용한다.
예를 들어, 예측 방법은 도 1에 도시된 바와 같이 기준 화상(110)을 다수의 일정 크기의 블록들(120)로 나눈다. 각각의 블록은 타겟 화상에 대한 해당 블록의 움직임을 나타내는 연관된 움직임 벡터를 갖는다. 움직임 벡터는 화상(110)에서 백색점으로 도시된다. 시간 예측 필터는 연관된 움직임 벡터를 사용하여 기준 화상 내 각 블록에 대해 간단한 움직임 보상 기법을 수행하여 타겟 화상 내 그 블록의 위치를 예측한다. 따라서, 타겟 화상 내 각 블록은 단일의 움직임 벡터를 사용하여 기준 화상 내 블록으로부터 추정된다. 그러나, 이러한 접근법은 각 움직임 벡터를 독립적으로 프로세스하며 화상 특징에는 적응할 수 없다.
단일의 움직임 벡터를 사용하여 관련 블록의 위치를 예측하거나, 규칙적인 움직임 벡터 패턴에 대해 규정된 필터에 의존하는 통상의 시간 필터는 시간 예측을 수행하기 위해 움직임 벡터들의 규칙적인 분포를 필요로 한다. 그러므로, 시간 필터는 예측 프로세스를 움직임 벡터들의 불규칙한 패턴에 적응시킬 수 없다. 필터의 탭 및 필터 계수를 움직임 벡터들의 불규칙한 패턴의 변동에 국부적으로 적응시킬 수 있다. 또한, 객체 경계와 공간 텍스처에 적응시키는 적응성을 갖는 시간적 필터가 필요하다.
시간 예측을 실행하는 방법은, 불규칙 필터 탭을 사용하여 타겟 화상의 예측을 제공하는 단계와, 규칙 필터 탭을 예측에 적용하여 개선된 예측을 제공하는 단계를 포함한다.
본 발명은 예시의 방법으로 도시되며, 첨부 도면과 함께 다음의 설명을 참조함으로써 보다 잘 이해될 것이다.
도 1은 종래의 블록 기반 시간 필터의 일례를 도시한다.
도 2는 2 단계 적응적 시간 필터링 절차의 일례를 도시한다.
도 3은 움직임 벡터의 불규칙 패턴의 일례와 적응적 시간 필터링 절차에 사용되는 영향받는 셀 영역의 일례를 도시한다.
도 4는 다른 타겟 화소에 대해서 다른 국소(local) 이웃을 형성하는 불규칙 움직임 벡터 패턴의 일례로서, 적응적 시간 필터링 절차에 의해서 프로세스되는 일 례를 도시한다.
도 5는 적응적 시간 필터로 실행된 예측의 일례를 도시한다.
도 6은 최소 자승 분류된 필터를 생성하는 방법의 일례를 도시한다.
도 7은 최소 자승 분류된 필터링 프로세스에 의해 제공된 분류 맵의 일례를 도시한다.
도 8은 타겟 화상을 예측하기 위한 제1 및 제2 단계 필터의 일례를 도시한다.
도 9는 적응적 시간 필터를 사용하는 비디오 압축 인코딩 프로세스의 일례를 도시한다.
도 10은 적응적 시간 필터를 사용하는 디코딩 프로세스의 일례를 도시한다.
도 11은 적응적 시간 필터를 사용하는 시스템의 일례를 도시한다.
다음의 설명에서, 본 명세서의 일부를 구성하는 첨부 도면이 참조되며, 첨부 도면에서 본 발명이 실시될 수 있는 특정 실시예가 예시적으로 도시된다. 다른 실시예들이 사용될 수 있으며 본 발명의 범주를 일탈함이 없이도 구조적인 변경이 이루어질 수 있음은 물론이다. 예를 들어, 숙련된 자들은 여러 실시예들을 기술하는데 사용되는 프레임 또는 화상의 용어가 비디오 데이터를 참조하여 사용될 때 통상 상호 대체될 수 있음을 이해할 것이다.
타겟 화상을 예측할 때, 최소 자승 분류 시간 필터(a least squared classified temporal filter)는 움직임 벡터의 불규칙한 패턴, 객체 특징, 및 공간 텍스처에 자동으로 적응한다. 최소 자승 분류 필터는 움직임 보상된 신호를 통해서 시간 도메인에서 동작하며, 움직임 벡터를 직접 필터링하도록 시도하는 다른 방법(예를 들면, 움직임 벡터 영역에서의 삼각측량 필터링(triangulation filtering))과 다르다. 예를 들면, 최소 자승 분류 필터링 방법은 시간 도메인에서 동작하기 때문에, 객체와 공간 텍스처에 좀더 적응하기 쉽다. 일 실시예에서, 최소 자승 분류 시간 필터는 2 단계 프로세스를 수행한다. 제1 단계는 필터를 움직임 벡터의 불규칙 샘플링 패턴, 객체 형태, 및 객체 경계에 적응한다. 제2 단계는 필터를 화상의 공간 텍스처에 적응한다.
최소 자승 분류된 시간 필터링 절차의 일례가 도 2에 도시된다. 210에서, 화상에 대하여 움직임 벡터들의 불규칙한 샘플링 패턴이 생성된다. 그러한 불규칙 패턴은 당업자들에게 공지된 방법을 사용하여 다양한 방식으로 생성될 수 있다. 움직임 벡터의 불규칙한 패턴의 일례는 도 3의 블록(310)에 도시된다. 화상(310) 내 백색점들은 움직임 벡터들을 나타낸다. 이러한 적응적 샘플링 패턴에서, 움직임 벡터들은 기준 화상으로부터 예측하기 어려운 영역들(즉, 이동 경계부에 근접한 영역들과 같은 더욱 복잡한 움직임이 있는 화상 영역들)에 더욱 집중된다. 움직임 벡터들은, 예를 들어, 화상 배경 영역과 같은 단순한 움직임이 있는 영역에 거의 배치되지 않는다.
도 4에는 움직임 벡터들의 불규칙한 패턴의 다른 예가 도시된다. 음영의 원들은 움직임 벡터들을 나타내고, 각각의 x는 예측될 화소를 나타낸다. 화소(420)는 밀집하여 모여있고 불규칙하게 분포된 움직임 벡터들의 국소 이웃에 있고, 화 소(410)는 거의 규칙적인(quasi-regular) 분포를 갖는 움직임 벡터들의 국소 이웃에 있으며, 화소(430)는 드문드문하게 분포된 움직임 벡터들의 국소 이웃에 있다. 예측될 화소들은 움직임 벡터들의 다른 국부 이웃들을 가지므로, 즉 각각의 국부 이웃이 다른 움직임 벡터의 분포를 가지기 때문에, 분포를 변화하는데 적응하는 필터 구조가 화소를 예측하는데 사용된다.
다시 도 2를 보면, 220에서 화상은 다수의 셀들, 소위 영향받는 영역의 셀(area of influence cells(AOI cells))으로 분할되며, 여기서 각각의 AOI는 언급한 것처럼 하나의 움직임 벡터를 갖는다. 예를 들어, 도 3의 화상(310)은 블록(320)에서 도시된 바와 같이 AOI 셀들로 분할된다. 각각의 AOI 셀은 화상 내의 어떤 다른 움직임 벡터에 의해서라기 보다 셀 내부의 움직임 벡터에 의해 더욱 영향을 받는 영역을 나타낸다. AOI 셀은 각각의 움직임 벡터마다 생성되므로, AOI 셀들의 크기는 경계 영역들과 같은 화상 내 객체들의 특징들과 관련될 수 있다. 예를 들어, 객체들 사이의 경계 영역에 근접한 AOI 셀들은 화상 배경 영역에 있는 AOI 셀들보다 더 작을 수 있다. 또한, AOI 셀의 형태는 객체 경계의 형태에 적응하도록 국부적으로 변형될 수 있다. AOI 셀을 생성하는 방법의 일 실시예는 거리상 가장 가까운 움직임 벡터 분할 방법(distance nearest motion vector partitioning method)이다. 예를 들어, 블록 또는 삼각 측량 방법과 같은 다른 분할 방법이 사용될 수 있다. 이하에서 논의될 바와 같이, 제2 단계 최소 자승 필터 프로세스에서, AOI 셀들은 분류 맵을 정의함으로써 자연스러운 화상 세그먼트(natural image segment)로서 사용된다(즉, 각각의 AOI 셀은 다른 필터를 사용할 수 있다).
다시 도 2를 보면, 230에서 제1 단계 적응성 시간 예측 필터는 움직임 벡터와 영향받는 영역의 셀의 불규칙 패턴을 사용해서 타겟 화상의 화소를 예측하기 위해서 생성된다. 필터 단계 예측 필터는 움직임 보정 신호를 통해서 시간 도메인에서 동작한다. 특히, 필터는 다른 움직임 보정 신호의 가중합(weighted sum)을 사용함으로써 타겟 화소를 예측하며, 여기서 각 움직임 보정 신호는 다른 움직임 벡터를 타겟 화소를 예측하는데 적용함으로써 얻어진다. 필터 계수와 탭 구조는 움직임 벡터의 변화 패턴에 따라서 각 화소에 대해서 변한다. 또한, 필터의 서포트는 국부적이다. 이것은 타겟 화소를 보정하는데 사용되는 움직임 벡터가 그 화소의 국부 이웃으로부터 얻어진다는 것을 의미한다.
제1 단계 필터는 이하의 구조를 갖는다. {vj}가 N개의 움직임 벡터의 집합을 나타내고, I(x)는 기준 화상(이전에 디코드된 화상)을 나타낸다. S(x)는 화소 x의 위치를 둘러싸는 움직임 벡터들의 몇몇 집합을 나타낸다. 그 타겟 화소 x의 예측은 아래와 같이 표현될 수 있다.
Figure 112008026702896-PCT00001
여기서 {fi}는 필터 계수의 집합이고, x+vi는 움직임 벡터 vi가 화소 x에 적용될 때의 움직임 보정 화소이다. 필터의 서포트 또는 탭은 집합 S(x)로 정의된다. 탭 서포트 S(x)와 필터 계수 {fi}는, 일반적으로 화소 위치 x와 그 이웃하는 움직임 벡터의 함수이다. 즉, 움직임 벡터의 분포가 화상을 통해서 변화하기 때문 에, 필터 계수는 각 화소에 대해서 변할 수 있다. 그러므로, 필터는 변화하는 움직임 벡터 패턴에 국부적으로 적응한다.
240에서, 제1 단계 예측 필터는 타겟 화상에 적용되어서 타겟 화상에 대한 시간 예측을 실행한다. 필터는 시간 도메인에 적용되어, 움직임 벡터값의 집함과 샘플링 패턴이 주어진 타겟 화상에 대한 예측 결과를 생성한다. 필터는 필터 탭과, 예측될 화소에 이웃하는 움직임 벡터의 관련성을 획득하는 중첩 영역들의 면적에 의해서 정의되는 필터 계수를 사용한다. 이러한 부류의 예측 필터들의 일례는 본 출원과 동시에 출원되어 계류 중인 Marco Paniconi 등의 ADAPTIVE AREA OF INFLUENCE FILTER라는 명칭의 미국 출원 제 XX/XXX,XXX 호, 대리인 도켓 넘버 50U6045에 개시된 영향받는 영역의 필터이며, 이 출원은 본 명세서에서 참조 문헌으로 인용되며, 또 다른 예는 움직임 보상 신호용 삼각측량 필터(triangulation filter)이다.
도 5에는 제1 단계 필터를 적용하여 시간 예측을 생성하는 일례가 도시된다. 기준 화상(510) 내의 화소들은 타겟 화상(520) 내의 화소를 예측하는데 사용된다. 기준 화소들은 기준 화상(510) 내의 기준 화상(510)에 실선 원으로 표시되며, 예측될 타겟 화소들은 타겟 화상(520)에서 파선 원으로 표시된다. 필터는, v5를 통해서 국부 움직임 벡터의 탭 구조 v1를 사용해서 타겟 화상(520) 내의 화소 x에 대한 예측을 형성한다. 움직임 벡터들은, 그들의 AOI 셀들이 각각 화소 x의 AOI 셀의 적어도 일부와 중첩하기 때문에 화소 x에 대해서 국소적이다. 탭 구조의 각각 의 움직임 벡터는 {vi}는 기준 화상(510) 내의 화상 데이터 {Ii}에 매핑된다. 적응성 시간 예측 필터는 필터 가중치 {fi}에 의해서 기준 데이터 {Ii}를 조정하여 화소 x를 예측한다.
일 실시예에서, 예측 필터는 탭 구조와 필터 가중치를 사용하여 이하의 수학식에 따라서 예측을 생성한다.
예측 = I1*f1 + I2*f2 + I3*f3 + I4*f4 + I5*f5
여기서, 필터 탭은 국부 움직임 벡터에 의해서 정의되며, 필터 계수 {fi}는 필터가 230에서 생성될 때 결정된다.
다시 도 2를 보면, 250에서 제2 단계 필터가 생성되고, 제1 단계 필터로부터 예측에 적용된다. 제1 단계 필터로부터 출력되는 예측은 샘플링된 데이터의 규칙적인 패턴의 형태이기 때문에, 최소 자승(LS) 트레인드(trained) 필터는 타겟 화상의 예측의 공간 텍스처를 개선하도록 예측에 적용된다. 260에서, 예측 에러를 줄일 필요가 있으면, 방법을 240으로 되돌아 간다. 그렇지 않은 경우, 270에서 방법을 종료된다.
250을 참조하는 것이 훨씬 더 상세하며, 도 6은 제2 단계 필터를 생성하는 방법의 일례를 도시한다. 제1 단계 필터는 움직임 벡터의 불규칙 패턴을 프로세스하여 화소마다 정의된 예측된 화상 Po를 형성한다. 각 움직임 벡터는 영향받는 셀 {Ai, i=1,.., S}의 영역과 관련되며, 여기서 S는 영향받는 영역의 셀의 전체 수이 다. 605에서, 제1 단계 필터에 의해 생성된 예측이 제2 단계에 입력된다.
610에서, 최소 자승 필터 계수
Figure 112008026702896-PCT00002
은 타겟 화상에서 최소 자승 트레이닝을 실행함으로써 초기화되고, 여기서 N은 제2 단계에서 사용된 필터 분류들의 수이다. 예를 들면, 최소 자승 트레이닝은 도 3에 도시된 타겟 화상에서 실행될 수 있다.
620에서, 분류 맵 {C0(i), i=1,.. S}은 영향받는 셀의 각 영역을 최소 자승 필터 인덱스에 매핑하도록 생성된다. 처음에, 분류는 모든 셀을 각 필터 인덱스로 매핑한다. 이후, 최소 자승 필터 계수
Figure 112008026702896-PCT00003
의 집합이 주어지면, 분류 맵이 이하와 같이 생성된다. 각 노드 셀, Ai는 셀 Ai 내의 예측 에러를 최소화하는 필터를 선택한다. 이것은 새로운 분류 맵 Ct+1(i)으로 된다.
도 7에는 영향받는 셀의 각 영역을 적절한 필터에 매핑하도록 생성된 분류 맵의 일례가 도시된다. 타겟 화상(710)은 움직임 벡터의 불규칙 분포를 갖는다. 이러한 예에서, 각 움직임 벡터는, 720에 도시된 바와 같이 영향받는 셀의 관련된 직사각형 영역을 갖는다. 이러한 예에 대한 필터는 4개의 분류를 가지며, 영향받는 셀의 각 영역은 4개 분류 중의 하나에 매핑된다. 각 필터 분류는, 720에서 영향받는 셀의 분류 맵 내의 특정한 음영으로 도시된다.
다시 도 6을 보면, 630에서 최소 자승 필터 계수의 새로운 집합이 생성된다. 이것은 분류 맵을 사용함으로써 실행되어 타겟 화상으로부터 영향받는 셀의 각 영역으로 최소 자승 필터 계수를 리트레인한다(re-train). 즉, 최소 자승 트레이닝은 각 셀 k=Ct+1(i), i=1,...S에 대해서 새로운 필터 계수
Figure 112008026702896-PCT00004
를 제공하는데 사용된다. 결과는 최소 자승 필터 계수
Figure 112008026702896-PCT00005
, k=1... N 의 새로운 집합이다.
640에서, 최소 자승 필터 계수와 분류 맵은 제1 단계 P0에 의해 생성된 예측된 화상에 적용되어, 타겟 화상 Pt+1의 개선된 예측을 형성한다.
650에서, 타겟 화상과 개선된 예측 화상 Pt+1 사이의 예측 에러가 연산된다. 660에서, 방법은 최소 자승 예측 에러가 만족되는지 여부를 판정한다. 만족되지 않는 경우, 방법은 카운터를 t=t+1로 설정하여 620으로 되돌아 가서, 분류 맵은 수정되고 필터 계수들은 리트레인된다.
최소 자승 예측 에러가 만족되면, 방법을 670으로 계속되어, 전체 예측 에러가 만족되는지 여부를 판정한다. 만족되지 않는 경우, 680에서 개선된 예측 화상이 피드백으로 사요오디어서 단순한 공간 택스처를 갖는 그들 화소만을 포함하도록 AOI 셀들을 수정한다. 그렇지 않으면, 방법은 685에서 종료한다.
도 8은 타겟 화상을 예측하는 제1 단계 및 제2 단계 필터들의 일례를 도시한다. 각 타겟 화소 x가 타겟 화상(830)의 예측을 생성할 것을 예측할 때, 제1 단계 필터(820)는 움직임 벡터와 기준 화상(810)의 불규칙 패턴에서 동작한다. 제1 단 계 필터(820)는 불규칙 필터 탭 구조(820에 네모로 도시됨)를 사용하여 예측을 생성한다. 제2 단계 필터(840)는 타겟 화소에 집중된 규칙적인 필터 탭 구조를 사용해서 예측된 화상을 개선한다. 예를 들면, 제2 단계 필터(840)는 최소 자승 필터(842)를 사용해서 타겟 화상(850) 내의 타겟 화소를 예측하고, 최소 자승 필터(844)를 사용해서 타겟 화상(850) 내의 타겟 화소 z를 예측하여 보정된 화상(860)을 형성한다.
일 실시예에서, 최소 자승 분류 필터는, 시간 예측 필터링 프로세스에 의해서 도 9에 도시된 바와 같이 비디오 데이터의 화상(또는 프레임, 또는 필드)을 인코딩하는데 사용된다. 910에서, 인코더는 입력 타겟 화상을 수신한다. (타겟 화상에 관련된 디코드된 화상 데이터를 포함하는 기준 화상의 집합은, 인코딩 프로세스 동안 인코더에 사용가능하고, 또한 디코딩 프로세스동안 디코더에 사용가능하다). 920에서, 인코더는 타겟 화상과 관련된 움직임 벡터의 샘플링, 또는 분포를 생성한다. 즉, 움직임 벡터의 수가 N으로 주어지면, 이러한 N개의 움직임 벡터들은 타겟 화상에 위치한다. 움직임 벡터의 위치는, 일반적으로, 예를 들어 도 3에 도시된 바와 같이 움직임 벡터의 불규칙 패턴을 가져오는, 화상 컨텐츠 내의 움직임의 영역에 적용된다. 930에서, 샘플링 패턴 정보(예를 들면, 패턴을 나타내는 비트)는 디코더로 송신된다. 적응성 샘플링 패턴을 생성하는데 다수의 접근법이 사용될 수 있다.
940에서, 시간 예측 필터링 프로세스는 불규칙 움직임 샘플링 패턴에 적용될 수 있다. 최소 자승 분류 트레이닝을 하는 이러한 2 단계 적응성 필터링 프로세스 는 움직임 벡터, 불규칙 샘플링 패턴, 및 기준 화상을 사용해서 타겟 화상의 예측을 생성한다. 950에서, 움직임 벡터값은 코드화되어 디코더로 전송된다. 960에서, 타겟 화상의 실제 타겟 데이터에서 적응적 필터링 프로세스로부터의 예측 에러를 감산한 나머지가 생성된다. 970에서, 나머지가 코드화되어, 980에서 디코더로 전송된다.
다른 실시예에서, 최소 자승 분류 필터는, 도 10에 도시된 바와 같이 비디오 데이터의 화상(또는 프레임, 또는 화상)을 디코딩하는데 사용된다. 1010에서, 인코드된 나머지가 수신된다. 1020에서, 디코더는 수신된 인코드된 나머지를 디코드한다. 1030에서, 디코더는 샘플 패턴 정보, 기준 화상, 및 움직임 벡터값을 수신한다. 이후, 1040에서, 디코더는 2 단계 적응성 시간 필터 절차를 적용하여 시간 예측을 생성한다. 1050에서, 디코드된 타겟 화상은 디코드된 나머지를 시간 예측에 가산함으로써 생성된다.
도 11은 적응성 시간 예측 필터를 사용하는 시스템의 일례를 도시한다. 디지털 비디오 카메라(1110)는 전자 형태로 화상을 캡처하고, 압축 및 인코딩 프로세스 동안 적응성 시간 필터링 프로세스를 사용하는 압축 장치(1120)를 사용하여 화상을 처리한다. 인코드된 화상들은 전자 전송 매체(1130)를 통해서 디지털 재생 장치(1140)로 전송된다. 화상들은, 디코딩 프로세스 동안 필터를 사용하는 디코딩 장치(1150)에 의해 디코드된다. 카메라(1110)는 본 발명의 실시예를 포함하는 다양한 화상 처리 장치(예를 들어, 다른 화상 캡처 장치, 화상 편집기, 화상 프로세서, 개인용 및 상업용 컴퓨팅 플랫폼 등)의 실례이다. 마찬가지로, 디코딩 장 치(1150)는 화상 데이터를 디코드하는 다양한 장치의 실례이다.
본 발명이 특정 시스템 환경에서 실시예의 관점에서 설명되었지만, 당업자라면 본 발명이, 첨부된 특허청구범위의 취지와 범위 내에서 다른 그리고 상이한 하드웨어 및 소프트웨어 환경에서 변형되어 실시될 수 있음을 인식할 것이다.

Claims (21)

  1. 전자 데이터 프로세서에서 실행되는 방법으로서,
    불규칙 필터 탭을 사용하여 타겟 화상의 예측을 제공하는 단계와,
    규칙 필터 탭을 상기 예측에 적용하여 개선된 예측을 제공하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    움직임 벡터의 불규칙 패턴 및 영향받는 영역의 셀(an area of influence cells)으로부터 상기 불규칙 필터 탭을 생성하는 단계를 더 포함하는 방법.
  3. 제1항에 있어서,
    최소 자승 절차(a least squared procedure)를 사용하여 상기 규칙 필터 탭을 생성하는 단계를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 최소 자승 절차는,
    상기 타겟 화상의 예측에서 최소 자승 트레이닝을 실행하여 최소 자승 필터 계수의 집합을 생성하는 단계와,
    영향받는 영역의 셀 각각을 최소 자승 필터 인덱스와 연관짓는 분류 맵을 생 성하는 단계와,
    상기 분류 맵을 사용하여 상기 최소 자승 필터 계수를 리트레인(re-train)하는 단계와,
    상기 리트레인된 필터 계수를 사용하여 상기 타겟 화소의 예측을 개선하는 단계
    를 포함하는 방법.
  5. 제4항에 있어서,
    영향받는 영역의 셀 각각에 대해서, 최소 예측 에러를 갖는 필터를 선택함으로써 상기 분류 맵을 생성하는 단계를 더 포함하는 방법.
  6. 제5항에 있어서,
    최소 자승 예측 에러가 만족될 때까지, 상기 분류 맵을 재생성하고 최소 자승 필터 계수를 리트레이닝하는 단계를 더 포함하는 방법.
  7. 제4항에 있어서,
    개선된 예측을 사용해서 영향받는 영역의 셀이 유사한 공간 텍스처(spatial texture)를 갖는 화소들을 포함하도록 수정되는 단계를 더 포함하는 방법.
  8. 타겟 화상의 예측을 생성하는 불규칙 필터 탭과,
    상기 예측에 적용되어 개선된 예측을 생성하는 적용되는 규칙 필터 탭
    을 포함하는 장치.
  9. 제8항에 있어서,
    움직임 벡터의 불규칙 패턴 및 영향받는 영역의 셀로부터 상기 불규칙 필터 탭을 생성하는 불규칙 탭 생성기를 더 포함하는 장치.
  10. 제8항에 있어서,
    최소 자승 절차를 사용하여 상기 규칙 필터 탭을 생성하는 규칙 탭 생성기를 더 포함하는 장치.
  11. 제10항에 있어서,
    상기 규칙 탭 생성기는,
    상기 타겟 화상의 예측에서 최소 자승 트레이닝을 실행하여 최소 자승 필터 계수의 집합을 제공하는 최소 자승 트레이너와,
    영향받는 영역의 셀 각각과 최소 자승 필터 인덱스를 연관짓는 분류 맵을 생성하는 맵 생성기와,
    상기 분류 맵을 사용하여 상기 최소 자승 필터 계수를 리트레인하는 리트레이너와,
    상기 리트레인된 필터 계수를 사용하여 상기 타겟 화소의 예측을 개선하는 예측 인핸서(enhancer)
    를 포함하는 장치.
  12. 제11항에 있어서,
    상기 리트레이너는, 최소 자승 예측 에러가 만족될 때까지 최소 자승 필터 계수를 리트레인하는 최소 자승 에러 감소기를 더 포함하는 장치.
  13. 제11항에 있어서,
    상기 개선된 예측을 사용해서 영향받는 영역의 셀을 유사한 공간 텍스처(spatial texture)를 갖는 화소들을 포함하도록 수정하는 셀 수정자를 더 포함하는 장치.
  14. 제13항에 있어서,
    영향받는 수정된 영역의 셀과 상기 불규칙 필터 탭을 사용해서 상기 타겟 화상의 예측의 예측 에러를 감소시키는 예측 에러 감소기를 더 포함하는 장치.
  15. 프로세싱 시스템에 의해 실행될 때, 상기 시스템이 방법을 실행하도록 하는 명령어 프로그램을 저장하는 컴퓨터 판독가능 매체로서, 상기 방법은,
    불규칙 필터 탭을 사용해서 타겟 화상의 예측을 생성하는 단계와,
    규칙 필터 탭을 상기 예측에 적용하여 개선된 예측을 생성하는 단계
    를 포함하는 컴퓨터 판독가능 매체.
  16. 제15항에 있어서,
    움직임 벡터의 불규칙 패턴 및 영향받는 영역의 셀로부터 상기 불규칙 필터 탭을 생성하는 단계를 더 포함하는 컴퓨터 판독가능 매체.
  17. 제15항에 있어서,
    최소 자승 절차를 사용해서 상기 규칙 필터 탭을 생성하는 단계를 더 포함하는 컴퓨터 판독가능 매체.
  18. 제17항에 있어서,
    상기 최소 자승 절차는,
    상기 타겟 화소의 예측에서 최소 자승 트레이닝을 실행하여 최소 자승 필터 계수의 집합을 생성하는 단계와,
    영향받는 영역의 셀 각각을 최소 자승 필터 인덱스와 연관짓는 분류 맵을 생성하는 단계와,
    상기 분류 맵을 사용해서 상기 최소 자승 필터 계수를 리트레인하는 단계와,
    상기 리트레인된 필터 계수를 사용해서 상기 타겟 화소의 예측을 개선하는 단계
    를 포함하는 컴퓨터 판독가능 매체.
  19. 제18항에 있어서,
    최소 자승 예측 에러가 만족될 때까지 상기 최소 자승 필터 계수를 리트레이닝하는 단계를 더 포함하는 컴퓨터 판독가능 매체.
  20. 제18항에 있어서,
    상기 개선된 예측을 사용하여 상기 영향받는 영역의 셀이 유사한 공간 텍스처를 갖는 화소들을 포함하도록 수정하는 단계를 더 포함하는 컴퓨터 판독가능 매체.
  21. 제20항에 있어서,
    상기 수정된 영향받는 영역의 셀과 상기 불규칙 필터 탭을 사용하여 상기 타겟 화상 예측의 예측 에러를 감소시키는 단계를 더 포함하는 컴퓨터 판독가능 매체.
KR1020087008977A 2005-09-16 2006-09-14 시간 예측을 위한 분류 필터링 KR20080050491A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/229,286 US7894522B2 (en) 2005-09-16 2005-09-16 Classified filtering for temporal prediction
US11/229,286 2005-09-16

Publications (1)

Publication Number Publication Date
KR20080050491A true KR20080050491A (ko) 2008-06-05

Family

ID=37884044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087008977A KR20080050491A (ko) 2005-09-16 2006-09-14 시간 예측을 위한 분류 필터링

Country Status (6)

Country Link
US (1) US7894522B2 (ko)
EP (1) EP1946245A4 (ko)
JP (1) JP2009509418A (ko)
KR (1) KR20080050491A (ko)
CN (1) CN101268475B (ko)
WO (1) WO2007035539A2 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8041145B2 (en) * 2006-11-17 2011-10-18 The Invention Science Fund I, Llc Distortion compensated imaging
EP2223530A2 (en) 2007-11-30 2010-09-01 Dolby Laboratories Licensing Corp. Temporal image prediction
KR101460608B1 (ko) * 2008-03-04 2014-11-14 삼성전자주식회사 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치
US8059908B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive area of influence filter for irregular spatial sub-sampled images
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
KR101648818B1 (ko) * 2008-06-12 2016-08-17 톰슨 라이센싱 움직임 보상 보간 및 참조 픽쳐 필터링에 대한 국부적 적응형 필터링을 위한 방법 및 장치
US10123050B2 (en) 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
BRPI0921986A2 (pt) * 2008-11-25 2018-06-05 Thomson Licensing métodos e aparelho para filtralçao por eliminação de artefatos à base de matrizes esparsas para codificação e decodificação de vídeo
US9143803B2 (en) * 2009-01-15 2015-09-22 Qualcomm Incorporated Filter prediction based on activity metrics in video coding
KR101510108B1 (ko) 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP2012151576A (ja) 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
SG189843A1 (en) * 2011-01-19 2013-06-28 Mediatek Inc Method and apparatus for parsing error robustness of temporal motion vector prediction
US8989261B2 (en) 2011-02-23 2015-03-24 Qualcomm Incorporated Multi-metric filtering
WO2017191750A1 (ja) * 2016-05-02 2017-11-09 ソニー株式会社 符号化装置及び符号化方法、並びに、復号装置及び復号方法

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0309669B1 (de) * 1987-09-30 1992-12-30 Siemens Aktiengesellschaft Verfahren zur szenenmodellgestützten Bilddatenreduktion für digitale Fernsehsignale
US5690934A (en) * 1987-12-31 1997-11-25 Tanox Biosystems, Inc. Peptides relating to the extracellular membrane-bound segment of human alpha chain
US5047850A (en) * 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
JP3437605B2 (ja) * 1993-06-30 2003-08-18 株式会社東芝 画像の動き検出方法及び装置
US5473384A (en) * 1993-12-16 1995-12-05 At&T Corp. Method of and system for enhancing distorted graphical information
JPH08205176A (ja) * 1995-01-19 1996-08-09 Daewoo Electron Co Ltd 映像信号符号化装置及び映像信号符号化方法
KR0181027B1 (ko) * 1995-03-20 1999-05-01 배순훈 화소 단위 움직임 추정을 이용하는 영상처리 시스템
US5872866A (en) * 1995-04-18 1999-02-16 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by predetermination of IDCT results based on image characteristics
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
JP2798035B2 (ja) * 1996-01-17 1998-09-17 日本電気株式会社 適応動きベクトル補間による動き補償フレーム間予測方法
ATE223135T1 (de) * 1996-04-19 2002-09-15 Nokia Corp Videokodierer und -dekodierer mit bewegungsbasierter bildsegmentierung und bildzusammenfügung
US6101276A (en) * 1996-06-21 2000-08-08 Compaq Computer Corporation Method and apparatus for performing two pass quality video compression through pipelining and buffer management
JP3967405B2 (ja) * 1996-10-09 2007-08-29 テキサス インスツルメンツ インコーポレイテツド 画像信号の符号化方法
JP4034380B2 (ja) * 1996-10-31 2008-01-16 株式会社東芝 画像符号化/復号化方法及び装置
DE19648016A1 (de) * 1996-11-20 1998-05-28 Philips Patentverwaltung Verfahren zur fraktalen Bildkodierung und Anordnung zur Durchführung des Verfahrens
EP2352298A1 (en) * 1997-02-13 2011-08-03 Mitsubishi Denki Kabushiki Kaisha Moving picture prediction system
DE19746214A1 (de) * 1997-10-21 1999-04-22 Bosch Gmbh Robert Verfahren zur bewegungskompensierenden Prädiktion von Bewegtbildfolgen
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6208692B1 (en) * 1997-12-31 2001-03-27 Sarnoff Corporation Apparatus and method for performing scalable hierarchical motion estimation
JPH10243401A (ja) * 1998-04-06 1998-09-11 Nec Corp 適応動きベクトル補間による動き補償フレーム間予測方法
US6298144B1 (en) * 1998-05-20 2001-10-02 The United States Of America As Represented By The National Security Agency Device for and method of detecting motion in an image
JP4158232B2 (ja) * 1998-07-23 2008-10-01 ソニー株式会社 画像情報変換装置および画像表示装置
US6591015B1 (en) * 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
KR100301833B1 (ko) 1998-08-20 2001-09-06 구자홍 오류은폐방법
US6711278B1 (en) 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6466624B1 (en) * 1998-10-28 2002-10-15 Pixonics, Llc Video decoder with bit stream based enhancements
JP2000308064A (ja) * 1999-04-22 2000-11-02 Mitsubishi Electric Corp 動きベクトル検出装置
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP3753578B2 (ja) * 1999-12-07 2006-03-08 Necエレクトロニクス株式会社 動きベクトル探索装置および方法
US6864994B1 (en) * 2000-01-19 2005-03-08 Xerox Corporation High-speed, high-quality descreening system and method
EP1277347A1 (en) 2000-04-11 2003-01-22 Koninklijke Philips Electronics N.V. Video encoding and decoding method
US6813313B2 (en) * 2000-07-06 2004-11-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for high-level structure analysis and event detection in domain specific videos
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
US6782054B2 (en) * 2001-04-20 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for motion vector estimation
EP2458865A3 (en) 2001-06-29 2014-10-01 NTT DoCoMo, Inc. Apparatuses for image coding and decoding
US7609767B2 (en) * 2002-05-03 2009-10-27 Microsoft Corporation Signaling for fading compensation
JP3702464B2 (ja) * 2002-05-08 2005-10-05 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
US7715477B2 (en) * 2002-05-29 2010-05-11 Diego Garrido Classifying image areas of a video signal
CA2491679A1 (en) * 2002-07-09 2004-01-15 Nokia Corporation Method and system for selecting interpolation filter type in video coding
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
JP3997171B2 (ja) * 2003-03-27 2007-10-24 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
KR100782829B1 (ko) * 2003-06-10 2007-12-06 렌슬러 폴리테크닉 인스티튜트 움직임 보상 시간 필터링에서 i-블록들을 처리하는 방법
CN101296377B (zh) * 2003-12-23 2012-01-04 塔米拉斯珀私人有限责任公司 时间运动矢量滤波
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
KR20050075483A (ko) 2004-01-15 2005-07-21 삼성전자주식회사 비디오 코딩 및 디코딩 방법, 및 이를 위한 장치
KR100955161B1 (ko) * 2004-05-04 2010-04-28 콸콤 인코포레이티드 모션 보상된 프레임 레이트 상향 변환을 위한 방법 및 장치
US8059719B2 (en) * 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter
US7957466B2 (en) * 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries

Also Published As

Publication number Publication date
EP1946245A4 (en) 2012-08-29
CN101268475A (zh) 2008-09-17
WO2007035539A3 (en) 2007-06-21
JP2009509418A (ja) 2009-03-05
CN101268475B (zh) 2012-02-08
US7894522B2 (en) 2011-02-22
US20070064798A1 (en) 2007-03-22
WO2007035539A2 (en) 2007-03-29
EP1946245A2 (en) 2008-07-23

Similar Documents

Publication Publication Date Title
KR20080050491A (ko) 시간 예측을 위한 분류 필터링
KR101266638B1 (ko) 이동 객체 경계용 적응형 영향 영역 필터
KR20080048069A (ko) 불규칙 움직임 벡터 샘플을 통한 시간 예측 필터에 대한적응성 움직임 추정
JPH1066090A (ja) 動補償された映像のブロック化効果及びリンギングノイズ減少のためのループフィルタリング方法
EP2378776A1 (en) Image processing device, decoding method, intra-frame decoder, intra-frame decoding method, and intra-frame encoder
KR20080054400A (ko) 모션 벡터 선택
CA2740800A1 (en) Predicted pixel value generation procedure automatic producing method, image encoding method, image decoding method, apparatus therefor, programs therefor, and storage media whichstore the programs
CN103262539A (zh) 运动图像编码装置、运动图像解码装置、运动图像编码方法以及运动图像解码方法
KR101276450B1 (ko) 적응형 영향 영역 필터
KR101328795B1 (ko) 비디오 압축에서 적응형 모션 벡터 샘플링을 위한 다단계 링크 프로세스
US6633677B1 (en) Method and apparatus for processing an image in an image compression/decompression system that uses hierachical coding
Sanchez et al. Piecewise mapping in HEVC lossless intra-prediction coding
Niu et al. Edge-based perceptual image coding
Novikov et al. Local-adaptive blocks-based predictor for lossless image compression
CN115567712A (zh) 基于人眼恰可察觉失真的屏幕内容视频编码感知码率控制方法及装置
JP2007067552A (ja) 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体
Egorov et al. Performance analysis of prediction methods for lossless image compression
JP2009272969A (ja) 画像符号化装置及び画像符号化方法、画像復号化装置及び画像復号化方法
Sumi et al. Lossless Image Coding Based on Probability Modeling Using Template Matching and Linear Prediction
WO2020066307A1 (ja) 画像復号装置、画像符号化装置、画像処理システム及びプログラム
Shilpa et al. Pixelwise improvised blend of predictors in HEVC lossless mode
KR20160139898A (ko) 해상도 스케일링 방법 및 그 장치
JP2006157239A (ja) 画像処理装置及び画像処理方法
JPH11346316A (ja) 段階的詳細化により階調画像のプログレッシブな符号化と復号化を行う装置

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application