KR101500781B1 - 이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치 - Google Patents

이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치 Download PDF

Info

Publication number
KR101500781B1
KR101500781B1 KR1020107003503A KR20107003503A KR101500781B1 KR 101500781 B1 KR101500781 B1 KR 101500781B1 KR 1020107003503 A KR1020107003503 A KR 1020107003503A KR 20107003503 A KR20107003503 A KR 20107003503A KR 101500781 B1 KR101500781 B1 KR 101500781B1
Authority
KR
South Korea
Prior art keywords
block
image
texture pattern
current
current block
Prior art date
Application number
KR1020107003503A
Other languages
English (en)
Other versions
KR20100046202A (ko
Inventor
쥘리앙 아다드
도미니끄 또로
필립 쌀몽
자비에 꺄뜰랑
크리스토프 슈방스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20100046202A publication Critical patent/KR20100046202A/ko
Application granted granted Critical
Publication of KR101500781B1 publication Critical patent/KR101500781B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본 발명은 이미지들과, 메모리에 저장되어 있는 이러한 이미지들의 전형적인 텍스처를 나타내는 텍스처 패턴 블록들을 처리하기 위한 방법에 관한 것으로, 본 방법은, 미리 정의된 변환을 이용하여 현재 블록의 픽셀 그레이 레벨들을 주파수 계수들의 현재 블록이 되도록 변환하는 단계와, 통합 블록을 확립하는 단계(76) - 통합 블록의 정의된 자리에 위치되는 각각의 주파수 계수는, 현재 블록의 동일한 자리에 위치되는 주파수 계수와 동일하거나, 또는 메모리에 저장된 텍스처 패턴 블록들 중에서 텍스처 패턴 블록의 동일한 자리에 위치되는 주파수 계수에 동일함 - 와, 미리 정의된 함수(J)에 따라서 통합 블록을 선택하는 단계(94)와, 이미지의 현재 블록을 선택된 통합 블록으로 대체하는 단계(96)를 포함한다. 본 발명은 또한 대응하는 이미지들을 처리하기 위한 전자 장치에 관한 것이다.

Description

이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치{METHOD FOR PROCESSING IMAGES AND THE CORRESPONDING ELECTRONIC DEVICE}
본 발명은 비디오 코딩 도메인 및 압축 도메인에 관한 것이다. 구체적으로, 본 발명은 이미지들을 처리하기 위한 방법 및 장치에 관한 것이다.
JPEG, MPEG1, MPEG2 또는 H.264 표준에 의해 정의되는 방법들과 같은 코딩 방법들에서, 각각의 이미지는 먼저 그 사이즈에 따라 블록들 또는 매크로 블록들로 명명된 부분들로 분할된 후, 이들은 개별적으로 구별되어 차례로 처리된다. 디코딩 프로세스 동안에, 이러한 블록들은 구별되어 독립적으로 차례로 재구축(reconstruct)되고 서로 어셈블링되어 각각의 이미지를 복구(recover)한다.
블록들이 코딩 프로세스 동안에 개별적으로 처리되기 때문에, 재구축된 이미지들에서 블록들의 아티팩트들을 알아 차릴 수 있다. 이러한 아티팩트들은 시각적으로 짜증을 일으킨다.
마코비안 랜덤 필드(Markovian Random Fields), 적응적 필터링, POCS(projection onto convex sets)와 같은 다양한 이미지 처리 기술들의 문헌에서 이러한 문제를 다룬다. 이러한 방법들 모두는 블록킹 아티팩트들을 제거하는데 꽤 좋은 결과를 이끌어낸다.
그러나, 이러한 방법들은 시각적으로 상당히 짜증나게 하는 깜박거림(flickering)을 유발하는 추가 잡음을 들여온다(introduce). 귀결되는 이미지는 약간 흐릿(blur)하다.
이에 따라, 블록킹 아티팩트들을 제거하기 위한 새로운 방법을 개발하는 것이 바람직하다.
따라서, 본 발명의 목적은 청구항 제1항, 제12항 및 제16항에 기재된 방법 및 전자 장치를 제공하는 것이다.
본 방법 및 장치의 다른 특징들은 또한 종속항들에 개시되어 있다.
다음의 상세한 설명 및 도면들로부터 본 발명의 다른 측면들을 알 수 있을 것이다.
도 1은 본 발명에 따른 전자 장치의 기능 블록도.
도 2는 블록들로 분할되는 이미지를 개략적으로 나타내는 도면.
도 3은 본 발명에 따른 텍스처 통합의 기능 블록도.
도 4는 하나의 현재 블록으로부터 2개의 상이한 통합 블록들의 확립을 개략적으로 나타내는 도면.
도 5는 움직임 보상 프레임간 예측을 이용하여 코딩된 비디오 시퀀스의 이미지들을 재구축하기 위한 방법을 나타내는 순서도.
도 6은 인트라-이미지들을 처리하기 위한 단계들을 나타내는 순서도.
도 7은 통합 블록을 확립하는 단계들을 나타내는 순서도.
도 8은 본 발명에 따른 편차값의 계산을 개략적으로 나타내는 도면.
도 9는 인터 이미지들을 처리하기 위한 단계들을 나타내는 순서도.
도 10은 인터 이미지들의 처리를 개략적으로 나타내는 도면.
본 발명의 맥락에서, 인코더는 8개의 칼럼 상에 8개의 라인의 사이즈를 갖는 이미지의 부분들(이하에서는, 블록들로 지칭함)을 구별하여 독립적으로 처리하도록 적응된다.
특히, 이 인코더는 공간 리던던시(spatial redundancy)를 줄이기 위해 이산 코사인 변환(Discrete Cosine Transform)을 이용하고 시간 리던던시를 줄이기 위해 움직임 보상 프레임간 예측(inter-frame prediction)을 이용하여 비디오 시퀀스의 이미지들을 인코딩할 수 있다. 이러한 인코딩 방법들은 잘 알려져 있다. 이들에 대한 설명은 S.R.Ely가 저술한 "MPEG VIDEO CODING: A basic tutorial introduction"이란 명칭의 BBC의 조사 및 개발 보고서에서 찾을 수 있다.
본 발명에 따르면, 이 인코더는 이미지에서 블록들을 선택하고 이러한 블록들을 식별하는 정보를 디코더에 보내질 비트 스트림에 도입하도록 적응된다. 이러한 블록들은 8개의 칼럼 상에 8개의 라인의 사이즈를 갖는 이미지의 부분들이다. 이들은 그 이미지의 전형적인 텍스처들을 나타낸다. 이하에서는 이들을 텍스처 패턴 블록들로 지칭한다.
예컨대, 이미지의 블록들의 1,5%가 텍스처 패턴 블록들로서 선택될 수 있다.
본 발명에 따르면, 이러한 텍스처 패턴 블록들을 식별하는 정보를 비트 스트림에 도입하기 위한 두 가지 가능성이 있다.
첫 번째 가능성에 따르면, 텍스처 패턴 블록들의 좌표들은 기존의 표준들에서 예측(forecast)되는 자유 공간들에 포함된다.
두 번째 가능성에 따르면, 비트 레이트를 제어하기 위해 코딩 동안에 이용되는 양자화 인덱스(또한 QP 인덱스로도 지칭됨)는 텍스처 패턴 블록들의 코딩에 대해서는 낮추어진다. 이 QP 인덱스는 한 블록에서의 양자화를 제어한다. 이것은 보통 0과 51 사이로 설정된다. QP 인덱스가 더 높게 설정될수록, 더 많은 블록이 압축된다.
본 발명에 따르면, 텍스처 패턴 블록들에 대해 설정된 QP 인덱스는 이미지의 다른 블록들에 대해 설정된 QP 인덱스보다 낮다. QP 인덱스가 텍스처 패턴 블록들에 대해 더 낮추어지기 때문에, 이러한 블록들의 텍스처는 더 양호하게 보존된다.
인코더는 맨위-좌측(top-left) 블록으로부터 맨위-우측(top-right) 블록으로 이미지의 각 블록을 나타내는 비트 스트림 데이터에 대해서 연속적으로 전송하도록 적응된다. 이러한 데이터는 각 블록에 대해 QP 인덱스와 주파수 계수들 또는 블록이 다른 이미지의 연관된 블록으로부터 예측될 때의 움직임 벡터를 포함한다.
디코더측에서는, 후술하는 바와 같이 더 낮은 QP 인덱스를 갖는 블록들이 식별된다.
도 1을 참조하면, 본 발명에 따른 전자 장치(2)의 개략적인 블록도가 도시되어 있다. 이 전자 장치(2)는 전술한 인코더로부터 비트 스트림을 수신하도록 적응된 디코더이다.
전자 장치(2)는, 전술한 인코더에 의해 코딩된 비디오 시퀀스를 나타내는 비트 스트림을 수신하기 위한 입력부(4), 입력부(4)에 링크된 디코더(6), 디코더(6)에 링크된 재구축 유닛(8) 및 재구축 유닛(8)에 접속된 메모리(10)를 포함한다.
디코더(6)는 도 2에 도시된 바와 같이 이미지(15)의 블록들(11, 12, 13) 및/또는 움직임 벡터들을 나타내는 데이터를 얻기 위해 인코더에 의해 보내진 비트 스트림을 디코딩하도록 적응된다.
재구축 유닛(8)은 잘 알려진 바와 같이 디코딩된 데이터로부터 이미지의 각각의 블록(11, 12, 13)을 재구축하도록 적응된다.
본 발명에 따르면, 재구축 유닛(8)은 인코더측 상에서 비트 스트림에 포함된 정보로부터 텍스처 패턴 블록들(14, 16)을 또한 복구할 수 있다.
이를 위해, 재구축 유닛(8)은 표준 방법에서 예측된 자유 공간들에 포함되는 정보를 판독하거나 또는 더 낮은 QP 인덱스로 코딩된 블록들을 식별하도록 적응된다.
각각의 이미지를 위해 재구축된 텍스처 패턴 블록들(14, 16)은 메모리(10)에 저장된 텍스처들의 딕셔너리(dictionary)(17)를 이룬다.
전자 장치(2)는 또한 재구축 유닛(8)과 메모리(10)에 링크된 제어 유닛(18), 메모리(10)와 제어 유닛(18)에 접속된 텍스처 통합부(20), 및 제어 유닛(18)에 링크된 출력부(22)를 포함한다.
제어 유닛(18)은, 인트라 블록들 이미지(intra blocks image) 및 인터 이미지(inter image)에 속하고 움직임 벡터에 연관된 블록들을 텍스처 통합부(20)로 전송하고, 인터 이미지에 속하고 움직임 벡터에 연관된 블록들에 대해 도 9에 도시된 방법을 수행할 수 있다.
제어 유닛(18)은 텍스처 패턴 블록들이 아닌 재구축된 이미지의 블록들을 연속적으로 선택하고, 아티팩트들을 제거하기 위해 이들을 처리하고 처리된 블록에 의해 각각의 선택된 블록을 대체하도록 적응된다.
텍스처 통합부(20)는 제어 유닛(18)에 의해 선택된 각각의 블록(13)에 대해 통합 블록(24)을 확립할 수 있다.
도 3을 참조하면, 텍스처 통합부(20)가 도시되어 있다. 텍스처 통합부(20)는, 각각의 텍스처 패턴 블록(14, 16)을 수신하기 위한 제1 입력부(30), 및 텍스처 패턴 블록의 픽셀 그레이 레벨들을 주파수 계수들로 변환하기 위해 제1 입력부(30)에 링크된 제1 DCT 유닛(32)을 포함한다.
텍스처 통합부(20)는, 제어 유닛(18)에 의해 선택된 블록(13)을 수신하도록 적응된 제2 입력부(38), 블록(13)의 픽셀 그레이 레벨들을 주파수 계수들로 변환하기 위해 입력부(38)에 링크된 제2 DCT 유닛(40), 제1 문턱 S1을 저장하는 메모리(42), 및 메모리(42)와 제2 DCT 유닛(40)에 접속된 비교기(44)를 포함한다.
각각의 DCT 유닛(32, 40)은 그레이 레벨들을 포함하는 각각의 입력된 블록(13)을 이러한 그레이 레벨들을 나타내는 주파수 계수들을 포함한 블록(13)으로 변환할 수 있는 계산 유닛이다. 블록의 맨위 좌측 코너에 위치한 계수는 DC 계수로 보통 불리고, 다른 계수들은 AC 계수들로 보통 불린다. 계수들의 블록에서 계수의 위치는 그 주파수 랭크(rank)에 대응하는데, 예를 들어 블록의 맨아래 우측에서의 AC 계수는 가장 높은 주파수들에 대응한다.
제1 문턱 S1은 예를 들어 20과 40 사이에 구성된다. 양호하게는, 제1 문턱 S1이 30과 같다.
비교기(44)는 메모리(42)에 저장된 제1 문턱 S1에 블록의 주파수 계수들을 비교하도록 적응된다.
텍스처 통합부(20)는, 비교기(44)의 출력부와 DCT 유닛들(32 및 40)에 접속된 빌더 유닛(builder unit)(46)과, 빌더 유닛(46), 제2 DCT 유닛(40) 및 제2 입력부(38)에 링크된 선택 유닛(47)과, 선택 유닛(47)에 접속된 IDCT 유닛(48)과, IDCT 유닛(48)에 링크된 출력부(50)를 포함한다.
빌더 유닛(46)은 도 4에 도시된 바와 같이 각각의 선택된 블록(13)과 각각의 텍스처 패턴 블록(14, 16)에 대한 통합 블록(24, 26)을 생성하도록 적응된 프로세서이다.
선택 유닛(47)은, 현재 처리된 블록(13)의 각각의 통합 블록(24, 26)에 연관된 편차값 J를 계산하고, IDCT 유닛(48)에 전송되기 위한 기준을 이행하는 통합 블록(24, 26)을 선택하도록 적응된다.
편차값(variation value)은, 선택된 블록(13)과 텍스처 패턴 블록(14) 간의 주파수 유사도, 및 선택된 블록과 그 선택된 블록(13)에 인접한 적어도 하나의 블록 간의 그레이 레벨 그래디언트(grey level gradient)를 나타낸다.
선택 유닛(47)은 IDCT 유닛(48)으로부터 수신된 통합 블록(24)을 저장하기 위한 메모리(49)를 포함한다.
IDCT 유닛(48)은 유닛(47)에 의해 선택된 각각의 통합 블록(24)의 주파수 계수들을 그레이 레벨들로 변환하기 위해 역 이산 코사인 변환을 행할 수 있다. IDCT 유닛(48)의 출력부는 그레이 레벨들에 의하여 표현된 통합 블록(24)을 메모리(49)로 전송하기 위해 선택 유닛(47)에 링크된다.
도 5를 참조하면, 본 발명에 따른 방법은 비트 스트림의 한 부분을 수신하는 단계 60에서 시작한다.
단계 62에서, 디코더(6)는 비트 스트림의 이 부분을 디코딩하여 데이터와 가능한 움직임 벡터들을 얻는다.
단계 63에서, 재구축 유닛(8)은 디코더(6)로부터 나온 데이터로부터 이미지(15) 및 가능한 움직임 벡터들을 재구축한다.
단계 64에서, 제어 유닛(18)은 재구축된 이미지(15)가 인트라 이미지, 즉 다른 이미지들에 관계없이 코딩된 이미지인지, 또는 인터 이미지, 즉 다른 이미지들로부터 움직임 보상 예측을 이용하여 코딩된 이미지인지 여부를 판정한다.
본 발명에 있어, 본 발명자들은 비디오 시퀀스의 제1 이미지가 인트라 이미지인 것으로 상정하였다.
수신된 이미지가 인트라 이미지일 때, 이 이미지는 도 6에 도시된 순서도에 따라 처리된다.
수신된 이미지가 인터 이미지일 때, 이 인터 이미지는 도 9에 도시된 순서도에 따라 처리된다.
도 6을 참조하면, 인트라 이미지(15)를 처리하는 방법은 제1 단계 70을 포함하는데, 이 단계 동안에, 인코더 측에서 선택된 텍스처 패턴 블록들(14, 16)은 이미지(15)의 전형적인 텍스처들을 나타내는 텍스처들의 딕셔너리(17)를 형성하기 위해 복구된다.
단계 72에서, 제어 유닛(18)은 유닛(8)으로부터 수신된 재구축된 이미지에서 현재 블록(13)을 선택한다. 이미지(15)의 블록들 모두는 텍스처 패턴 블록들을 제외하고는 래스터 스캔 순서에 따라 차례로 선택될 것이고, 더 낮은 QP 인덱스는 나중의 것이 적절한 텍스처를 갖는다는 것을 보장한다.
단계 74에서, 텍스처 통합부(20)는 딕셔너리(17)에서 제1 텍스처 패턴 블록(14)을 선택한다.
그 후, 단계 76에서, 텍스처 통합부(20)는 도 7에 도시된 단계들을 수행함으로써 통합 블록(24)을 확립한다.
단계 78 동안에, 선택된 텍스처 패턴 블록(14)의 그레이 레벨들은 DCT 유닛(32)에 의해 주파수 계수들로 변환된다.
동일한 방식으로, 현재 블록(13)의 그레이 레벨들은 단계 80에서 DCT 유닛(40)에 의해 주파수 계수들로 변환된다.
단계 82에서, 현재 블록(13)의 좌표들(i, j)에 의해 정의되는 국소적 위치(localization)에 위치한 주파수 계수는 비교기(44)에 의해 제1 문턱 S1에 비교된다.
이 주파수 계수가 이 문턱보다 클 때, 빌더 유닛(46)은 단계 84 동안에 이 계수를 동일한 국소적 위치(i, j)(현재 블록(13)의 주파수 계수가 위치함)에서 새로운 블록으로 명명된 통합 블록으로 카피한다.
이 주파수 계수가 제1 문턱 S1보다 낮을 때, 빌더 유닛(46)은 단계 86 동안에 동일한 국소적 위치(i, j)에 위치한 텍스처 패턴 블록(14)의 주파수 계수를 찾고, 국소적 위치(i, j)에서, 찾아진 주파수 계수를 통합 블록(24)으로 카피한다.
그 결과의 통합 블록(24)은 현재 블록의 카피인데, 여기서 제1 문턱 S1보다 낮은 주파수 계수들 모두가 선택된 텍스처 패턴 블록(14)의 주파수 계수들에 의해 대체된다.
단계들 82 및 84 또는 86은 통합 블록(24)이 단계 88에서 형성될 때까지 현재 블록(13)의 주파수 계수들 모두에 대해 반복된다.
단계 90에서, 선택 유닛(47)은 다음의 함수 : J = C + λD로부터 편차값 J를 계산한다.
여기서,
- λ는 미리 정의된 스칼라이고,
- D는 주파수 유사도 성분이며,
- C는 그레이 레벨 그래디언트 성분이다.
예컨대, λ는 0,3과 0,8 사이에 구성된다. 양호하게는, λ는 0,5와 동일하다.
주파수 유사도 성분 D는 현재 블록(13)과 텍스처 패턴 블록(14)의 낮은 주파수 계수들 간의 차이를 나타낸다.
주파수 유사도 성분 D는 다음의 수학식으로부터 얻어진다.
Figure 112010010415994-pct00001
여기서,
- D는 주파수 유사도 성분이고,
-
Figure 112010010415994-pct00002
는 현재 블록(13)의 DCT 변환의 라인 i와 칼럼 j에서의 주파수 계수이고,
-
Figure 112010010415994-pct00003
는 텍스처 패턴 블록(14)의 DCT 변환의 라인 i와 칼럼 j에서의 주파수 계수이며,
- k는 한 블록의 라인들 또는 칼럼들의 전체 수보다 작은(inferior) 정수이다.
현재 블록이 양자화되었기 때문에, 현재 블록은 고 주파수 정보가 부족하므로 k는 블록(13)의 라인들 및 칼럼들의 전체 수보다 작게 선택된다.
예컨대, k는 3과 5 사이에 구성된다.
k가 4와 같을 때, 주파수 유사도 성분 D의 계산을 위해 현재 블록의 맨위-좌측 코너에 위치한 첫 번째 15개의 AC 주파수 계수들이 고려된다. 이러한 AC 주파수 계수들은 현재 블록의 더 낮은 주파수를 나타낸다. 맨위-좌측 코너에 위치한 DC 계수는 현재 블록(13)의 그레이 레벨의 중간값을 나타내기 때문에 고려되지 않는다.
그레이 레벨 그래디언트 성분 C는 다음의 수학식으로부터 얻어진다.
Figure 112010010415994-pct00004
여기서,
- C는 그레이 레벨 그래디언트 성분이고,
- l은 전술한 실시예에서 블록의 칼럼들 j의 전체 수, 즉 8에 동등한 정수이고,
- m은 블록의 라인들 i의 전체 수에 동등한 정수이고,
- B current (o,j)는 현재 블록(13)의 제1 라인에 위치되는 각각의 픽셀의 그레이 레벨인데, j는 각각의 칼럼을 나타내는 정수이고,
- B current (i,0)는 현재 블록(13)의 제1 칼럼에서의 각각의 픽셀의 그레이 레벨인데, i는 각각의 라인을 나타내는 정수이고,
- B above (m,j)는 도 8에 도시된 바와 같이 현재 블록(13) 위에 위치된 블록(91)의 라인 m 및 칼럼 j에서의 각각의 픽셀의 그레이 레벨이며,
- B left (i,l)는 현재 블록의 좌측에 위치된 블록(92)의 라인 i 및 칼럼 l에서의 각각의 픽셀의 그레이 레벨이다.
그레이 레벨 그래디언트 성분 C는 현재 블록(13)과, 본 방법에 따라 이미 처리되었던 바로 인접한 블록 간의 그래디언트의 계산으로부터 얻어진다. 이러한 블록들(91 및 92)은 메모리(49)에 저장된다.
이미지가 래스터 스캔 순서에 따라 처리되기 때문에, 대부분의 현재 블록들은 이들 위에 위치된 블록과 그 좌측에 위치된 블록을 갖는다. 선택된 제1 블록은 이미지의 맨위-좌측 코너에 위치하고 본 방법에 따라 이미 처리되었던 인접한 블록을 갖지 않는다. 어떠한 그레이 레벨 그래디언트 성분도 이 블록에 대해 계산되지 않는다. 선택된 제2 블록은 그 좌측에 이미 처리되었던 하나의 인접한 블록만을 가지므로, 이 블록에 대해, 그레이 레벨 그래디언트 성분 C는 그 인접한 좌측 블록에 따라서만 계산된다.
단계들 74 내지 90은 딕셔너리(17)에서 텍스처 패턴 블록들의 수에 동등한 편차값들의 수(number)와 통합 블록들의 수를 얻기 위해 딕셔너리(17)의 다른 텍스처 패턴 블록들 모두에 대해 반복된다.
예컨대, 통합 블록(26)은 도 4에 도시된 바와 같이 현재 블록(13)과 텍스처 패턴 블록(16)으로부터 얻어진다.
따라서, 딕셔너리의 각각의 텍스처 패턴 블록(14, 16)에 대해 편차값 J뿐만 아니라 통합 블록(24, 26)이 연관된다.
단계 94 동안에, 선택 유닛(47)은 각각의 텍스처 패턴 블록들(14, 16)에 연관된 통합 블록들(24, 26) 중에서 미리 정의된 기준을 수행하는, 즉 가장 낮은 편차값을 갖는 통합 블록(24)을 선택한다.
단계 95에서, 선택된 통합 블록(24)의 주파수 계수들은 역 이산 코사인 변환을 이용하여 IDCT 유닛(48)에 의해 그레이 레벨들로 변환된다.
선택된 통합 블록(24)은 메모리(49)에 저장하기 위해 출력부(50)를 통해 제어 유닛(18)으로 전송되고 선택 유닛(47)으로도 전송된다.
단계 96에서, 제어 유닛(18)에 의해 선택된 블록은 역 DCT 후에 얻어진 통합 블록(24)에 의해 대체된다.
프로세스는, 재구축된 이미지(15)의 다음 블록이 래스터 스캔 순서에 따라 선택되는 단계 72로 복귀한다. 단계들 74 내지 96은 최종 이미지까지 이미지(15)의 이 블록 및 다른 블록들에 대해 반복된다.
그리고 나서, 프로세스는 새로운 이미지를 나타내는 비트 스트림의 다른 부분이 처리되는 단계 60으로 진행한다.
단계 64에서 테스트된 이미지가 인터 이미지일 때, 본 방법은 도 9 및 도 10에 도시된 바와 같이 현재 블록(98)이 인터 이미지(100)에서 선택되는 단계 99로 진행한다.
단계 104에서, 현재 이미지(100)의 현재 블록(98)과 기준 이미지(102)에서 동일한 위치에 로케이팅된 블록(105)이 결정된다. 이하에서는 이 블록(105)을 병행 블록(collocated block)이라고 지칭한다. 기준 이미지(102)는 움직임 보상 예측에 의해 현재 이미지(100)를 코딩하는데 이용되는 이미지이다.
단계 106에서, 현재 블록(98)과 병행 블록(105) 간의 닮음 계수(resemblance coefficient)(Δ)는 다음의 수학식에 따라 계산된다.
Figure 112010010415994-pct00005
여기서,
- B current (i,j)는 현재 이미지(100)의 현재 블록(98)의 라인 i와 칼럼 j에서의 픽셀의 그레이 레벨이고,
- m과 l은 블록의 라인들과 칼럼들의 전체 수에 동등하며,
- Bcollocated (i,j)는 기준 이미지(102)의 병행 블록(105)의 라인 i와 칼럼 j에서의 픽셀의 그레이 레벨이다.
단계 107에서, 닮은 계수(Δ)는 제2 문턱 S2에 비교된다. 이 문턱 S2는 예를 들어 1500과 2500 사이에 구성되고 양호하게는 2000에 동등하다.
닮음 계수(Δ)가 제2 문턱 S2보다 클 때, 현재 블록(98)은 이 블록(98)과 그 병행 블록(105) 사이에 높은 유사성이 존재하기 때문에 처리되지 않는다. 이어서, 본 방법은 래스터 스캔 순서에 따라 다음 블록이 선택되는 단계 99로 진행한다.
닮은 계수가 제2 문턱 S2보다 작을 때, 단계 62 동안에 비트 스트림의 디코딩으로부터 얻어진 움직임 벡터(111)를 이용함으로써 현재 블록(98)에 연관된 블록(110)을 찾는다. 현재 블록(98)은 움직임 보상 프레임간 예측 코딩에 따라 연관된 블록(110)으로부터 예측된 블록이다.
기준 이미지(102)가 본 발명의 방법에 따라 이미 처리되었기 때문에, 연관된 블록(110)은 전술한 단계들 70 내지 96의 수행을 통해 얻어진 통합 블록이다.
단계 114에서, 현재 블록(98)은 이미 처리되었고 이에 따라 이미 통합 블록인 연관된 블록(110)에 의해 대체된다.
이어서, 프로세스는 최종 이미지까지 단계들 99 내지 114를 계속한다.
인터 이미지가 처리되었을 때, 프로세스는 비트 스트림의 다른 부분이 수신되는 단계 60을 계속한다.
변형례로서, 인코더는 다음의 표준, 즉 JPEG, MPEG1, MPEG2, H.264 표준에서 이용되는 표준과 같은 다른 직교 변환을 이용하여 인코딩한다.
인코더가 H.264 코딩 표준을 이용할 때, 텍스처 패턴 블록을 식별하는 정보는 SEI(Supplemental Enhancement Information)로 불리는 표준 필드들에 저장된다.
텍스처 딕셔너리 데이터는 별개의 독립적인 NAL(Network Adaptation Layer) 유닛에서 인코딩하기 위해 현재 프레임 이전에 보내진다. 이 NAL 유닛은, 디코더 측에서 텍스처 통합 처리를 수행하는데 필요한 모든 정보를 포함하는 텍스처 딕셔너리 정보가 뒤따르는, 텍스처 딕셔너리에 전용인 새로운 SEI 메시지 타입에 대응한다. 텍스처 딕셔너리 정보는 딕셔너리들의 수, 양자화된 스텝 값, 텍스처 블록들의 수, DCT 사이즈 및 텍스처 딕셔너리 이진 스트림으로 이루어진다.
변형례로서, 본 발명에 따른 방법은 특정한 텍스처를 갖는 이미지들의 미리 정의된 영역들에 대해서만, 예를 들면 독수리의 깃털들에 대해서만 수행된다.
이 경우, 이미지는 먼저 분할되고, 분할 맵이 디코더에 보내진다. 각각의 영역에 대해 상이한 텍스처 딕셔너리를 선택할 수 있다.
비디오 시퀀스가 인트라 이미지들만을 포함할 때, 본 발명에 따른 프로세스는 단계들 60, 62, 63 및 70 내지 98의 실행에 의해 수행된다.
전술한 실시예에 따르면, 본 발명에 따른 방법은 코딩 및 디코딩된 이미지들에 적용된다. 그러나, 압축된 이미지에 이 방법을 적용하는 것도 또한 가능하다. 이 경우, 텍스처 패턴 블록의 딕셔너리(17)는 이미 형성되고, 이미지는 이미 만들어진 딕셔너리를 이용하여 단계들 72 내지 96을 수행함으로써 처리된다.

Claims (19)

  1. 적어도 하나의 이미지(15,100,102), 상기 이미지의 한 부분인 블록(13,14,16,98), 상기 이미지(15,100,102)의 각각의 픽셀에 연관되는 그레이 레벨(grey level), 메모리(10)에 저장되는 상기 이미지(15,100,102)의 텍스처를 나타내는 적어도 하나의 텍스처 패턴 블록(14,16)을 처리하기 위한 방법으로서 - 각각의 텍스처 패턴 블록(14,16)의 픽셀 그레이 레벨들은 미리 정의된 변환을 이용하여 주파수 계수들로 변환됨 -,
    a) 상기 이미지(15,100,102)에서 현재 블록(13,98)을 선택하는 단계(72)와,
    b) 상기 미리 정의된 변환을 이용하여 상기 현재 블록(13,98)의 픽셀 그레이 레벨들을 주파수 계수들의 현재 블록이 되도록 변환하는 단계(80)와,
    c) 통합 블록(merger block)(24,26)을 확립(build up)하는 단계(76) - 상기 통합 블록(24,26)의 정의된 자리(place)에 위치되는 각각의 주파수 계수는, 상기 현재 블록(13,98)의 주파수 계수가 문턱값(S1)보다 크면 상기 현재 블록(13,98)의 동일한 자리에 위치되는 주파수 계수와 동일하거나, 또는 상기 현재 블록(13,98)의 주파수 계수가 상기 문턱값(S1)보다 낮으면 상기 메모리(10)에 저장된 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16) 중에서 텍스처 패턴 블록(14,16)의 동일한 자리에 위치되는 주파수 계수와 동일함 - 와,
    d) 미리 정의된 함수(J = C + λ×D)에 따라서 통합 블록(24,26)을 선택하는 단계(94) - 여기서, C는 그레이 레벨 그래디언트 성분이고, λ는 미리 정의된 스칼라이며, D는 주파수 유사도 성분임 - 와,
    e) 상기 이미지(15,100,102)에서의 현재 블록(14,16)을 상기 선택된 통합 블록(24,26)으로 대체하는 단계(96)
    를 포함하는 것을 특징으로 하는 처리 방법.
  2. 제1항에 있어서, 몇 개의 텍스처 패턴 블록들(14,16)이 상기 메모리(10)에 저장되고, 단계 c)는 각각의 텍스처 패턴 블록(14,16)에 대해 수행되어 몇 개의 통합 블록들(24,26)을 확립하고,
    단계 d)는,
    d1) 각각의 통합 블록(24,26)에 대해서, 상기 현재 블록(13,98) 및 각각의 통합 블록(24,26)의 대응하는 텍스처 패턴 블록(14,16) 간의 주파수 유사도(D)와, 상기 현재 블록(13,98) 및 상기 현재 블록(13,98)에 인접한 적어도 하나의 블록(91,92) 간의 그레이 레벨 그래디언트(C)를 나타내는 편차값(variation value)을 획득하기 위해 미리 정의된 함수(J)를 계산하는 단계(90)와,
    d2) 가장 최소의 편차값을 갖는 통합 블록(24,26)을 선택하는 단계(94) - 상기 현재 블록(13,98)을 대체하는 상기 통합 블록(24,26)은 상기 선택된 통합 블록(24,26)임 - 를 포함하는 것을 특징으로 하는 처리 방법.
  3. 제2항에 있어서, 상기 미리 정의된 함수(J)는,
    Figure 112014072937670-pct00006

    의 식으로부터 획득되는 주파수 유사도 성분(D)을 포함하고,
    여기서, D는 주파수 유사도 성분이고,
    Figure 112014072937670-pct00007
    는 상기 현재 블록의 DCT 변환의 라인 i와 칼럼 j에서의 주파수 계수이고,
    Figure 112014072937670-pct00008
    는 상기 텍스처 패턴 블록의 DCT 변환의 라인 i와 칼럼 j에서의 주파수 계수이고,
    k는 한 블록의 라인들 또는 칼럼들의 전체 수보다 작은(inferior) 정수인 것을 특징으로 하는 처리 방법.
  4. 제2항 또는 제3항에 있어서, 단계 a) 내지 e)를 구현하기 위한 현재 블록의 선택은 래스터 스캔 순서인 미리 정의된 순서에 따라 상기 이미지, 또는 블록들로 분할된 상기 이미지의 파트(part)에서 이루어지고, 상기 미리 정의된 함수(J)는,
    Figure 112014072937670-pct00009

    의 식으로부터 획득된 그레이 레벨 그래디언트 성분(C)을 포함하고,
    여기서,
    C는 그레이 레벨 그래디언트 성분이고,
    l은 상기 블록의 칼럼들 j의 전체 수에 동등한 정수이고,
    m은 상기 블록의 라인들 i의 전체 수에 동등한 정수이고,
    Bcurrent (0,j)는 상기 현재 블록의 제1 라인에 위치되는 각각의 픽셀의 그레이 레벨이고 (j는 각각의 칼럼을 나타내는 정수임),
    Bcurrent (i,0)는 상기 현재 블록의 제1 칼럼에서의 각각의 픽셀의 그레이 레벨이고 (i는 각각의 라인을 나타내는 정수임),
    Babove (m,j)는 상기 현재 블록 위에 위치된 블록(91)의 라인 m 및 칼럼 j에서의 각각의 픽셀의 그레이 레벨이고,
    Bleft (i,l)는 상기 현재 블록의 좌측에 위치된 블록(92)의 라인 i 및 칼럼 l에서의 각각의 픽셀의 그레이 레벨인 것을 특징으로 하는 처리 방법.
  5. 삭제
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 방법은 움직임 보상 프레임간 예측(inter-frame prediction)을 사용하여 코딩된 적어도 두 개의 이미지(100,102) - 상기 적어도 두 개의 이미지(100,102)는 현재 이미지(100) 및 기준 이미지(102)를 포함하고, 상기 현재 이미지(100)는 기준 이미지(102)로부터의 움직임 보상 예측을 사용하여 코딩되고, 상기 현재 이미지(100) 및 상기 기준 이미지(102)는 디코딩됨 - 에 대해서 수행되고, 단계 a) 내지 e)는 상기 기준 이미지(102) 상에서, 래스터 스캔 순서에 따라 연속적으로 선택된 블록들에 대해 수행되고, 각각의 움직임 벡터(111)는 연관 블록(110)으로부터 예측된 현재 이미지(100)의 하나의 현재 블록(98)과 상기 현재 이미지(100)를 디코딩하는 것으로부터 결정된 기준 이미지(102) 간의 움직임을 나타내고,
    상기 방법은,
    j) 상기 현재 이미지(100)에서 현재 블록(98)을 선택하는 단계(99)와,
    k) 상기 움직임 벡터(111)를 사용하여 상기 현재 블록(98)에 연관된 블록(110)을 상기 기준 이미지(102)에서 결정하는 단계(112)와,
    l) 상기 기준 이미지(102)에서 병행 블록(collocated block)(105)을 판정하는 단계(104) - 상기 병행 블록(105)은 상기 현재 이미지(100)에서의 현재 블록(98)과 상기 기준 이미지(102)에서의 동일한 자리에 위치됨 - 와,
    m) 상기 현재 블록(98)과 상기 병행 블록(105) 간의 닮음 계수(resemblance coefficient)(Δ)를 계산하는 단계(106) - 상기 닮음 계수(Δ)는 상기 현재 블록(98)과 상기 병행 블록(105) 간의 텍스처 유사도를 나타냄 - 와,
    만일 상기 닮음 계수(Δ)가 미리 정의된 문턱값(S2)보다 크면, 래스터 스캔 순서에 따라 다음 블록을 선택하고, 이 블록에 대해서 단계 j) 내지 m)을 반복하는 단계와,
    만일 상기 닮음 계수(Δ)가 상기 미리 정의된 문턱값(S2)보다 낮으면, 상기 현재 이미지(100)의 현재 블록(98)을 상기 기준 이미지(102)의 연관된 블록(110)으로 대체하는 단계 - 상기 연관된 블록(110)은 통합 블록임 -
    를 포함하는 것을 특징으로 하는 처리 방법.
  7. 제6항에 있어서, 상기 닮음 계수(Δ)가
    Figure 112014072937670-pct00010

    의 식으로부터 획득되고,
    여기서, Bcurrent (i,j)는 상기 현재 이미지의 현재 블록의 라인 i 및 칼럼 j에서의 픽셀의 그레이 레벨이고,
    Bcollocated (i,j)는 상기 기준 이미지의 병행 블록의 라인 i 및 칼럼 j에서의 픽셀의 그레이 레벨이고,
    m 및 l은 한 블록의 라인들 및 칼럼들의 전체 수인 것을 특징으로 하는 처리 방법.
  8. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 이미지 내의 한 영역을 선택하고 이 선택된 영역의 블록들에 대해서만 단계 a) 내지 e)를 적용하는 단계를 포함하는 것을 특징으로 하는 처리 방법.
  9. 삭제
  10. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 미리 정의된 변환은 DCT(Discrete Cosine Transform)인 것을 특징으로 하는 처리 방법.
  11. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 미리 정의된 변환은 H.264 표준 변환인 것을 특징으로 하는 처리 방법.
  12. 비디오 시퀀스의 적어도 하나의 이미지(15,100,102)를 코딩하고 디코딩하는 방법으로서 - 블록(13,14,16,98)은 상기 이미지(15,100,102)의 한 부분임 -,
    상기 코딩은,
    상기 이미지(15,100,102)의 적어도 하나의 텍스처 패턴 블록(14,16)을 선택하는 단계 - 상기 블록(14,16)은 상기 이미지(15,100,102)의 텍스처를 나타냄- 와,
    상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)을 정의하는 정보를 생성하는 단계와,
    이 정보를 디코더(2)로 송신될 비트 스트림으로 코딩하는 단계를 포함하고,
    상기 디코딩은,
    상기 비트 스트림으로부터 상기 이미지(15,100,102)를 재구축하는 단계(63)와,
    상기 비트 스트림 내에 포함된 상기 정보로부터 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)을 결정하는 단계(70)와,
    상기 결정된 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)을 메모리(10)에 저장하는 단계와,
    청구항 1 내지 3 중 어느 한 청구항에 따른 처리 방법을 수행하는 단계를 포함하는 것을 특징으로 하는 방법.
  13. 제12항에 있어서,
    상기 텍스처 패턴 블록(14,16)은 상기 이미지(15,100,102)의 다른 블록들(13,98)을 코딩하는 데에 사용된 양자화 인덱스(QP)보다 낮은 양자화 인덱스 (QP)로 코딩되는 것을 특징으로 하는 방법.
  14. 제13항에 있어서,
    상기 디코딩 단계들은 상기 이미지(15,100,102)의 텍스처들을 나타내고 더 낮은 양자화 인덱스(QP)로 코딩된 블록들을 선택하는 단계를 포함하는 것을 특징으로 하는 방법.
  15. 제12항에 있어서, 상기 이미지(15,100,102) 또는 각각의 이미지(15,100,102)는 H.264 표준 변환에 따라 코딩되고, 상기 텍스처 패턴 블록을 정의하는 정보는 H.264 표준 변환의 "SEI(Supplemental Enhancement Information)"라고 명명된 에어리어 내에 포함되는 것을 특징으로 하는 방법.
  16. 적어도 하나의 이미지(15,100,102), 상기 이미지의 한 부분인 블록(13,14,16,98), 상기 이미지(15,100,102)의 각각의 픽셀에 연관된 그레이 레벨을 처리하기 위한 전자 장치(2)로서,
    상기 이미지의 텍스처를 나타내는 적어도 하나의 텍스처 패턴 블록(14,16)을 저장하는 메모리(10) - 각각의 텍스처 패턴 블록(14,16)의 픽셀 그레이 레벨들은 미리 정의된 변환을 이용하여 주파수 계수들이 되도록 변환됨 - 와,
    상기 이미지(15,100,102)에서 현재 블록(13,98)을 선택하는 제1 선택 유닛(18)과,
    상기 미리 정의된 변환을 이용하여 상기 현재 블록(13,98)의 픽셀 그레이 레벨들을 주파수 계수들이 되게 변환하도록 적응된 적어도 하나의 변환 계산 유닛(32,40)과,
    통합 블록(24,26)을 확립할 수 있는 적어도 하나의 빌더(builder) 유닛(46) - 상기 통합 블록(24,26)의 정의된 자리에 위치된 각각의 주파수 계수는, 상기 현재 블록(13,98)의 주파수 계수가 기준에 부합할 때 상기 현재 블록(13,98)의 동일한 자리에 위치된 주파수 계수와 동일하거나, 또는 상기 현재 블록(13,98)의 주파수 계수가 상기 기준에 부합하지 않을 때 상기 메모리(10)에 저장된 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16) 중에서 텍스처 패턴 블록(14,16)의 동일한 자리에 위치되는 주파수 계수와 동일함 - 과,
    미리 정의된 함수에 따라 통합 블록(24,26)을 선택하기 위한 제2 선택 유닛(47)과,
    상기 미리 정의된 변환의 역변환을 이용하여 선택된 상기 통합 블록(24,26)의 주파수 계수들을 그레이 레벨들이 되게 변환하도록 적응된 적어도 하나의 역변환 계산 유닛(48)
    을 포함하고,
    상기 제1 선택 유닛(18)은 상기 이미지 또는 상기 이미지의 각 파트의 현재 블록(13,98)을 상기 선택된 통합 블록(24,26)으로 대체하도록 적응되는 것을 특징으로 하는
    전자 장치(2).
  17. 제16항에 있어서,
    비디오 시퀀스의 적어도 하나의 코딩된 이미지(15,100,102)를 나타내는 비트 스트림을 디코딩하도록 적응된 디코더(6) - 상기 비트 스트림은 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)을 정의하는 정보를 포함함 - 와,
    상기 비트 스트림에 포함된 정보로부터 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)과 상기 이미지(15,100,102)를 재구축하도록 적응된 재구축 유닛(8)
    을 포함하는 것을 특징으로 하는 전자 장치(2).
  18. 제17항에 있어서, 상기 재구축 유닛(8)은 더 낮은 양자화 인덱스로 코딩된 블록들을 텍스처 패턴 블록(14,16)으로서 분류하도록 적응되는 것을 특징으로 하는 전자 장치(2).
  19. 제17항에 있어서, 상기 이미지(15,100,102) 또는 각각의 이미지(15,100,102)는 H.264 표준 변환을 사용하여 코딩되고, 상기 재구축 유닛(8)은 상기 텍스처 패턴 블록(14,16) 또는 각각의 텍스처 패턴 블록(14,16)을 재구축하기 위해, H.264 표준 변환의 "SEI(Supplemental Enhancement Information)"라고 명명된 에어리어 내의 정보에 대해 검색하도록 적응되는 것을 특징으로 하는 전자 장치(2).
KR1020107003503A 2007-07-17 2008-07-15 이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치 KR101500781B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP07290890.8 2007-07-17
EP07290890A EP2018070A1 (en) 2007-07-17 2007-07-17 Method for processing images and the corresponding electronic device
PCT/EP2008/059250 WO2009010515A1 (en) 2007-07-17 2008-07-15 Method for processing images and the corresponding electronic device

Publications (2)

Publication Number Publication Date
KR20100046202A KR20100046202A (ko) 2010-05-06
KR101500781B1 true KR101500781B1 (ko) 2015-03-09

Family

ID=38831441

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107003503A KR101500781B1 (ko) 2007-07-17 2008-07-15 이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치

Country Status (8)

Country Link
US (1) US8285064B2 (ko)
EP (2) EP2018070A1 (ko)
JP (1) JP5194119B2 (ko)
KR (1) KR101500781B1 (ko)
CN (1) CN101779463B (ko)
AT (1) ATE548857T1 (ko)
BR (1) BRPI0814522A2 (ko)
WO (1) WO2009010515A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2268030A1 (fr) * 2009-06-22 2010-12-29 Thomson Licensing Codage d'image avec raffinement de la texture en utilisant des sous-régions représentatives
US8483500B2 (en) 2010-09-02 2013-07-09 Sony Corporation Run length coding with context model for image compression using sparse dictionaries
WO2012072402A1 (en) * 2010-11-29 2012-06-07 Thomson Licensing Method and device for reconstructing a self-similar textured region of an image
CN102595113B (zh) * 2011-01-13 2014-06-04 华为技术有限公司 一种变换系数块的扫描方法、装置和系统
US9491491B2 (en) * 2011-06-03 2016-11-08 Qualcomm Incorporated Run-mode based coefficient coding for video coding
TWI580264B (zh) * 2011-11-10 2017-04-21 Sony Corp Image processing apparatus and method
EP2782931B1 (en) 2011-11-23 2016-12-14 F. Hoffmann-La Roche AG Cd40l expressing mammalian cells and their use
WO2013187060A1 (ja) * 2012-06-12 2013-12-19 パナソニック株式会社 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
CN107431822B (zh) 2015-06-09 2019-11-29 华为技术有限公司 图像编解码方法和设备
KR20230101932A (ko) * 2016-04-29 2023-07-06 인텔렉추얼디스커버리 주식회사 영상 신호 부호화/복호화 방법 및 장치
AU2020400536A1 (en) * 2019-12-11 2022-06-16 Sony Group Corporation Image processing device, bit stream generation method, coefficient data generation method, and quantization coefficient generation method
EP4118823A1 (en) * 2020-03-12 2023-01-18 InterDigital VC Holdings France Method and apparatus for video encoding and decoding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0801506A2 (en) * 1996-04-10 1997-10-15 Eastman Kodak Company A method and apparatus for suppressing blocking artifacts in block-transform coded images
US7003170B1 (en) * 2002-09-20 2006-02-21 Pegasus Imaging Corporation Methods and apparatus for improving quality of block-transform coded images
US20060285598A1 (en) * 2005-06-17 2006-12-21 Jarno Tulkki Apparatuses, computer program product and method for digital image quality improvement

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69228983T2 (de) * 1991-12-18 1999-10-28 Koninkl Philips Electronics Nv System zum Übertragen und/oder Speichern von Signalen von texturierten Bildern
KR987001186A (ko) * 1995-10-18 1998-04-30 요트.게.아.롤페즈 영역기준 텍스쳐 코딩 방법과 디코딩 방법, 및 그 대응 시스템(Region-based Texture Coding and Decoding Method, and Corresponding Systems)
KR100207426B1 (ko) * 1996-05-08 1999-07-15 전주범 무늬의 크기와 방향성을 이용한 텍스쳐 분류 장치
JP3921015B2 (ja) * 1999-09-24 2007-05-30 富士通株式会社 画像解析装置及び方法並びにプログラム記録媒体
US6683979B1 (en) * 1999-12-10 2004-01-27 Silicon Graphics, Inc. Image data compression and decompression
US6584225B1 (en) * 2000-05-08 2003-06-24 Hewlett-Packard Development Company, L.P. Frequency domain halftoning
JP2002064709A (ja) * 2000-06-06 2002-02-28 Canon Inc 画像処理装置及びその方法とそのコンピュータプログラム及び記憶媒体
JP2002366968A (ja) * 2001-06-05 2002-12-20 Toshiba Corp 画像描画装置
CN1297148C (zh) * 2001-08-28 2007-01-24 株式会社Ntt都科摩 动画图像编码传送系统、动画图像编码传送方法、该系统和方法使用的适合的编码装置、译码装置、编码方法、译码方法以及程序
DE10310023A1 (de) * 2003-02-28 2004-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US7129954B2 (en) * 2003-03-07 2006-10-31 Kabushiki Kaisha Toshiba Apparatus and method for synthesizing multi-dimensional texture
WO2005122089A1 (ja) * 2004-06-09 2005-12-22 Matsushita Electric Industrial Co., Ltd. 画像処理方法および画像処理装置、画像拡大方法、サーバークライアントシステム、並びに表示端末
US7995649B2 (en) * 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0801506A2 (en) * 1996-04-10 1997-10-15 Eastman Kodak Company A method and apparatus for suppressing blocking artifacts in block-transform coded images
US7003170B1 (en) * 2002-09-20 2006-02-21 Pegasus Imaging Corporation Methods and apparatus for improving quality of block-transform coded images
US20060285598A1 (en) * 2005-06-17 2006-12-21 Jarno Tulkki Apparatuses, computer program product and method for digital image quality improvement

Also Published As

Publication number Publication date
CN101779463B (zh) 2012-05-23
BRPI0814522A2 (pt) 2015-02-03
US8285064B2 (en) 2012-10-09
JP2010534015A (ja) 2010-10-28
EP2168382A1 (en) 2010-03-31
US20100119169A1 (en) 2010-05-13
KR20100046202A (ko) 2010-05-06
ATE548857T1 (de) 2012-03-15
EP2168382B1 (en) 2012-03-07
EP2018070A1 (en) 2009-01-21
CN101779463A (zh) 2010-07-14
JP5194119B2 (ja) 2013-05-08
WO2009010515A1 (en) 2009-01-22

Similar Documents

Publication Publication Date Title
KR101500781B1 (ko) 이미지들을 처리하기 위한 방법 및 그 대응하는 전자 장치
JP3369573B2 (ja) 画像予測復号化方法及び装置
EP1528813B1 (en) Improved video coding using adaptive coding of block parameters for coded/uncoded blocks
KR101365567B1 (ko) 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치
EP1059812B1 (en) Methods and apparatus for context-based inter/intra coding mode selection
KR101460608B1 (ko) 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치
JP5646641B2 (ja) 画像のブロックを符号化する方法及び画像のブロックを再構成する方法
KR101717510B1 (ko) 화상 예측 부호화 장치, 방법 및 프로그램, 화상 예측 복호 장치, 방법 및 프로그램, 및 부호화·복호 시스템 및 방법
US7336711B2 (en) Image encoding method, image decoding method, image encoder, image decode, program, computer data signal, and image transmission system
KR101354151B1 (ko) 영상 변환 방법 및 장치, 역변환 방법 및 장치
MXPA06002496A (es) Codificacion y descodificacion de plano de bit para estado de prediccion ac e informacion de tipo de codificacion de campo/marco de macrobloque.
KR20090095012A (ko) 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치
CN101009839A (zh) 基于正交变换和向量量化的视频编码/解码的方法和设备
KR101217050B1 (ko) 코딩 및 디코딩 방법 및 장치
KR101375667B1 (ko) 영상의 부호화, 복호화 방법 및 장치
KR100856392B1 (ko) 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
KR20080086766A (ko) 픽셀 단위의 컨텍스트 모델을 이용한 영상의 부호화,복호화 방법 및 장치
KR20170114598A (ko) 적응적 색상 순서에 따른 색상 성분 간 예측을 이용한 동영상 부호화 및 복호화 방법 및 장치
KR20090090151A (ko) 영상 복구를 이용한 인터 예측 부호화, 복호화 방법 및장치
KR101529903B1 (ko) 블록기반 깊이정보 맵의 코딩 방법과 장치, 및 이를 이용한 3차원 비디오 코딩 방법
WO2014084674A2 (ko) 잔차 변환을 이용한 인트라 예측 방법 및 장치
KR101668133B1 (ko) 화상 데이터의 블록을 예측하는 방법, 이 방법을 실행하는 복호 장치 및 부호화 장치
US8532179B2 (en) Method and device for optimizing the compression of a video stream
JP2002335532A (ja) 画像予測復号化方法及び画像予測符号化装置
JP2004215296A (ja) 画像予測符号化方法及び装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180219

Year of fee payment: 4