KR100731708B1 - 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체 - Google Patents

데이터 처리 장치와 데이터 처리 방법, 및 기록 매체 Download PDF

Info

Publication number
KR100731708B1
KR100731708B1 KR1020027000250A KR20027000250A KR100731708B1 KR 100731708 B1 KR100731708 B1 KR 100731708B1 KR 1020027000250 A KR1020027000250 A KR 1020027000250A KR 20027000250 A KR20027000250 A KR 20027000250A KR 100731708 B1 KR100731708 B1 KR 100731708B1
Authority
KR
South Korea
Prior art keywords
data
tap
class
teacher
circuit
Prior art date
Application number
KR1020027000250A
Other languages
English (en)
Other versions
KR20020030078A (ko
Inventor
데쯔지로 곤도
도시히꼬 하마마쯔
히데오 나까야
다께하루 니시까따
히데끼 오쯔까
다께시 구니히로
다까후미 모리후지
마사시 우찌다
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000135357A external-priority patent/JP4752088B2/ja
Priority claimed from JP2000135356A external-priority patent/JP4517448B2/ja
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020030078A publication Critical patent/KR20020030078A/ko
Application granted granted Critical
Publication of KR100731708B1 publication Critical patent/KR100731708B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets

Abstract

JPEG 부호화된 데이터는 엔트로피 복호됨으로써, 양자화된 DCT 계수(양자화 DCT 계수)가 되고, 예측 탭 추출 회로(41) 및 클래스 탭 추출 회로(42)에 공급된다. 예측 탭 추출 회로(41)와 클래스 탭 추출 회로(42)는 양자화 DCT 계수로부터 필요한 것을 추출하고, 예측 탭과 클래스 탭을 각각 구성한다. 클래스 분류 회로(43)는 클래스 탭에 기초하여 클래스 분류를 행하고, 계수 테이블 기억부(44)는 클래스 분류의 결과 얻어지는 클래스에 대응하는 탭 계수를 곱의 합 연산 회로(45)에 공급한다. 곱의 합 연산 회로(45)는 탭 계수와 클래스 탭을 이용하여, 선형 예측 연산을 행하고 복호된 화상 데이터를 얻는다.
변환 데이터, 탭 계수, 주목 처리 데이터, 클래스 탭

Description

데이터 처리 장치와 데이터 처리 방법, 및 기록 매체{DATA PROCESSING DEVICE AND DATA PROCESSING METHOD, AND RECORDED MEDIUM}
본 발명은 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체에 관한 것으로, 특히 예를 들면 불가역 압축된 화상 등을 복호하는 경우 등에 이용하기에 적합한 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체에 관한 것이다.
예를 들면, 디지털 화상 데이터는 그 데이터량이 많기 때문에, 그대로 기록이나 전송을 행하기 위해서는 대용량의 기록 매체나 전송 매체가 필요하게 된다. 그래서, 일반적으로는 화상 데이터를 압축 부호화함으로써, 그 데이터량을 삭감하고나서 기록이나 전송이 행해진다.
화상을 압축 부호화하는 방식으로는, 예를 들면 정지 화상의 압축 부호화 방식인 JPEG(Joint Photographic Experts Group) 방식이나, 동화상의 압축 부호화 방식인 MPEG(Moving Picture Experts Group) 방식 등이 있다.
예를 들면, JPEG 방식에 의한 화상 데이터의 부호화/복호는 도 1에 도시한 바와 같이 행해진다.
즉, 도 1A는 종래의 JPEG 부호화 장치(5)의 일례의 구성을 나타내고 있다.
부호화 대상의 화상 데이터는 블록화 회로(1)에 입력되고, 블록화 회로(1)는 거기에 입력되는 화상 데이터를 8×8 화소의 64 화소로 이루어지는 블록으로 분할한다. 블록화 회로(1)에서 얻어지는 각 블록은 이산 코사인 변환(DCT : Discrete Cosine Transform) 회로(2)에 공급된다. DCT 회로(2)는 블록화 회로(1)로부터의 블럭에 대하여, DCT 처리를 실시하여, 하나의 직류(DC : Direct Current) 성분과, 수평 방향 및 수직 방향에 대한 63개의 주파수(AC : Alternating Current) 성분의 합계 64개의 DCT 계수로 변환한다. 각 블록마다의 64개의 DCT 계수는, DCT 회로(2)로부터 양자화 회로(3)로 공급된다.
양자화 회로(3)는 소정의 양자화 테이블에 따라 DCT 회로(2)로부터의 DCT 계수를 양자화하고, 그 양자화 결과(이하, 적절하게 양자화 DCT 계수라고 함)를 양자화에 이용한 양자화 테이블과 함께 엔트로피 부호화 회로(4)에 공급한다.
여기서, 도 1B는 양자화 회로(3)에서 이용되는 양자화 테이블의 예를 나타내고 있다. 양자화 테이블에는 일반적으로 인간의 시각 특성을 고려하여, 중요성이 높은 저주파수의 DCT 계수는 미세하게 양자화하고, 중요성이 낮은 고주파수의 DCT 계수는 조악하게 양자화하는 양자화 단계가 설정되어 있고, 이에 따라, 화상의 화질의 열화를 억제하여, 효율적인 압축이 행해지게 된다.
엔트로피 부호화 회로(4)는 양자화 회로(3)로부터의 양자화 DCT 계수에 대하여, 예를 들면 허프만 부호화 등의 엔트로피 부호화 처리를 실시하여, 양자화 회로(3)로부터의 양자화 테이블을 부가하고, 그 결과 얻어지는 부호화 데이터를 JPEG 부호화 결과로서 출력한다.
이어서, 도 1C는, 도 1A의 JPEG 부호화 장치(5)가 출력되는 부호화 데이터를 복호하는 종래의 JPEG 복호 장치(10)의 일례의 구성을 나타내고 있다.
부호화 데이터는 엔트로피 복호 회로(11)에 입력된다. 엔트로피 복호 회로(11)는 부호화 데이터를 엔트로피 부호화된 양자화 DCT 계수와 양자화 테이블로 분리한다. 또한, 엔트로피 복호 회로(11)는 엔트로피 부호화된 양자화 DCT 계수를 엔트로피 복호하고, 그 결과 얻어지는 양자화 DCT 계수를 양자화 테이블과 함께 역양자화 회로(12)에 공급한다. 역양자화 회로(12)는 엔트로피 복호 회로(11)로부터의 양자화 DCT 계수를 마찬가지로 엔트로피 복호 회로(11)로부터의 양자화 테이블에 따라 역양자화하고, 그 결과 얻어지는 DCT 계수를 역 DCT 회로(13)에 공급한다. 역 DCT 회로(13)는 역양자화 회로(12)로부터의 DCT 계수에 역 DCT 처리를 실시하고, 그 결과 얻어지는 8×8 화소의 복호 블록을 블록 분해 회로(14)에 공급한다. 블록 분해 회로(14)는 역 DCT 회로(13)로부터의 복호 블록의 블록화를 분해시킴으로써, 복호 화상을 얻어 출력한다.
도 1A의 JPEG 부호화 장치(5)에서는 그 양자화 회로(3)에 있어서, 블록의 양자화에 이용하는 양자화 테이블의 양자화 단계를 크게 함으로써, 부호화 데이터의 데이터량을 삭감시킬 수 있다. 즉, 고압축을 실현할 수 있다.
그러나, 양자화 단계를 크게 하면, 소위 양자화 오차도 커지기 때문에, 도 1C의 JPEG 복호 장치(10)에서 얻어지는 복호 화상의 화질이 열화한다. 즉, 복호 화상에는, 흐려짐이나 블록 변형, 모스키토 노이즈 등이 현저히 나타난다.
따라서, 부호화 데이터의 데이터량을 삭감하면서, 복호 화상의 화질을 열화시키지 않도록 하기 위해서는, 혹은 부호화 데이터의 데이터량을 유지하여, 복호 화상의 화질을 향상시키기 위해서는 JPEG 복호한 후에 어떤 화질 향상을 위한 처리를 행할 필요가 있다.
그러나, JPEG 복호한 후에 화질 향상을 위한 처리를 행하는 것은 처리가 번잡해지고, 최종적으로 복호 화상을 얻을 수 있을 때까지의 시간도 길어진다.
본 발명은 이러한 상황에 감안하여 이루어진 것으로, JPEG 부호화된 화상 등으로부터, 효율적으로 화질이 좋은 복호 화상을 얻을 수 있도록 하는 것이다.
본 발명에서는, 학습을 행함으로써 구해진 탭 계수를 취득하고, 그 탭 계수와 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호한다.
즉, 본 발명에 따른 데이터 처리 장치는 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함 으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하고, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행함으로써, 탭 계수를 구한다.
즉, 본 발명에 따른 데이터 처리 장치는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 학습을 행함으로써 구해진 탭 계수를 취득하고, 그 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는다.
즉, 본 발명에 따른 데이터 처리 장치는 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 교사가 되는 교사 데이터에 소정의 처리에 기초한 처리를 실시하고, 그 결과 얻어지는 준교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성한다. 그리고, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차를 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구한다.
즉, 본 발명에 따른 데이터 처리 장치는, 교사가 되는 교사 데이터에 소정의 처리에 기초하는 처리를 실시하고, 준교사 데이터를 얻는 준교사 데이터 생성 수단과, 준교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 수단과, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 교사가 되는 교사 데이터에 소정의 처리에 기초하는 처리를 실시하고, 준교사 데이터를 얻는 준교사 데이터 생성 단계와, 준교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 단계와, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는, 교사가 되는 교사 데이터에 소정의 처리 에 기초하는 처리를 실시하고, 준교사 데이터를 얻는 준교사 데이터 생성 단계와, 준교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 단계와, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 부가 정보에 기초하여 원래의 데이터 중 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하고, 학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중 주목 데이터의 클래스에 대응하는 탭 계수를 취득한다. 그리고, 변환 데이터 및 주목 데이터의 클래스에 대응하는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호한다.
즉, 본 발명 발명에 따른 데이터 처리 장치는, 부가 정보에 기초하여 원래의 데이터 중 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 수단과, 학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 취득 수단과, 변환 데이터 및 주목 데이터의 클래스에 대응하는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 부가 정보에 기초하여 원래의 데 이터 중 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와, 학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중, 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 취득 단계와, 변환 데이터 및 주목 데이터의 클래스에 대응하는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 부가 정보에 기초하여, 원래의 데이터 중 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와, 학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 취득 단계와, 변환 데이터 및 주목 데이터의 클래스에 대응하는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 복호 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하여, 학생 데이터를 생성할 때에 이용한 소정의 부가 정보에 기초하여, 교사 데이터 중 주목하고 있는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류한다. 그리고, 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 탭 계수를 구한다.
즉, 본 발명에 따른 데이터 처리 장치는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과, 생성 수단에 있어서 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 교사 데이터 중 주목하고 있는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 수단과, 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 클래스마다의 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써 학생이 되는 학생 데이터를 생성하는 생성 단계와, 생성 단계에 있어서 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 교사 데이터 중 주목하고 있는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와, 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 클래스마다의 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와, 생성 단계에 있어서 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 교사 데이터 중 주목하고 있는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와, 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 주목 처리 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 변환 데이터를 적어도 주목 처리 데이터에 대응하는 블럭 이외의 블록으로부터 추출하여 클래스 탭으로 하고, 그 클래스 탭에 기초하여 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하여, 주목 처리 데이터의 클래스의 탭 계수 및 변환 데이터를 행하고, 소정의 예측 연산을 행함으로써, 주목 처리 데이터의 예측값을 구한다.
즉, 본 발명에 따른 데이터 처리 장치는, 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과, 주목하고 있는 처리 데이터인 주목 처리 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 변환 데이터를 적어도 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과, 클래스 탭에 기초하여 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단과, 주목 처리 데이터의 클래스의 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 주목 처리 데이터의 예측값을 구하는 연산 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 학습을 행함으로써 구해진 탭 계 수를 취득하는 취득 단계와, 주목하고 있는 처리 데이터인 주목 처리 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 변환 데이터를 적어도 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와, 클래스 탭에 기초하여, 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와, 주목 처리 데이터의 클래스의 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 주목 처리 데이터의 예측값을 구하는 연산 단계를 포함하는 것을 특징으로 하다.
또한, 본 발명에 따른 기록 매체는, 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 주목하고 있는 처리 데이터인 주목 처리 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 변환 데이터를 적어도 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와, 클래스 탭에 기초하여 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와, 주목 처리 데이터의 클래스의 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 주목 처리 데이터의 예측값을 구하는 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 학생 데이터를 적어도 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로 하고, 또한 그 클래스 탭에 기초하여 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행한다. 그리고, 클래스마다 의 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 클래스마다 구한다.
즉, 본 발명에 따른 데이터 처리 장치는 블록 단위의 변환 데이터를 학습할 때의 학생이 되는 학생 데이터로서 생성하는 생성 수단과, 처리 데이터를 학습 시의 교사가 되는 교사 데이터로서, 주목하고 있는 교사 데이터인 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 학생 데이터를 적어도 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과, 클래스 탭에 기초하여 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단과, 클래스마다의 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 클래스마다 구하는 학습 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 블록 단위의 변환 데이터를 학습 시의 학생이 되는 학생 데이터로서 생성하는 생성 단계와, 처리 데이터를 학습 시의 교사가 되는 교사 데이터로서, 주목하고 있는 교사 데이터인 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 학생 데이터를 적어도 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와, 클래스 탭에 기초하여 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와, 클래스마다의 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 클래스마다 구하는 학습 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는, 블럭 단위의 변환 데이터를 학습 시의 학생이 되는 학생 데이터로서 생성하는 생성 단계와, 처리 데이터를 학습 시의 교사가 되는 교사 데이터로서 주목하고 있는 교사 데이터인 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 학생 데이터를 적어도 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와, 클래스 탭에 기초하여, 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와, 클래스마다의 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 클래스마다 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 변환 데이터를, 적어도 그 주목 데이터 블록 이외의 데이터 블록에 대응하는 변환 블록으로부터 추출하여 예측 탭으로 하고, 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써 변환 데이터를 원래의 데이터로 복호한다.
즉, 본 발명에 따른 데이터 처리 장치는, 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과, 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데 이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 변환 데이터를, 적어도 그 주목 데이터 블록 이외의 데이터 블록에 대응하는 변환 데이터의 블록인 변환 블록으로부터 추출하고, 예측 탭으로서 출력하는 예측 탭 추출 수단과, 탭 계수 및 예측 탭을 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 연산 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 변환 데이터를, 적어도 그 주목 데이터 블록 이외의 데이터 블록에 대응하는 변환 데이터의 블록인 변환 블록으로부터 추출하고, 예측 탭으로서 출력하는 예측 탭 추출 단계와, 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써 변환 데이터를 원래의 데이터로 복호하는 연산 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와, 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 변환 데이터를, 적어도 그 주목 데이터 블록 이외의 데이터 블록에 대응하는 변환 데이터의 블록인 변환 블록으로부터 추출하고, 예측 탭으로서 출력하는 예측 탭 추출 단계와, 탭 계수 및 예측 탭을 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하는 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하고, 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 학생 데이터를, 적어도 그 주목 교사 블록 이외의 교사 블록에 대응하는 학생 블록으로부터 추출하여 예측 탭으로 하고, 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여 탭 계수를 구한다.
즉, 본 발명에 따른 데이터 처리 장치는, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과, 교사 데이터의 블록인 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 학생 데이터를, 적어도 그 주목 교사 블록 이외의 교사 블록에 대응하는 학생 데이터의 블록인 학생 블록으로부터 추출하고, 예측 탭으로서 출력하는 예측 탭 추출 수단과, 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와, 교사 데이터의 블록인 교사 블럭 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 학생 데이터를, 적어도 그 주목 교사 블록 이외의 교사 블록에 대응하는 학생 데이터의 블록인 학생 블록으로부 터 추출하고, 예측 탭으로서 출력하는 예측 탭 추출 단계와, 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써 학생이 되는 학생 데이터를 생성하는 생성 단계와, 교사 데이터의 블록인 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 학생 데이터를, 적어도 그 주목 교사 블록 이외의 교사 블록에 대응하는 학생 데이터의 블록인 학생 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 단계와, 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
본 발명에서는 추출 패턴의 학습용의 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 제2 데이터에 대하여 소정의 위치 관계에 있는 제1 데이터와 소정의 위치에 있는 제2 데이터와의 상관이 소정의 위치 관계마다 구해지고, 그 상관에 기초하여 제2 데이터를 얻기 위한 예측 연산에 이용하는 예측 탭으로 하는 제1 데이터의 추출 패턴을 설정한다.
즉, 본 발명에 따른 데이터 처리 장치는 추출 패턴의 학습용의 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 제2 데이터에 대하여 소정의 위치 관계에 있는 제1 데이터와, 소정의 위치에 있는 제2 데이터와의 상관을 소정의 위치 관계마다 구하는 상관 연산 수단과, 상관에 기초하여 제2 데이터를 얻기 위한 예측 연산에 이용하는 예측 탭으로 하는 제1 데이터의 추출 패턴을 설정하는 설정 수단을 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 데이터 처리 방법은, 추출 패턴의 학습용의 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 제2 데이터에 대하여 소정의 위치 관계에 있는 제1 데이터와, 소정의 위치에 있는 제2 데이터와의 상관을 소정의 위치 관계마다 구하는 상관 연산 단계와, 상관에 기초하여 제2 데이터를 얻기 위한 예측 연산에 이용하는 예측 탭으로 하는 제1 데이터의 추출 패턴을 설정하는 설정 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 기록 매체는, 추출 패턴의 학습용의 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 제2 데이터에 대하여 소정의 위치 관계에 있는 제1 데이터와, 소정의 위치에 있는 제2 데이터와의 상관을 소정의 위치 관계마다 구하는 상관 연산 단계와, 상관에 기초하여 제2 데이터를 얻기 위한 예측 연산에 이용하는 예측 탭으로 하는 제1 데이터의 추출 패턴을 설정하는 설정 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 한다.
도 1A, 도 1B 및 도 1C는 종래의 JPEG 부호화/복호를 설명하기 위한 도면이다.
도 2는 본 발명을 적용한 화상 전송 시스템의 구성예를 나타내는 도면이다.
도 3은 상기 화상 전송 시스템에 있어서의 디코더의 구성예를 나타내는 블록도이다.
도 4는 상기 디코더의 처리를 설명하는 흐름도이다.
도 5는 상기 디코더에서의 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 6은 상기 디코더에서의 예측 탭과 클래스 탭의 예를 설명하는 도면이다.
도 7은 상기 계수 변환 회로에서의 클래스 분류 회로의 구성예를 나타내는 블록도이다.
도 8은 상기 계수 변환 회로에서의 전력 연산 회로의 처리를 설명하기 위한 도면이다.
도 9는 상기 계수 변환 회로의 처리를 설명하는 흐름도이다.
도 10은 상기 계수 변환 회로의 처리를 보다 상세하게 설명하는 흐름도이다.
도 11은 상기 계수 변환 회로의 탭 계수를 학습하는 학습 장치의 구성예를 나타내는 블록도이다.
도 12는 상기 학습 장치의 처리를 설명하는 흐름도이다.
도 13은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 14는 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 15는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 16은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 17은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 18은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 19는 상기 화상 전송 시스템에 있어서의 인코더의 구성예를 나타내는 블록도이다.
도 20은 MPEG 디코더의 구성예를 나타내는 블록도이다.
도 21은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 22는 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 23은 상기 화상 전송 시스템에 본 발명을 적용한 다른 실시예에 있어서의 디코더의 구성예를 나타내는 블록도이다.
도 24는 상기 디코더에서 8×8의 DCT 계수가 16×16 화소로 복호되는 모습을 나타내는 도면이다.
도 25는 상기 디코더의 처리를 설명하는 흐름도이다.
도 26은 상기 디코더에서의 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 27은 상기 계수 변환 회로에서의 클래스 분류 회로의 구성예를 나타내는 블록도이다.
도 28은 상기 계수 변환 회로의 처리를 설명하는 흐름도이다.
도 29는 상기 계수 변환 회로에서의 처리의 상세한 내용을 설명하는 흐름도이다.
도 30은 상기 계수 변환 회로의 탭 계수를 학습하는 학습 장치의 구성예를 나타내는 블록도이다.
도 31은 상기 학습 장치의 처리를 설명하는 흐름도이다.
도 32는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 33은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 34는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 35는 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 36은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 37은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 38은 상기 인코더의 구성예를 나타내는 블록도이다.
도 39는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 40은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 41A 및 도 41B는 시간 해상도를 향상시킨 화상을 나타내는 도면이다.
도 42A 및 도 42B는 시간 해상도를 향상시킨 화상을 나타내는 도면이다.
도 43은 2 이상의 프레임의 DCT 계수로부터 클래스 탭 및 예측 탭을 구성하는 것을 나타내는 도면이다.
도 44는 상기 화상 전송 시스템에 본 발명을 적용한 다른 실시예에 있어서의 디코더의 구성예를 나타내는 블록도이다.
도 45는 상기 디코더의 처리를 설명하는 흐름도이다.
도 46은 상기 디코더에서의 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 47은 상기 계수 변환 회로에서의 클래스 분류 회로의 구성예를 나타내는 블록도이다.
도 48은 상기 계수 변환 회로의 처리를 설명하는 흐름도이다.
도 49는 상기 계수 변환 회로의 처리의 보다 상세한 내용을 설명하는 흐름도이다.
도 50은 상기 계수 변환 회로의 탭 계수를 학습하는 학습 장치의 구성예를 나타내는 블록도이다.
도 51은 상기 학습 장치의 처리를 설명하는 흐름도이다.
도 52는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 53은 상기 학습 장치의 구성예를 나타내는 블록도이다.
도 54는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 55는 본 발명을 적용한 학습 장치의 구성예를 나타내는 블록도이다.
도 56은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 57은 상기 학습 장치의 구성예를 나타내는 블록도이다.
도 58은 상기 화상 전송 시스템에 있어서의 인코더의 구성예를 나타내는 블록도이다.
도 59는 상기 화상 전송 시스템에 있어서의 MPEG 디코더의 구성예를 나타내는 블록도이다.
도 60은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 61은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 62는 상기 화상 전송 시스템에 본 발명을 적용한 다른 실시예에 있어서의 디코더의 구성예를 나타내는 블록도이다.
도 63은 상기 디코더의 처리를 설명하는 흐름도이다.
도 64는 상기 디코더에서의 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 65A 및 도 65B는 상기 계수 변환 회로에서의 클래스 탭의 예를 설명하는 도면이다.
도 66은 상기 계수 변환 회로에서의 클래스 분류 회로의 구성예를 나타내는 블록도이다.
도 67은 상기 계수 변환 회로의 처리를 설명하는 흐름도이다.
도 68은 상기 계수 변환 회로의 처리를 보다 상세하게 내용을 설명하는 흐름도이다.
도 69는 클래스 분류의 방법을 설명하기 위한 도면이다.
도 70은 상기 클래스 분류 회로의 처리를 설명하는 흐름도이다.
도 71은 클래스 분류의 다른 방법을 설명하기 위한 도면이다.
도 72는 상기 클래스 분류 회로의 다른 구성예를 나타내는 블록도이다.
도 73은 상기 클래스 분류 회로의 처리를 설명하는 흐름도이다.
도 74는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 75는 상기 계수 변환 회로의 탭 계수를 학습하는 학습 장치의 구성예를 나타내는 블록도이다.
도 76은 상기 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 77은 상기 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 78은 상기 화상 전송 시스템에 본 발명을 적용한 다른 실시예에 있어서의 디코더의 구성예를 나타내는 블록도이다.
도 79는 상기 디코더의 처리를 설명하는 흐름도이다.
도 80은 상기 디코더에서의 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 81은 상기 계수 변환 회로에서의 클래스 분류 회로의 구성예를 나타내는 블록도이다.
도 82는 상기 계수 변환 회로의 처리를 설명하는 흐름도이다.
도 83은 상기 계수 변환 회로의 처리를 보다 상세하게 내용을 설명하는 흐름도이다.
도 84는 상기 계수 변환 회로의 탭 계수를 학습하는 탭 계수 학습 장치의 구성예를 나타내는 블록도이다.
도 85는 상기 탭 계수 학습 장치의 처리를 설명하는 흐름도이다.
도 86은 패턴 정보를 학습하는 패턴 학습 장치의 구성예를 나타내는 블록도이다.
도 87A, 도 87B 및 도 87C는 상기 패턴 학습 장치에서의 가산 회로의 처리를 설명하기 위한 도면이다.
도 88은 상기 패턴 학습 장치의 처리를 설명하는 흐름도이다.
도 89는 상기 계수 변환 회로의 구성예를 나타내는 블록도이다.
도 90은 상기 탭 계수 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 91은 상기 패턴 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 92는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 93은 상기 탭 계수 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 94는 상기 패턴 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 95A, 도 95B 및 도 95C는 상기 패턴 학습 장치에서의 가산 회로의 처리를 설명하기 위한 도면이다.
도 96은 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 97은 상기 탭 계수 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 98은 상기 패턴 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 99는 상기 계수 변환 회로의 다른 구성예를 나타내는 블록도이다.
도 100은 상기 탭 계수 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 101은 상기 패턴 학습 장치의 다른 구성예를 나타내는 블록도이다.
도 102는 본 발명을 적용한 컴퓨터의 일 실시예의 구성예를 나타내는 블록도이다.
이하, 본 발명을 실시하기 위한 최량의 형태에 대하여 도면을 참조하면서 상세히 설명한다.
본 발명은, 예를 들면 도 2에 도시한 바와 같은 구성의 화상 전송 시스템(20)에 적용된다.
상기 화상 전송 시스템(20)에 있어서, 전송해야 할 화상 데이터는 인코더(21)에 공급되도록 되어 있다. 인코더(21)는, 거기에 공급되는 화상 데이터를 예를 들면 JPEG 부호화하고, 부호화 데이터로 한다. 즉, 인코더(21)는, 예를 들면 상술된 도 1A에 나타낸 JPEG 부호화 장치(5)와 마찬가지로 구성되어 있고, 화상 데이터를 JPEG 부호화한다. 인코더(21)가 JPEG 부호화를 행함으로써 얻어지는 부호화 데이터는, 예를 들면 반도체 메모리, 광 자기 디스크, 자기 디스크, 광 디스크, 자기 테이프, 상 변화 디스크등을 포함하는 기록 매체(23)에 기록되거나, 혹은 예를 들면, 지상파, 위성 회선, CATV(Cable Television)망, 인터넷, 공중 회선등을 포함하는 전송 매체(24)를 통해 전송된다.
디코더(22)는, 기록 매체(23) 또는 전송 매체(24)를 통해 제공되는 부호화 데이터를 수신하여, 원래 화상 데이터로 복호한다. 이 복호된 화상 데이터는, 예를 들면 도시하지 않은 모니터에 공급되어 표시된다.
디코더(22)는 도 3에 도시된 바와 같이 엔트로피 복호 회로(31), 계수 변환 회로(32) 및 블록 분해 회로(33)를 포함한다.
부호화 데이터는 엔트로피 복호 회로(31)에 공급되도록 이루어져 있다. 엔트로피 복호 회로(31)는 부호화 데이터를 엔트로피 복호하여, 그 결과 얻어지는 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(32)에 공급한다. 또, 부호화 데이터에는 도 1C의 엔트로피 복호 회로(11)에서 설명한 경우와 마찬가지로, 엔트로피 부호화된 양자화 DCT 계수 외에 양자화 테이블도 포함되지만, 이 양자화 테이블은 후술한 바와 같이, 필요에 따라 양자화 DCT 계수의 복호에 이용할 수 있다.
계수 변환 회로(32)는 엔트로피 복호 회로(31)로부터의 양자화 DCT 계수 Q 와, 후술하는 학습을 행함으로써 구해지는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 블록마다의 양자화 DCT 계수를 8×8 화소의 원래 블록으로 복호한다.
블록 분해 회로(33)는 계수 변환 회로(32)에 있어서 얻어진, 복호된 블록(복호 블록)의 블록화를 분해시킴으로써, 복호 화상을 얻어 출력한다.
이어서, 도 4의 흐름도를 참조하여, 도 3의 디코더(22)의 처리에 대하여 설명한다.
부호화 데이터는, 엔트로피 복호 회로(31)에 순차 공급되고, 단계 S1에서 엔트로피 복호 회로(31)는 부호화 데이터를 엔트로피 복호하고, 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(32)에 공급한다. 계수 변환 회로(32)는 단계 S2에서, 엔트로피 복호 회로(31)로부터의 블록마다의 양자화 DCT 계수 Q를, 탭 계수를 이용한 예측 연산을 행함으로써, 블록마다의 화소값으로 복호하고, 블록 분해 회로(33)로 공급한다. 블록 분해 회로(33)는 단계 S3에서 계수 변환 회로(32)로부터의 화소값의 블록(복호 블록)의 블록화를 분해하는 블록 분해를 행하고, 그 결과 얻어지는 복호 화상을 출력하여, 처리를 종료한다.
이어서, 도 3의 계수 변환 회로(32)에서는, 예를 들면 클래스 분류 적응 처리를 이용하여, 양자화 DCT 계수를 화소값으로 복호할 수 있다.
클래스 분류 적응 처리는 클래스 분류 처리와 적응 처리로 이루어지며, 클래스 분류 처리에 의해 데이터를 그 성질에 기초하여 클래스 분리하고, 각 클래스마다 적응 처리를 실시하는 것으로서, 적응 처리는 이하와 같은 수법을 말하는 것이다.
즉, 적응 처리에서는, 예를 들면 양자화 DCT 계수와 소정의 탭 계수와의 선형 결합에 의해 원래의 화소의 예측값을 구함으로써, 양자화 DCT 계수가 원래의 화소값으로 복호된다.
구체적으로는, 예를 들면 지금 임의의 화상을 교사 데이터로 함과 함께, 그 화상을 블록 단위로 DCT 처리하고, 또한 양자화하여 얻어지는 양자화 DCT 계수를 학생 데이터로 하여, 교사 데이터인 화소의 화소값 y의 예측값 E[y]를 몇 개의 양자화 DCT 계수 x1, x2, …의 집합과, 소정의 탭 계수 w1, w2, …의 선형 결합에 의해 규정되는 선형 1차 결합 모델에 의해 구해지는 것을 상정한다. 이 경우, 예측값 E[y]는 다음 수학식 1로 나타낼 수 있다.
Figure 112002000485227-pct00001
수학식 1을 일반화하기 위해, 탭 계수 wj의 집합으로 이루어지는 행렬 W, 학생 데이터 xij의 집합으로 이루어지는 행렬 X 및 예측값 E[yj]의 집합으로 이루어지는 행렬 Y'을,
Figure 112002000485227-pct00002
Figure 112002000485227-pct00003
Figure 112002000485227-pct00004
로 정의하면, 다음과 같은 관측 방정식(2)이 성립한다.
Figure 112002000485227-pct00005
여기서, 행렬 X의 성분 xij는 i 건째의 학생 데이터의 집합(i 건째의 교사 데이터 yi의 예측에 이용하는 학생 데이터의 집합) 중 j 번째의 학생 데이터를 의미하고, 행렬 W의 성분 wj는 학생 데이터의 집합 중 j 번째의 학생 데이터와의 곱이 연산되는 탭 계수를 나타낸다. 또한, yi는 i 건째의 교사 데이터를 나타내며, 따라서 E[yi]는 i 건째의 교사 데이터의 예측값을 나타낸다. 또, 수학식 1의 좌변에서의 y는 행렬 Y의 성분 yi의 서픽스 i를 생략한 것이고, 또한 수학식 1의 우변에서의 x1, x2, …도 행렬 X의 성분 xij의 서픽스 i를 생략한 것이다.
그리고, 이 관측 방정식에 최소 제곱법을 적용하여, 원래의 화소값 y에 가까운 예측값 E[y]를 구하는 것을 상정한다. 이 경우, 교사 데이터가 되는 참(眞)된 화소값 y의 집합으로 이루어지는 행렬 Y 및 화소값 y에 대한 예측값 E[y]의 잔차 e의 집합으로 이루어지는 행렬 E를,
Figure 112002000485227-pct00006
Figure 112002000485227-pct00007
로 정의하면, 수학식 2로부터 다음과 같은 잔차 방정식(3)이 성립한다.
Figure 112002000485227-pct00008
이 경우, 원래의 화소값 y에 가까운 예측값 E [y]를 구하기 위한 탭 계수 wj 는, 제곱 오차
Figure 112002000485227-pct00009
를 최소로 함으로써 구할 수 있다.
따라서, 상술된 제곱 오차를 탭 계수 wj로 미분한 것이 0이 되는 경우, 즉 다음 수학식 4를 충족시키는 탭 계수 wj가 원래의 화소값 y에 가까운 예측값 E[y]를 구하기 위한 최적의 값이 된다.
Figure 112002000485227-pct00010
그래서, 우선 수학식 3을 탭 계수 wj로 미분함으로써, 다음 수학식 5가 성립한다.
Figure 112002000485227-pct00011
수학식 4 및 수학식 5로부터 수학식 6을 얻을 수 있다.
Figure 112002000485227-pct00012
또한, 수학식 3의 잔차 방정식에서의 학생 데이터 xij, 탭 계수 wj, 교사 데이터 yi 및 잔차 ei의 관계를 고려하면, 수학식 6으로부터 다음과 같은 정규 방정식(7)을 얻을 수 있다.
Figure 112002000485227-pct00013
또한, 수학식 7에 나타낸 정규 방정식은 행렬(공(共) 분산행렬) A 및 벡터 v를,
Figure 112002000485227-pct00014
Figure 112002000485227-pct00015
로 정의함과 함께, 벡터 W를 수학식 1로 나타낸 바와 같이 정의하면, 다음 수학식 8로 나타낼 수 있다.
Figure 112002000485227-pct00016
수학식 7에서의 각 정규 방정식은 학생 데이터 xij 및 교사 데이터 yi의 세트를 어느 정도의 수만 준비함으로써, 구해야하는 탭 계수 wj의 수 J와 동일한 수만큼 설정할 수 있으며, 따라서 수학식 8을 벡터 W에 대하여 풀면(단, 수학식 8을 풀기 위해서는, 수학식 8에서의 행렬 A가 정규일 필요가 있음), 최적의 탭 계수(여기서는, 제곱 오차를 최소로 하는 탭 계수) wj를 구할 수 있다. 또, 수학식 8을 풀 때에는, 예를 들면 소인법(Gauss-Jordan의 소거법) 등을 이용할 수 있다.
이상과 같이 함으로써, 최적의 탭 계수 wj를 구해 두고, 또한 그 탭 계수 wj를 이용하여, 수학식 1에 의해 원래의 화소값 y에 가까운 예측값 E[y]를 구하는 것이 적응 처리이다.
또, 예를 들면, 교사 데이터로서 JPEG 부호화하는 화상과 동일 화질의 화상 을 이용함과 함께 학생 데이터로서 그 교사 데이터를 DCT 및 양자화하여 얻어지는 양자화 DCT 계수를 이용한 경우, 탭 계수로서는 JPEG 부호화된 화상 데이터를 원래 화상 데이터로 복호하는데, 예측 오차가 통계적으로 최소가 되는 것을 얻을 수 있게 된다.
따라서, JPEG 부호화를 행할 때의 압축율을 높여도, 즉 양자화에 이용하는 양자화 단계를 조악하게 해도 적응 처리에 따르면, 예측 오차가 통계적으로 최소가 되는 복호 처리가 실시되게 되며, 실질적으로 JPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리가 동시에 실시되게 된다. 그 결과, 압축율을 높여도 복호 화상의 화질을 유지할 수 있다.
또한, 예를 들면 교사 데이터로서, JPEG 부호화하는 화상보다도 고화질의 화상을 이용함과 함께 학생 데이터로서, 그 교사 데이터의 화질을 JPEG 부호화하는 화상과 동일 화질로 열화시키고, 또한 DCT 및 양자화하여 얻어지는 양자화 DCT 계수를 이용한 경우, 탭 계수로서는 JPEG 부호화된 화상 데이터를 고화질의 화상 데이터로 복호하는데, 예측 오차가 통계적으로 최소가 되는 것이 얻어지게 된다.
따라서, 이 경우 적응 처리에 따르면, JPEG 부호화된 화상의 복호 처리와, 그 화질을 보다 향상시키기 위한 처리가 동시에 실시되게 된다. 또, 상술한 것으로부터, 교사 데이터 또는 학생 데이터가 되는 화상의 화질을 바꿈으로써, 복호 화상의 화질을 임의의 레벨로 하는 탭 계수를 얻을 수 있다.
도 5는, 이상과 같은 클래스 분류 적응 처리에 의해 양자화 DCT 계수를 화소값으로 복호하는 도 3의 계수 변환 회로(32)의 구성예를 나타내고 있다.
이 도 5에 나타내는 계수 변환 회로(32A)에서, 엔트로피 복호 회로(31)(도 3)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(41) 및 클래스 탭 추출 회로(42)에 공급되도록 되어 있다.
예측 탭 추출 회로(41)는 거기에 공급되는 양자화 DCT 계수의 블록(이하, 적절하게 DCT 블록이라고 함)에 대응하는 화소값의 블록(이 화소값의 블록은 현 단계에서는 존재하지 않지만, 가상적으로 상정됨) (이하, 적절하게 화소 블록이라고 함)을 순차 주목 화소 블록으로 하고, 또한 그 주목 화소 블록을 구성하는 각 화소를 예를 들면 소위 래스터 스캔 순으로 순차 주목 화소로 한다. 또한, 예측 탭 추출 회로(41)는 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하여, 예측 탭으로 한다.
즉, 예측 탭 추출 회로(41)는, 예를 들면 도 6에 도시된 바와 같이 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 모든 양자화 DCT 계수, 즉 8×8의 64개의 양자화 DCT 계수를 예측 탭으로서 추출한다. 따라서, 이 실시예에서는 임의의 화소 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성된다. 단, 예측 탭은 주목 화소마다 상이한 양자화 DCT 계수로 구성할 수 있다.
예측 탭 추출 회로(41)에서 얻어지는 화소 블록을 구성하는 각 화소에 대한 예측 탭 즉 64 화소 각각에 대한 64 세트의 예측 탭은 곱의 합 연산 회로(45)에 공급된다. 단, 이 실시예에서는 상술된 바와 같이 화소 블록의 모든 화소에 대해, 동일한 예측 탭이 구성되므로, 실제로는 하나의 화소 블럭에 대하여 1세트의 예측 탭을 곱의 합 연산 회로(45)로 공급하면 된다.
클래스 탭 추출 회로(42)는 주목 화소를 몇 개의 클래스 중 어느 하나로 분류하기 위한 클래스 분류에 이용하는 양자화 DCT 계수를 추출하여, 클래스 탭으로 한다.
또, JPEG 부호화에서는 화상이 화소 블록마다 부호화(DCT 처리 및 양자화)되기 때문에, 임의의 화소 블록에 속하는 화소는, 예를 들면 모두 동일한 클래스로 클래스 분류하기로 한다. 따라서, 클래스 탭 추출 회로(42)는 임의의 화소 블럭의 각 화소에 대해서는 동일한 클래스 탭을 구성한다. 즉, 클래스 탭 추출 회로(42)는 예를 들면 예측 탭 추출 회로(41)에서의 경우와 마찬가지로, 도 6에 나타낸 바와 같은 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 8×8개의 모든 양자화 DCT 계수를 클래스 탭으로서 추출한다.
여기서, 화소 블록에 속하는 각 화소를 모두 동일한 클래스로 클래스 분류한다고 하는 것은, 그 화소 블록을 클래스 분류하는 것과 등가이다. 따라서, 클래스 탭 추출 회로(42)에는 주목 화소 블록을 구성하는 64 화소 각각을 클래스 분류하기 위한 64 세트의 클래스 탭이 아니고, 주목 화소 블록을 클래스 분류하기 위한 1세트의 클래스 탭을 구성시키면 되며, 이 때문에 클래스 탭 추출 회로(42)는 화소 블록마다 그 화소 블록을 클래스 분류하기 위해 그 화소 블록에 대응하는 DCT 블록의 64개의 양자화 DCT 계수를 추출하여, 클래스 탭으로 한다.
또, 예측 탭이나 클래스 탭을 구성하는 양자화 DCT 계수는 상술된 패턴의 것에 한정되는 것은 아니다.
클래스 탭 추출 회로(42)에서 얻어지는 주목 화소 블럭의 클래스 탭은 클래 스 분류 회로(43)로 공급되도록 이루어져 있다. 클래스 분류 회로(43)는 클래스 탭 추출 회로(42)로부터의 클래스 탭에 기초하여 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스에 대응하는 클래스 코드를 출력한다.
여기서, 클래스 분류를 행하는 방법으로는 예를 들면 ADRC(Adaptive Dynamic Range Coding) 등을 채용할 수 있다.
ADRC를 이용하는 방법에서는 클래스 탭을 구성하는 양자화 DCT 계수가 ADRC 처리되고, 그 결과 얻어지는 ADRC 코드에 따라 주목 화소 블록의 클래스가 결정된다.
또, K 비트 ADRC에서는 예를 들면 클래스 탭을 구성하는 양자화 DCT 계수의 최대값 MAX와 최소값 MIN이 검출되고, DR=MAX-MIN을 집합이 국소적인 다이내믹 범위로 하고, 이 다이내믹 범위 DR에 기초하여 클래스 탭을 구성하는 양자화 DCT 계수가 K 비트로 재양자화된다. 즉, 클래스 탭을 구성하는 양자화 DCT 계수 중에서 최소값 MIN이 감산되고, 그 감산된 값이 DR/2K로 제산(양자화)된다. 그리고, 이상과 같이 하여 얻어진, 클래스 탭을 구성하는 K 비트의 각 양자화 DCT 계수를 소정의 순서로 배열한 비트 열이 ADRC 코드로서 출력된다. 따라서, 클래스 탭이 예를 들면 1 비트 ADRC 처리된 경우에는 그 클래스 탭을 구성하는 각 양자화 DCT 계수는 최소값 MIN이 감산된 후에, 최대값 MAX와 최소값 MIN과의 평균값으로 제산되고, 이에 따라 각 양자화 DCT 계수가 1 비트가 된다(2 치화됨). 그리고, 그 1 비트의 양자화 DCT 계수를 소정의 순서로 배열한 비트 열이 ADRC 코드로서 출력된다.
또, 클래스 분류 회로(43)에는, 예를 들면 클래스 탭을 구성하는 양자화 DCT 계수의 레벨 분포의 패턴을 그대로 클래스 코드로서 출력시킬 수도 있지만, 이 경우 클래스 탭이 N개의 양자화 DCT 계수로 구성되고, 각 양자화 DCT 계수에 K 비트가 할당되어 있다고 하면, 클래스 분류 회로(43)가 출력하는 클래스 코드의 경우의 수는 (2N)K의 수로 되며, 양자화 DCT 계수의 비트 수 K에 지수적으로 비례한 방대한 수가 된다.
따라서, 클래스 분류 회로(43)에서는 클래스 탭의 정보량을 상술된 ADRC 처리나 혹은 벡터 양자화 등에 의해 압축하고나서, 클래스 분류를 행하는 것이 바람직하다.
그런데, 이 실시예에서는 클래스 탭은 상술된 바와 같이 64개의 양자화 DCT 계수로 구성된다. 따라서, 예를 들면 만약 클래스 탭을 1 비트 ADRC 처리함으로써, 클래스 분류를 행한다고 해도 클래스 코드의 경우의 수는, 264가지라는 큰 값이 된다.
그래서, 이 실시예에서는 클래스 분류 회로(43)에서 클래스 탭을 구성하는 양자화 DCT 계수로부터 중요성이 높은 특징량을 추출하고, 그 특징량에 기초하여 클래스 분류를 행함으로써, 클래스 수를 저감시키도록 이루어져 있다.
즉, 도 7은, 도 5의 클래스 분류 회로(43)의 구성예를 나타내고 있다.
클래스 탭은 전력 연산 회로(51)로 공급되도록 이루어져 있다. 전력 연산 회로(51)는 클래스 탭을 구성하는 양자화 DCT 계수를 몇 개의 공간 주파수 대역의 것으로 나눠, 각 주파수 대역의 전력을 연산한다.
즉, 전력 연산 회로(51)는 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 예를 들면 도 8에 도시된 바와 같은 4개의 공간 주파수 대역 S0, S1, S2, S3으로 분할한다.
여기서, 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수 각각을 알파벳 x에, 도 6에 나타낸 바와 같은 래스터 스캔 순으로 0으로부터의 순차적인 정수를 붙여 나타내는 것으로 하면, 공간 주파수 대역 S0은 4개의 양자화 DCT 계수 x0, x1 , x8, x9로 구성되고, 공간 주파수 대역 S1은 12개의 양자화 DCT 계수 x2 , x3, x4, x5, x6, x7, x10, x11, x12, x13, x14 , x15로 구성된다. 또한, 공간 주파수 대역 S2는 12개의 양자화 DCT 계수 x16, x17, x24, x25, x32, x 33, x40, x41, x48, x49, x56, x57 로 구성되며, 공간 주파수 대역 S3은 36개의 양자화 DCT 계수 x18, x19, x20 , x21, x22, x23, x26, x27, x28, x29, x30, x31, x34, x35 , x36, x37, x38, x39, x42, x43, x44, x45, x46, x47, x50, x51, x52, x53, x54, x55, x58, x59 , x60, x61, x62, x63으로 구성된다.
또한, 전력 연산 회로(51)는 공간 주파수 대역 S0, S1, S2, S3 각각에 대하여 양자화 DCT 계수의 AC 성분의 전력 P0, P1, P2, P3을 연산하고, 클래스 코드 생성 회로(52)에 출력한다.
즉, 전력 연산 회로(51)는 공간 주파수 대역 S0에 대해서는 상술된 4개의 양 자화 DCT 계수 x0, x1, x8, x9 중 AC 성분 x1, x 8, x9의 2승합 x1 2+x8 2+x9 2를 구하고, 이것을 전력 P0으로 하여, 클래스 코드 생성 회로(52)에 출력한다. 또한, 전력 연산 회로(51)는 공간 주파수 대역 S1에 대한 상술된 12개의 양자화 DCT 계수의 AC 성분, 즉 12개 모든 양자화 DCT 계수의 2승합을 구하고, 이것을 전력 P1로 하여, 클래스 코드 생성 회로(52)에 출력한다. 또한, 전력 연산 회로(51)는 공간 주파수 대역 S2와 공간 주파수 대역 S3에 대해서도 공간 주파수 대역 S1에서의 경우와 마찬가지로 하여, 각각의 전력 P2와 전력 P3을 구하고, 클래스 코드 생성 회로(52)에 출력한다.
클래스 코드 생성 회로(52)는 전력 연산 회로(51)로부터의 전력 P0, P1, P2, P3을 임계치 테이블 기억부(53)에 기억된 대응하는 임계치 TH0, TH1, TH 2, TH3과 각각 비교하고, 각각의 대소 관계에 기초하여 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(52)는 전력 P0과 임계치 TH0을 비교하여, 그 대소 관계를 나타내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(52)는 전력 P1과 임계치 TH1, 전력 P2와 임계치 TH2, 전력 P3과 임계치 TH3 을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(52)는 이상과 같이 하여 얻어지는 4개의 1 비트의 코드를 예를 들면 소정의 순서로 배열함으로써 얻어지는 4 비트의 코드(따라서, 0∼15 중 어느 하나의 값)를 주목 화소 블록의 클래스를 나타내는 클래스 코드로서 출력한다. 따라서, 이 실시예에서는 주목 화소 블록은, 24(=16)개의 클래스 중 어느 하나로 클래스 분류된다.
임계치 테이블 기억부(53)는, 공간 주파수 대역 S0∼S3의 전력 P0∼P3 과 각각 비교하는 임계치 TH0∼TH3을 기억하고 있다.
또, 상술된 경우에는 클래스 분류 처리에 양자화 DCT 계수의 DC 성분 x0이 이용되지 않지만, 이 DC 성분 x0도 이용하여 클래스 분류 처리를 행할 수도 있다.
도 5로 되돌아가, 이상과 같은 클래스 분류 회로(43)가 출력하는 클래스 코드는 계수 테이블 기억부(44)에 어드레스로서 제공된다.
계수 테이블 기억부(44)는 후술하는 학습 처리가 행해짐에 따라 얻어지는 탭 계수가 등록된 계수 테이블을 기억하고 있으며, 클래스 분류 회로(43)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 탭 계수를 곱의 합 연산 회로(45)에 출력한다.
여기서 이 본 실시의 형태에서는 화소 블록이 클래스 분류되므로, 주목 화소 블록에 대하여, 하나의 클래스 코드를 얻을 수 있다. 한편, 화소 블록은 이 실시예에서는 8×8 화소의 64 화소로 구성되므로, 주목 화소 블록에 대하여 그것을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수가 필요하다. 따라서, 계수 테이블 기억부(44)에는 하나의 클래스 코드에 대응하는 어드레스에 대하여, 64 세트의 탭 계수가 기억되어 있다.
곱의 합 연산 회로(45)는, 예측 탭 추출 회로(41)가 출력하는 예측 탭과, 계수 테이블 기억부(44)가 출력하는 탭 계수를 취득하고, 그 예측 탭과 탭 계수를 이용하여, 수학식 1에 나타낸 선형 예측 연산(곱의 합 연산)을 행하고, 그 결과 얻어지는 주목 화소 블록의 8×8 화소의 화소값을 대응하는 DCT 블록의 복호 결과로서 블록 분해 회로(33)(도 3)로 출력한다.
여기서, 예측 탭 추출 회로(41)에서는 상술된 바와 같이 주목 화소 블록의 각 화소가 순차 주목 화소로 되지만, 곱의 합 연산 회로(45)는 주목 화소 블록의 주목 화소로 되어 있는 화소의 위치에 대응한 동작 모드(이하, 적절하게 화소 위치 모드라고 함)로 되어 처리를 행한다.
즉, 예를 들면 주목 화소 블록의 화소 중, 래스터 스캔순으로 i 번째의 화소를 pi로 나타내고, 화소 pi가 주목 화소로 되어 있는 경우, 곱의 합 연산 회로(45)는 화소 위치 모드 #i의 처리를 행한다.
구체적으로는, 상술된 바와 같이 계수 테이블 기억부(44)는 주목 화소 블록을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수를 출력하지만, 그 중 화소 pi를 복호하기 위한 탭 계수의 세트를 Wi로 나타내면, 곱의 합 연산 회로(45)는 동작 모드가 화소 위치 모드 #i일 때에는, 예측 탭과 64 세트의 탭 계수 중 세트 Wi를 이용하여, 수학식 1의 곱의 합 연산을 행하고, 그 곱의 합 연산 결과를 화소 pi의 복호 결과로 한다.
이어서, 도 9의 흐름도를 참조하여, 도 5의 계수 변환 회로(32A)의 처리에 대하여 설명한다.
엔트로피 복호 회로(31)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(41) 및 클래스 탭 추출 회로(42)에서 순차 수신된다. 예측 탭 추출 회로(41)는 그곳에 공급되는 양자화 DCT 계수의 블록(DCT 블록)에 대응하는 화소 블록을 순차 주목 화소 블록으로 한다.
그리고, 클래스 탭 추출 회로(42)는, 단계 S11에서 그 곳에서 수신한 양자화 DCT 계수 중에서, 주목 화소 블록을 클래스 분류하는데 이용하는 것을 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(43)에 공급한다.
클래스 분류 회로(43)는, 단계 S12에서 클래스 탭 추출 회로(42)로부터의 클래스 탭을 이용하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 계수 테이블 기억부(44)에 출력한다.
즉, 단계 S12에서는, 도 10의 흐름도에 나타낸 바와 같이, 우선 처음에 단계 S21에서 클래스 분류 회로(43)(도 7)의 전력 연산 회로(51)가 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 도 8에 나타낸 4개의 공간 주파수 대역 S0∼S3으로 분할하고, 각각의 전력 P0∼P3을 연산한다. 이 전력 P0∼P3은 전력 연산 회로(51)로부터 클래스 코드 생성 회로(52)에 출력된다.
클래스 코드 생성 회로(52)는 단계 S22에서 임계치 테이블 기억부(53)로부터 임계치 TH0∼TH3을 판독하고, 전력 연산 회로(51)로부터의 전력 P0∼P3 각각과, 임계 치 TH0∼TH3 각각을 비교하고, 각각의 대소 관계에 기초를 둔 클래스 코드를 생성하여, 리턴한다.
도 9로 되돌아가, 단계 S12에서 이상과 같이 함으로써 얻어지는 클래스 코드는, 클래스 분류 회로(43)로부터 계수 테이블 기억부(44)에 대하여 어드레스로서 제공된다.
계수 테이블 기억부(44)는 클래스 분류 회로(43)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S13에서 그 어드레스에 기억되어 있는 64 세트의 탭 계수를 판독하고, 곱의 합 연산 회로(45)에 출력한다.
그리고, 단계 S14로 진행하여, 예측 탭 추출 회로(41)는 주목 화소 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로서, 그 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고, 예측 탭으로서 구성한다. 이 예측 탭은 예측 탭 추출 회로(41)로부터 곱의 합 연산 회로(45)로 공급된다.
여기서, 이 실시예에서는 각 화소 블록마다 그 화소 블록의 모든 화소에 대해 동일한 예측 탭이 구성되므로, 실제로는 단계 S14의 처리는 주목 화소 블록에 대하여, 최초로 주목 화소로 되는 화소에 대해서만 행하면 남은 63 화소에 대해서는 행할 필요가 없다.
곱의 합 연산 회로(45)는 단계 S15에서 단계 S13에서 계수 테이블 기억부(44)가 출력하는 64 세트의 탭 계수 중 주목 화소에 대한 화소 위치 모드에 대응하는 탭 계수의 세트를 취득하고, 그 탭 계수의 세트와, 단계 S14에서 예측 탭 추출 회로(41)로부터 공급되는 예측 탭을 이용하여, 수학식 1에 나타낸 곱의 합 연산을 행하여, 주목 화소의 화소값의 복호의 값을 얻는다.
그리고, 단계 S16으로 진행하여, 예측 탭 추출 회로(41)는 주목 화소 블록의 모든 화소를 주목 화소로서 처리를 행하는지의 여부를 판정한다. 단계 S16에서, 주목 화소 블록의 모든 화소를 주목 화소로서, 아직 처리를 행하지 않는다고 판정된 경우, 단계 S14로 되돌아가 예측 탭 추출 회로(41)는 주목 화소 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되지 않은 화소를 새롭게 주목 화소로서, 이하 동일한 처리를 반복한다.
또한, 단계 S16에서 주목 화소 블록의 모든 화소를 주목 화소로서 처리를 행했다고 판정된 경우, 즉 주목 화소 블록의 모든 화소의 복호의 값이 얻어진 경우, 곱의 합 연산 회로(45)는 그 복호의 값으로 구성되는 화소 블록(복호 블록)을 블록 분해 회로(33)(도 3)에 출력하고, 처리를 종료한다.
또, 도 9의 흐름도에 따른 처리는, 예측 탭 추출 회로(41)가 새로운 주목 화소 블록을 설정할 때마다 반복하여 행한다.
이어서, 도 11은, 도 5의 계수 테이블 기억부(44)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(60A)의 구성예를 나타내고 있다.
블록화 회로(61)에는 1매이상의 학습용 화상 데이터가 학습 시의 교사가 되는 교사 데이터로서 공급되도록 이루어져 있다. 블록화 회로(61)는 교사 데이터로서의 화상을 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블 록화한다.
DCT 회로(62)는, 블록화 회로(61)가 블록화한 화소 블록을 순차 주목 화소 블록으로서 판독하고, 그 주목 화소 블록을 DCT 처리함으로써 DCT 계수의 블록으로 한다. 이 DCT 계수의 블럭은 양자화 회로(63)로 공급된다.
양자화 회로(63)는, DCT 회로(62)로부터의 DCT 계수의 블록을 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하고, 그 결과 얻어지는 양자화 DCT 계수의 블록(DCT 블록)을 예측 탭 추출 회로(64) 및 클래스 탭 추출 회로(65)에 순차 공급한다.
예측 탭 추출 회로(64)는 주목 화소 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로서, 그 주목 화소에 대하여, 도 5의 예측 탭 추출 회로(41)가 구성하는 것과 동일한 예측 탭을 양자화 회로(63)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 이 예측 탭은, 학습 시의 학생이 되는 학생 데이터로서, 예측 탭 추출 회로(64)로부터 정규 방정식 가산 회로(67)로 공급된다.
클래스 탭 추출 회로(65)는 주목 화소 블록에 대하여, 도 5의 클래스 탭 추출 회로(42)가 구성하는 것과 동일한 클래스 탭을 양자화 회로(63)의 출력으로부터, 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 이 클래스 탭은, 클래스 탭 추출 회로(65)로부터 클래스 분류 회로(66)에 공급된다.
클래스 분류 회로(66)는, 클래스 탭 추출 회로(65)로부터의 클래스 탭을 이용하여, 도 5의 클래스 분류 회로(43)와 동일한 처리를 행함으로써, 주목 화소 블 록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(67)에 공급한다.
정규 방정식 가산 회로(67)는 블록화 회로(61)로부터 교사 데이터로서의 주목 화소의 화소값을 판독하고, 예측 탭 구성 회로(64)로부터의 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 주목 화소를 대상으로 한 가산을 행한다.
즉, 정규 방정식 가산 회로(67)는 클래스 분류 회로(66)로부터 공급되는 클래스 코드에 대응하는 클래스마다, 예측 탭(학생 데이터)을 이용하여 수학식 8의 행렬 A에서의 각 컴포넌트로 되어 있는, 학생 데이터끼리의 승산(xinxim)과, 서메이션(Σ)에 상당하는 연산을 행한다.
또한, 정규 방정식 가산 회로(67)는 역시 클래스 분류 회로(66)로부터 공급되는 클래스 코드에 대응하는 클래스마다, 예측 탭(학생 데이터) 및 주목 화소(교사 데이터)를 이용하며, 수학식 8의 벡터 v에서의 각 컴포넌트로 되어 있는, 학생 데이터와 교사 데이터의 승산(xinyi)과 서메이션(Σ)에 상당하는 연산을 행한다.
또, 정규 방정식 가산 회로(67)에서의 상술된 바와 같은 가산은 각 클래스에 대하여 주목 화소에 대한 화소 위치 모드마다 행해진다.
정규 방정식 가산 회로(67)는 이상의 가산을 블록화 회로(61)에 공급된 교사 화상을 구성하는 화소 모두를 주목 화소로서 행하고, 이에 따라 각 클래스에 대하여, 화소 위치 모드마다 수학식 8에 나타낸 정규 방정식이 세워진다.
탭 계수 결정 회로(68)는 정규 방정식 가산 회로(67)에 있어서 클래스마다, 또한 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 클래스마다 64 세트의 탭 계수를 구하고, 계수 테이블 기억부(69)의 각 클래스에 대응하는 어드레스에 공급한다.
또, 학습용의 화상으로서 준비하는 화상의 매수나, 그 화상의 내용 등에 따라서는 정규 방정식 가산 회로(67)에서 탭 계수를 구하는데 필요한 수의 정규 방정식을 얻을 수 없는 클래스가 생기는 경우가 있을 수 있지만, 탭 계수 결정 회로(68)는 그와 같은 클래스에 대해서는, 예를 들면 디폴트의 탭 계수를 출력한다.
계수 테이블 기억부(69)는 탭 계수 결정 회로(68)로부터 공급되는 클래스마다의 64 세트의 탭 계수를 기억한다.
이어서, 도 12의 흐름도를 참조하여, 도 11의 학습 장치(60A)의 처리(학습 처리)에 대하여 설명한다.
블록화 회로(61)에는 학습용의 화상 데이터가 교사 데이터로서 공급되고, 블록화 회로(61)는 단계 S31에서 교사 데이터로서의 화상 데이터를 JPEG 부호화에 있어서의 경우와 마찬가지로 8×8 화소의 화소 블럭으로 블록화하고, 단계 S32로 진행한다. 단계 S32에서는 DCT 회로(62)가 블록화 회로(61)가 블록화한 화소 블록을 순차 판독하고, 그 주목 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 하고, 단계 S33으로 진행한다. 단계 S33에서는, 양자화 회로(63)가 DCT 회로(62)에서 얻어진 DCT 계수의 블록을 순차 판독하고, JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하여, 양자화 DCT 계수로 구성되는 블록(DCT 블록)으 로 한다.
그리고, 단계 S34로 진행하고, 클래스 탭 추출 회로(65)는 블록화 회로(61)에서 블록화된 화소 블록 중 아직 주목 화소 블록으로 되어 있지 않은 것을 주목 화소 블록으로 한다. 또한, 클래스 탭 추출 회로(65)는 주목 화소 블록을 클래스 분류하는데 이용하는 양자화 DCT 계수를 양자화 회로(63)에서 얻어진 DCT 블록으로부터 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(66)에 공급한다. 클래스 분류 회로(66)는 단계 S35에서 도 10의 흐름도에서 설명한 경우와 마찬가지로, 클래스 탭 추출 회로(65)로부터의 클래스 탭을 이용하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(67)에 공급하여, 단계 S36으로 진행한다.
단계 S36에서는 예측 탭 추출 회로(64)가 주목 화소 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소에 대하여 도 5의 예측 탭 추출 회로(41)가 구성하는 것과 동일한 예측 탭을 양자화 회로(63)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 그리고, 예측 탭 추출 회로(64)는, 주목 화소에 대한 예측 탭을 학생 데이터로서 정규 방정식 가산 회로(67)에 공급하여, 단계 S37로 진행한다.
단계 S37에서는 정규 방정식 가산 회로(67)는 블록화 회로(61)로부터 교사 데이터로서의 주목 화소를 판독하고, 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 교사 데이터로서의 주목 화소를 대상으로 하여, 수학식 8의 행렬 A와 벡터 v의 상술한 바와 같은 가산을 행한다. 또, 이 가산은 클래스 분류 회로(66)로부터의 클래스 코드에 대응하는 클래스마다, 또한 주목 화소에 대한 화소 위치 모드마다 행해진다.
그리고, 단계 S38로 진행하고, 예측 탭 추출 회로(64)는 주목 화소 블록의 모든 화소를 주목 화소로서, 가산을 행했는지의 여부를 판정한다. 단계 S38에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로서, 아직 가산을 행하고 있지 않다고 판정된 경우, 단계 S36으로 복귀되고, 예측 탭 추출 회로(64)는 주목 화소 블록의 화소 중 래스터 스캔 순으로, 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로서, 이하 동일한 처리를 반복한다.
또한, 단계 S38에서 주목 화소 블럭의 모든 화소를 주목 화소로서, 가산을 행했다고 판정된 경우, 단계 S39로 진행하고, 블록화 회로(61)는 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로서 처리를 행했는지의 여부를 판정한다. 단계 S39에서, 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로서, 아직 처리를 행하고 있지 않다고 판정된 경우, 단계 S34로 복귀되며, 블록화 회로(61)에서 블록화된 화소 블록 중 아직 주목 화소 블록으로 되어 있지 않은 것이 새롭게 주목 화소 블록으로 되며, 이하 동일한 처리가 반복된다.
한편, 단계 S39에서 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로서 처리를 행했다고 판정된 경우, 즉 정규 방정식 가산 회로(67)에서 각 클래스에 대하여 화소 위치 모드마다의 정규 방정식이 얻어진 경우, 단계 S40으로 진행되며, 탭 계수 결정 회로(68)는 각 클래스의 화소 위치 모드 마다 생성된 정규 방정식을 풀어서, 각 클래스마다 그 클래스의 64의 화소 위치 모드 각각에 대응하는 64 세트의 탭 계수를 구하고, 계수 테이블 기억부(69)의 각 클래스에 대응하는 어드레스에 공급하여 기억시키고, 처리를 종료한다.
이상과 같이 하여, 계수 테이블 기억부(69)에 기억된 각 클래스마다의 탭 계수가 도 5의 계수 테이블 기억부(44)에 기억되어 있다.
따라서, 계수 테이블 기억부(44)에 기억된 탭 계수는 선형 예측 연산을 행함으로써 얻어지는 원래의 화소값의 예측값의 예측 오차(여기서는, 제곱 오차)가 통계적으로 최소가 되도록 학습을 행함으로써 구해진 것으로, 그 결과 도 5의 계수 변환 회로(32A)에 따르면, JPEG 부호화된 화상을 원래 화상에 제한되지 않고 근사한 화상으로 복호할 수 있다.
또한, 상술한 바와 같이 JPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리가 동시에 실시되게 되므로, JPEG 부호화된 화상으로부터 효율적으로 화질이 좋은 복호 화상을 얻을 수 있다.
이어서, 도 13은, 도 3의 계수 변환 회로(32)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 5에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여 그 설명을 적절하게 생략한다. 즉, 이 도 13에 나타내는 계수 변환 회로(32B)는 역양자화 회로(71)가 새롭게 설치되어 있는 것 외에는 기본적으로 도 5에서의 경우와 마찬가지로 구성되어 있다.
도 13에 나타내는 계수 변환 회로(32B)에서, 역양자화 회로(71)에는 엔트로피 복호 회로(31)(도 3)에서 부호화 데이터를 엔트로피 복호함으로써 얻어지는 블 록마다의 양자화 DCT 계수가 공급된다.
또, 엔트로피 복호 회로(31)에서는 상술된 바와 같이 부호화 데이터로부터 양자화 DCT 계수 외에, 양자화 테이블도 얻을 수 있지만, 도 13의 계수 변환 회로(32B)에서는 이 양자화 테이블도 엔트로피 복호 회로(31)로부터 역양자화 회로(71)로 공급되도록 되어 있다.
역양자화 회로(71)는 엔트로피 복호 회로(31)로부터의 양자화 DCT 계수를 마찬가지로 엔트로피 복호 회로(31)로부터의 양자화 테이블에 따라 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(41) 및 클래스 탭 추출 회로(42)로 공급한다.
따라서, 예측 탭 추출 회로(41)와 클래스 탭 추출 회로(42)에서는 양자화 DCT 계수가 아니고, DCT 계수를 대상으로서 예측 탭과 클래스 탭이 각각 구성되며, 이후에도 DCT 계수를 대상으로서 도 5에서의 경우와 동일한 처리가 행해진다.
이와 같이, 도 13의 계수 변환 회로(32B)에서는 양자화 DCT 계수가 아니고, DCT 계수를 대상으로서 처리가 행해지기 때문에, 계수 테이블 기억부(44)에 기억시키는 탭 계수는 도 5에서의 경우와 상이한 것으로 할 필요가 있다.
그래서, 도 14는, 도 13의 계수 테이블 기억부(44)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(60B)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 11에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 14에 나타내는 학습 장치(60B)는 양자화 회로(63)의 후단에 역양자화 회로(81)가 새롭게 설치되어 있는 것외에는, 도 11에서의 경우와 기 본적으로 동일하게 구성되어 있다.
도 14의 학습 장치(60B)에서 역양자화 회로(81)는 역양자화 회로(63)가 출력하는 양자화 DCT 계수를 도 13의 역양자화 회로(71)와 마찬가지로 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(64) 및 클래스 탭 추출 회로(65)에 공급한다.
따라서, 예측 탭 추출 회로(64)와 클래스 탭 추출 회로(65)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로서 예측 탭과 클래스 탭이 각각 구성되고, 이후에도 DCT 계수를 대상으로서 도 11에서의 경우와 동일한 처리가 행해진다.
그 결과, DCT 계수가 양자화되고, 또한 역양자화됨으로써 생기는 양자화 오차의 영향을 저감시키는 탭 계수를 얻을 수 있게 된다.
이어서, 도 15는, 도 3의 계수 변환 회로(32)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 5에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 13에 나타내는 계수 변환 회로(32C)는 클래스 탭 추출 회로(42) 및 클래스 분류 회로(43)가 설치되어 있지 않은 것 외에는 기본적으로, 도 5에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 15에 나타내는 계수 변환 회로(32C)에서는 클래스라는 개념이 없지만, 이것은 클래스가 하나라고도 상정되어지므로, 계수 테이블 기억부(44)에는 1클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
이와 같이, 도 15의 계수 변환 회로(32C)에서는 계수 테이블 기억부(44)에 기억되어 있는 탭 계수는 도 5에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 16은, 도 15의 계수 테이블 기억부(44)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(60C)의 구성예를 나타내고 있다. 또, 도면 중 도 11에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 16에 나타내는 학습 장치(60C)는 클래스 탭 추출 회로(65) 및 클래스 분류 회로(66)가 설치되어 있지 않은 것 외에는 도 11에서의 경우와 기본적으로 동일하게 구성되어 있다.
따라서, 도 16의 학습 장치(60C)에서는 정규 방정식 가산 회로(67)에서, 상술된 가산이 클래스에는 무관하게 화소 위치 모드별로 행해진다. 그리고, 탭 계수 결정 회로(68)에서, 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 도 17은 도 3의 계수 변환 회로(32)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 5 또는 도 13에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여 그 설명을 적절하게 생략한다. 즉, 도 17에 나타내는 계수 변환 회로(32D)는 클래스 탭 추출 회로(42) 및 클래스 분류 회로(43)가 설치되지 않고, 또한 역양자화 회로(71)가 새롭게 설치되어 있는 것 외에는 기본적으로 도 5에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 17의 계수 변환 회로(32D)에서는 도 15의 계수 변환 회로(32C)와 마찬가지로, 계수 테이블 기억부(44)에는 1클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
또한, 도 17의 계수 변환 회로(32D)에서는 도 13의 계수 변환 회로(32B)에서 의 경우와 마찬가지로, 예측 탭 추출 회로(41)에서 양자화 DCT 계수가 아니고, 역양자화 회로(71)가 출력하는 DCT 계수를 대상으로서, 예측 탭이 구성되고, 이후에도 DCT 계수를 대상으로서 처리가 행해진다.
따라서, 도 17의 계수 변환 회로(32D)에서도 계수 테이블 기억부(44)에 기억되어 있는 탭 계수는 도 5에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 18은, 도 17의 계수 테이블 기억부(44)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(60D)의 구성예를 나타내고 있다. 또, 도면 중 도 11 또는 도 14에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여 그 설명을 적절하게 생략한다. 즉, 도 18에 나타내는 학습 장치(60D)는 클래스 탭 추출 회로(65) 및 클래스 분류 회로(66)가 설치되어 있지 않으며, 또한 역양자화 회로(81)가 새롭게 설치되어 있는 것 외에는 도 11에서의 경우와 기본적으로 동일하게 구성되어 있다.
따라서, 도 18의 학습 장치(60D)에서는 예측 탭 추출 회로(64)에서, 양자화 DCT 계수가 아니고, DCT 계수를 대상으로서 예측 탭이 구성되고, 이후에도 DCT 계수를 대상으로서 처리가 행해진다. 또한, 정규 방정식 가산 회로(67)에 있어서, 상술된 가산이 클래스에는 무관하게 행해지며, 탭 계수 결정 회로(68)에 있어서, 클래스와 무관하게 생성된 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 이상에서는 정지 화상을 압축 부호화하는 JPEG 부호화된 화상을 대상으로 했지만, 본 발명은 동화상을 압축 부호화하는, 예를 들면 MPEG 부호화된 화상을 대상으로 할 수도 있다.
즉, 도 19는 MPEG 부호화가 행해지는 경우의 도 2의 인코더(21)의 구성예를 나타내고 있다.
이 도 19에 나타내는 인코더(21)에서 MPEG 부호화의 대상인 동화상을 구성하는 프레임 또는 필드는, 순차적으로 움직임 검출 회로(91)와 연산기(92)로 공급된다.
움직임 검출 회로(91)는 거기에 공급되는 프레임에 대하여, 매크로 블록 단위로 움직임 벡터를 검출하고, 엔트로피 부호화 회로(96) 및 움직임 보상 회로(100)에 공급한다.
연산기(92)는 거기에 공급되는 화상이 I(Intra) 픽쳐이면, 그대로 블록화 회로(93)에 공급하고, P(Predictive) 또는 B(Bidirectionally predictive) 픽쳐이면, 움직임 보상 회로(100)로부터 공급되는 참조 화상과의 차분을 연산하여, 그 차분의 값을 블록화 회로(93)에 공급한다.
블록화 회로(93)는 연산기(92)의 출력을 8×8 화소의 화소 블록으로 블록화하고, DCT 회로(94)에 공급한다. DCT 회로(94)는 블록화 회로(93)로부터의 화소 블록을 DCT 처리하고, 그 결과 얻어지는 DCT 계수를 양자화 회로(95)로 공급한다. 양자화 회로(95)는 DCT 회로(93)로부터의 블록 단위의 DCT 계수를 소정의 양자화 단계로 양자화하고, 그 결과 얻어지는 양자화 DCT 계수를 엔트로피 부호화 회로(96)로 공급한다. 엔트로피 부호화 회로(96)는 양자화 회로(95)로부터의 양자화 DCT 계수를 엔트로피 부호화하고, 움직임 검출 회로(91)로부터의 움직임 벡터나 그 밖의 필요한 정보를 부가하여, 그 결과 얻어지는 부호화 데이터를 MPEG 부호화 결과로서 출력한다.
양자화 회로(95)가 출력하는 양자화 DCT 계수 중 I 픽쳐 및 P 픽쳐는 나중에 부호화되는 P 픽쳐나 B 픽쳐의 참조 화상으로서 이용하는데 로컬 디코드할 필요가 있기 때문에, 엔트로피 부호화 회로(96) 외에 역양자화 회로(97)에도 공급된다.
역양자화 회로(97)는 양자화 회로(95)로부터의 양자화 DCT 계수를 역양자화함으로써 DCT 계수로 하고, 역 DCT 회로(98)에 공급한다. 역 DCT 회로(98)는 역양자화 회로(97)로부터의 DCT 계수를 역 DCT 처리하고, 연산기(99)에 출력한다. 연산기(99)에는 역 DCT 회로(98)의 출력 외에 움직임 보상 회로(100)가 출력하는 참조 화상도 공급되도록 되어 있다. 연산기(99)는 역 DCT 회로(98)의 출력이 P 픽쳐의 것인 경우에는 그 출력과 움직임 보상 회로(100)의 출력을 가산함으로써, 원래 화상을 복호하고, 움직임 보상 회로(100)에 공급한다. 또한, 연산기(99)는 역 DCT 회로(98)의 출력이 I 픽쳐의 것인 경우에는 그 출력은 I 픽쳐의 복호 화상으로 되어 있으므로, 그대로 움직임 보상 회로(100)로 공급한다.
움직임 보상 회로(100)는 연산기(99)로부터 공급되는 로컬 디코드된 화상에 대하여, 움직임 검출 회로(91)로부터의 움직임 벡터에 따른 움직임 보상을 실시하고, 그 움직임 보상 후의 화상을 참조 화상으로서 연산기(92) 및 연산기(99)로 공급한다.
여기서, 도 20은 이상과 같은 MPEG 부호화의 결과 얻어지는 부호화 데이터를 복호하는 MPEG 디코더(110)의 구성예를 나타내고 있다.
이 MPEG 디코더(110)에서, 부호화 데이터는 엔트로피 복호 회로(111)에 공급 된다. 엔트로피 복호 회로(111)는 부호화 데이터를 엔트로피 복호하고, 양자화 DCT 계수, 움직임 벡터, 그 밖의 정보를 얻는다. 그리고, 양자화 DCT 계수는 역양자화 회로(112)에 공급되고, 움직임 벡터는 움직임 보상 회로(116)로 공급된다.
역양자화 회로(112)는 엔트로피 복호 회로(111)로부터의 양자화 DCT 계수를 역양자화함으로써 DCT 계수로 하고, 역 DCT 회로(113)에 공급한다.
역 DCT 회로(113)는 역양자화 회로(112)로부터의 DCT 계수를 역 DCT 처리하고, 연산기(114)에 출력한다. 연산기(114)에는 역양자화 회로(113)의 출력 외에, 움직임 보상 회로(116)가 출력하는, 이미 복호된 I 픽쳐 또는 P 픽쳐를 엔트로피 복호 회로(111)로부터의 움직임 벡터에 따라 움직임 보상한 것이 참조 화상으로서 공급되도록 이루어져 있다. 연산기(114)는 역 DCT 회로(113)의 출력이 P 픽쳐 또는 B 픽쳐의 것인 경우에는, 그 출력과 움직임 보상 회로(100)의 출력을 가산함으로써, 원래 화상을 복호하고, 블록 분해 회로(115)로 공급한다. 또한, 연산기(114)는 역 DCT 회로(113)의 출력이 I 픽쳐의 것인 경우에는, 그 출력은 I 픽쳐의 복호 화상으로 되어 있으므로, 그대로 블록 분해 회로(115)로 공급한다.
블록 분해 회로(115)는 연산기(114)로부터 화소 블록 단위로 공급되는 복호 화상의 블록화를 분해시킴으로써, 복호 화상을 얻어 출력한다.
한편, 움직임 보상 회로(116)는 연산기(114)가 출력하는 복호 화상 중 I 픽쳐와 P 픽쳐를 수신하고, 엔트로피 복호 회로(111)로부터의 움직임 벡터에 따른 움직임 보상을 실시한다. 그리고, 움직임 보상 회로(116)는 그 움직임 보상 후의 화상을 참조 화상으로서 연산기(114)에 공급한다.
도 3의 디코더(22)에서는 MPEG 부호화된 부호화 데이터도, 상술된 바와 같이 효율적으로 화질이 좋은 화상으로 복호할 수 있다.
즉, 부호화 데이터는 엔트로피 복호 회로(31)에 공급되고, 엔트로피 복호 회로(31)는 부호화 데이터를 엔트로피 복호한다. 이 엔트로피 복호의 결과 얻어지는 양자화 DCT 계수, 움직임 벡터, 그 밖의 정보는 엔트로피 복호 회로(31)로부터 계수 변환 회로(32)에 공급된다.
계수 변환 회로(32)는 엔트로피 복호 회로(31)로부터의 양자화 DCT 계수 Q와, 학습을 행함으로써 구해진 탭 계수를 이용하여 소정의 예측 연산을 행함과 함께, 엔트로피 복호 회로(31)로부터의 움직임 벡터에 따른 움직임 보상을 필요에 따라 행함으로써, 양자화 DCT 계수를 원래의 화소값으로 복호하여, 블록 분해 회로(33)로 공급한다.
블록 분해 회로(33)는 계수 변환 회로(32)에 있어서 얻어진 복호된 화소로 이루어지는 화소 블록의 블록화를 분해시킴으로써, 복호 화상을 얻어 출력한다.
이어서, 도 21은 디코더(22)에 있어서 MPEG 부호화된 부호화 데이터를 복호하는 경우의 도 3의 계수 변환 회로(32)의 구성예를 나타내고 있다. 또, 도면 중 도 17 또는 도 20에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 21에 나타내는 계수 변환 회로(32E)는, 곱의 합 연산 회로(45)의 후단에, 도 20에서의 연산기(114) 및 움직임 보상 회로(116)가 설치되어 있는 것 외에는 도 17에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 21의 계수 변환 회로(32E)에서는 탭 계수를 이용한 예측 연산이 도 20의 MPEG 디코더의 역 DCT 회로(113)에서의 역 DCT 처리를 대신하여 행해지며, 이후에는 도 20에서의 경우와 마찬가지로 함으로써 복호 화상을 얻을 수 있다.
이어서, 도 22는, 도 21의 계수 테이블 기억부(44)에 기억시키는 탭 계수를 학습하는 학습 장치(60E)의 구성예를 나타내고 있다. 또, 도면 중 도 18에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다.
이 도 22에 나타내는 학습 장치(60E)에서, 움직임 벡터 검출 회로(121) 및 연산기(122)에는 학습용의 화상이 교사 데이터로서 입력된다. 움직임 벡터 검출 회로(121), 연산기(122), 블록화 회로(123), DCT 회로(124), 양자화 회로(125), 역양자화 회로(127), 역 DCT 회로(128), 연산기(129) 또는 움직임 보상 회로(130)는 도 19의 움직임 벡터 검출 회로(91), 연산기(92), 블록화 회로(93), DCT 회로(94), 양자화 회로(95), 역양자화 회로(97), 역 DCT 회로(98), 연산기(99) 또는 움직임 보상 회로(100)와 각각 동일한 처리를 행하며, 이에 따라 양자화 회로(125)로부터는 도 19의 양자화 회로(95)가 출력하는 것과 동일한 양자화 DCT 계수가 출력된다.
양자화 회로(125)가 출력하는 양자화 DCT 계수는 역양자화 회로(81)에 공급되며, 역양자화 회로(81)는 양자화 회로(125)로부터의 양자화 DCT 계수를 역양자화하고, DCT 계수로 변환하여, 예측 탭 추출 회로(64)에 공급한다. 예측 탭 추출 회로(64)는 역양자화 회로(81)로부터의 DCT 계수로부터 예측 탭을 구성하고, 정규 방정식 가산 회로(67)에 공급한다.
정규 방정식 가산 회로(67)는 연산기(122)의 출력을 교사 데이터로 함과 함 께, 역양자화 회로(81)로부터의 예측 탭을 학생 데이터로서, 상술한 바와 같은 가산을 행하여, 이에 따라 정규 방정식을 생성한다.
그리고, 탭 계수 결정 회로(68)는 정규 방정식 가산 회로(67)에서 생성된 정규 방정식을 풀어서, 탭 계수를 구하여 계수 테이블 기억부(69)에 공급하여 기억시킨다.
도 21의 곱의 합 연산 회로(45)에서는 이와 같이 하여 구해진 탭 계수를 이용하여, MPEG 부호화된 부호화 데이터가 복호되므로, 역시 MPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리를 동시에 실시할 수 있고, 따라서 MPEG 부호화된 화상으로부터, 효율적으로 화질이 좋은 복호 화상을 얻을 수 있다.
또, 도 21의 계수 변환 회로(32E)는 역양자화 회로(71)를 설치하지 않고 구성할 수 있다. 이 경우, 도 22의 학습 장치(60E)는 역양자화 회로(81)를 설치하지 않고 구성하면 된다.
또한, 도 21의 계수 변환 회로(32E)는, 도 5에서의 경우와 마찬가지로 클래스 탭 추출 회로(42) 및 클래스 분류 회로(43)를 설치하여 구성할 수 있다. 이 경우, 도 22의 학습 장치(60E)는, 도 11에서의 경우와 같이 클래스 탭 추출 회로(65) 및 클래스 분류 회로(66)를 설치하여 구성하면 된다.
이상과 같이, 본 발명에 따르면, 학습을 행함으로써 구해진 탭 계수를 취득하고, 그 탭 계수와 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하므로, 변환 데이터를 효율적으로 복호할 수 있다.
또한, 본 발명에 따르면, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하고, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차를 통계적으로 최소가 되도록 학습을 행함으로써, 탭 계수를 구하고, 그 탭 계수를 이용함으로써, 직교 변환 또는 주파수 변환된 데이터를 효율적으로 복호할 수 있게 된다.
이어서 본 발명의 다른 실시예에 대하여 설명한다.
이어서 설명하는 실시예에서는, 상술된 도 2에 나타낸 디코더(22)로서 도 23에 도시된 바와 같이 엔트로피 복호 회로(231), 계수 변환 회로(232) 및 블록 분해 회로(233)를 포함하는 디코더(222)를 이용하여 부호화 데이터를 복호한다.
부호화 데이터는 엔트로피 복호 회로(231)로 공급되도록 이루어져 있다. 엔트로피 복호 회로(231)는 부호화 데이터를 엔트로피 복호하여, 그 결과 얻어지는 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(232)에 공급한다. 또, 부호화 데이터에는 엔트로피 부호화된 양자화 DCT 계수 외에 양자화 테이블도 포함되지만, 이 양자화 테이블은 필요에 따라 양자화 DCT 계수의 복호에 이용할 수 있다.
계수 변환 회로(232)는 엔트로피 복호 회로(231)로부터의 양자화 DCT 계수 Q와 학습에 의해 구해지는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 블록마다의 양자화 DCT 계수를 8×8 화소의 원래의 블록으로 복호하고, 또한 그 원래의 블록의 화질을 향상시키는 처리를 실시한 데이터를 얻는다. 즉, 원래의 블록은 8×8 화소로 구성되지만, 계수 변환 회로(232)는 탭 계수를 이용한 예측 연산을 행함으로써, 그 8×8 화소의 블록의 가로 및 세로 방향의 공간 해상도를 모두 2배로 한 16×16 화소로 이루어지는 블록을 얻는다. 여기서는, 계수 변환 회로(232)는 도 24에 나타낸 바와 같이 8×8의 양자화 DCT 계수로 구성되는 블록을 16×16 화소로 구성되는 블록으로 복호하여 출력한다.
블록 분해 회로(233)는 계수 변환 회로(232)에 있어서 얻어지는 16×16 화소의 블럭의 블록화를 분해시킴으로써, 공간 해상도를 향상시킨 복호 화상을 얻어 출력한다.
이어서, 도 25의 흐름도를 참조하여, 도 23의 디코더(222)의 처리에 대하여 설명한다.
부호화 데이터는, 엔트로피 복호 회로(231)에 순차 공급되며, 단계 S101에서 엔트로피 복호 회로(231)는 부호화 데이터를 엔트로피 복호하고, 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(232)에 공급한다. 계수 변환 회로(232)는 단계 S102에서 탭 계수를 이용한 예측 연산을 행함으로써, 엔트로피 복호 회로(231)로부터의 블록마다의 양자화 DCT 계수 Q를 블록마다의 화소값으로 복호하고, 또한 그 블록의 공간 해상도를 향상시킨, 말하자면 고해상도의 블록을 얻어, 블록 분해 회로(233)로 공급한다. 블록 분해 회로(233)는 단계 S103에서 계수 변환 회로(232)로부터의 공간 해상도가 향상된 화소값의 블록의 블록화를 분해하는 블록 분해를 행하고, 그 결과 얻어지는 고해상도의 복호 화상을 출력하여, 처리를 종료한다.
이어서, 도 23의 계수 변환 회로(232)에서는 먼저 설명한 클래스 분류 적응 처리를 이용하여, 양자화 DCT 계수를 화소값으로 복호하고, 또한 그 공간 해상도를 향상시킨 화상을 얻을 수 있다.
도 26은 클래스 분류 적응 처리에 의해 양자화 DCT 계수를 화소값으로 복호하는, 도 23의 계수 변환 회로(232)의 구성예를 나타내고 있다.
이 도 26에 나타내는 계수 변환 회로(232A)에서, 엔트로피 복호 회로(231)(도 23)가 출력하는 블럭마다의 양자화 DCT 계수는 예측 탭 추출 회로(241) 및 클래스 탭 추출 회로(242)에 공급되도록 이루어져 있다.
예측 탭 추출 회로(241)는 거기에 공급되는 8×8의 양자화 DCT 계수의 블록(이하, 적절하게 DCT 블록이라고 함)에 대응하는 고화질의 화소값의 블록(이 화소값의 블록은 현 단계에서는 존재하지 않지만, 가상적으로 상정됨)(이하, 적절하게 고화질 블록이라고 함)(이 실시예에서는, 상술된 바와 같이 16×16 화소의 블록)을 순차 주목 고화질 블록으로 하고, 또한 그 주목 고화질 블록을 구성하는 각 화소를 예를 들면 소위 래스터 스캔순으로 순차 주목 화소로 한다. 또한, 예측 탭 추출 회로(241)는, 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하여, 예측 탭으로 한다.
즉, 예측 탭 추출 회로(241)는, 예를 들면 상술된 도 6에 도시한 바와 같이 주목 화소가 속하는 고화질 블록에 대응하는 DCT 블록의 모든 양자화 DCT 계수 즉 8×8의 64개의 양자화 DCT 계수를 예측 탭으로서 추출한다. 따라서, 이 실시예에서는 임의의 고화질 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성된다. 단, 예측 탭은 주목 화소마다 상이한 양자화 DCT 계수로 구성할 수 있다.
예측 탭 추출 회로(241)에서 얻어지는, 고화질 블록을 구성하는 각 화소에 대한 예측 탭, 즉 16×16의 256 화소 각각에 대한 256 세트의 예측 탭은 곱의 합 연산 회로(245)에 공급된다. 단, 이 실시예에서는 상술된 바와 같이 고화질 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성되므로, 실제로는 하나의 고화질 블록에 대하여, 1 세트의 예측 탭을 곱의 합 연산 회로(245)에 공급하면 된다.
클래스 탭 추출 회로(242)는 주목 화소를 몇 개의 클래스 중 어느 하나로 분류하기 위한 클래스 분류에 이용하는 양자화 DCT 계수를 추출하여, 클래스 탭으로 한다.
또, JPEG 부호화에서는 화상이 8×8 화소의 블록(이하, 적절하게 화소 블록이라고 함)마다 부호화 즉 DCT 처리 및 양자화되기 때문에, 임의의 화소 블록을 고화질화한 고화질 블록에 속하는 화소는 예를 들면, 모두 동일한 클래스로 클래스 분류하기로 한다. 따라서, 클래스 탭 추출 회로(242)는 임의의 고화질 블록의 각 화소에 대해서는 동일한 클래스 탭을 구성한다. 즉, 클래스 탭 추출 회로(242)는, 예를 들면 예측 탭 추출 회로(241)에서의 경우와 마찬가지로, 도 6에 나타낸 바와 같이, 주목 화소가 속하는 고화질 블록에 대응하는 DCT 블록의 8×8개의 모든 양자화 DCT 계수를 클래스 탭으로서 추출한다.
여기서, 고화질 블록에 속하는 각 화소를 모두 동일한 클래스로 클래스 분류한다는 것은 그 고화질 블록을 클래스 분류하는 것과 등가이다. 따라서, 클래스 탭 추출 회로(242)에는 주목 고화질 블록을 구성하는 16×16의 합계 256 화소 각각을 클래스 분류하기 위한 256 세트의 클래스 탭이 아니고, 주목 고화질 블록을 클래스 분류하기 위한 1 세트의 클래스 탭을 구성시키면 되며, 이 때문에 클래스 탭 추출 회로(242)는 고화질 블록마다 그 고화질 블록을 클래스 분류하기 위해 그 고 화질 블록에 대응하는 DCT 블록의 64개의 양자화 DCT 계수를 추출하여, 클래스 탭으로 하도록 되어 있다.
또, 예측 탭이나 클래스 탭을 구성하는 양자화 DCT 계수는 상술한 패턴의 것에 한정되는 것이 아니다.
클래스 탭 추출 회로(242)에서 얻어진, 주목 고화질 블록의 클래스 탭은 클래스 분류 회로(243)로 공급되도록 이루어져 있다. 클래스 분류 회로(243)는 클래스 탭 추출 회로(242)로부터의 클래스 탭에 기초하여 주목 고화질 블록을 클래스 분류하고, 그 결과 얻어지는 클래스에 대응하는 클래스 코드를 출력한다.
여기서, 클래스 분류를 행하는 방법으로는, 예를 들면 ADRC 등을 채용할 수 있다. ADRC를 이용하는 방법으로는 클래스 탭을 구성하는 양자화 DCT 계수가 ADRC 처리되고, 그 결과 얻어지는 ADRC 코드에 따라 주목 고화질 블록의 클래스가 결정된다.
이 실시예에서도, 클래스 분류 회로(243)에서 클래스 탭을 구성하는 양자화 DCT 계수로부터 중요성이 높은 특징량을 추출하고, 그 특징량에 기초하여 클래스 분류를 행하는 것으로 클래스 수를 저감시키도록 되어 있다.
도 27은, 도 26의 클래스 분류 회로(243)의 구성예를 나타내고 있다.
클래스 탭은 전력 연산 회로(251)에 공급되도록 이루어져 있다. 전력 연산 회로(251)는 클래스 탭을 구성하는 양자화 DCT 계수를 몇 개의 공간 주파수 대역의 것으로 나누어, 각 주파수 대역의 전력을 연산한다.
즉, 전력 연산 회로(251)는 상술된 전력 연산 회로(51)와 마찬가지로 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술된 도 6에 나타낸 바와 같은 4개의 공간 주파수 대역 S0, S1, S2, S3으로 분할한다. 여기서, 공간 주파수 대역 S0은 4개의 양자화 DCT 계수 x0, x1, x8, x9로 구성되고, 공간 주파수 대역 S1은 12개의 양자화 DCT 계수 x2, x3, x4, x5, x6, x7, x10, x11, x12, x13, x14, x15로 구성된다. 또한, 공간 주파수 대역 S2는 12개의 양자화 DCT 계수 x16, x17, x24 , x25, x32, x33, x40, x41, x48, x49, x56, x57로 구성되고, 공간 주파수 대역 S3은 36개의 양자화 DCT 계수 x18, x19, x20, x21, x22, x23, x26 , x27, x28, x29, x30, x31, x34, x35, x36, x37, x38, x39, x42, x43, x44, x45, x46, x47, x50 , x51, x52, x53, x54, x55, x58, x59, x60, x61, x62, x63으로 구성된다.
또한, 전력 연산 회로(251)는 공간 주파수 대역 S0, S1, S2, S3 각각에 대하여, 양자화 DCT 계수의 AC 성분의 전력 P0, P1, P2, P3을 연산하고, 클래스 코드 생성 회로(252)에 출력한다.
즉, 전력 연산 회로(251)는 공간 주파수 대역 S0에 대해서는 상술된 4개의 양자화 DCT 계수 x0, x1, x8, x9 중 AC 성분 x1, x8, x9의 2승의 합 x1 2+x8 2+x9 2를 구하고, 이것을 전력 P0으로서 클래스 코드 생성 회로(252)에 출력한다. 또한, 전력 연산 회로(251)는 공간 주파수 대역 S1에 대한 상술된 12개의 양자화 DCT 계수의 AC 성분, 즉 12개 모든 양자화 DCT 계수의 2승의 합을 구하고, 이것을 전력 P1로서 클래스 코드 생성 회로(252)에 출력한다. 또한, 전력 연산 회로(251)는 공간 주파수 대역 S2와 공간 주파수 대역 S3에 대해서도 공간 주파수 대역 S1에서의 경우와 마찬가지로 하여, 각각의 전력 R2와 전력 P3을 구하고, 클래스 코드 생성 회로(252)에 출력한다.
클래스 코드 생성 회로(252)는 전력 연산 회로(251)로부터의 전력 P0, P1, P2, P3을 임계치 테이블 기억부(253)에 기억된 대응하는 임계치 TH0, TH 1, TH2, TH3과 각각 비교하여 각각의 대소 관계에 기초하여, 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(252)는 전력 P0과 임계치 TH0을 비교하고, 그 대소 관계를 나타내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(252)는 전력 P1과 임계치 TH1, 전력 P2와 임계치 TH2, 전력 P3과 임계치 TH3을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(252)는 이상과 같이 하여 얻어지는 4개의 1 비트의 코드를 예를 들면 소정의 순서로 배열함에 따라 얻어지는 4 비트의 코드(따라서, 0∼15 중 어느 하나의 값)를 주목 고화질 블록의 클래스를 나타내는 클래스 코드로서 출력한다. 따라서, 이 실시예에서는 주목 고화질 블록은 24(=16)개의 클래스 중 어느 하나로 클래스 분류되게 된다.
임계치 테이블 기억부(253)는 공간 주파수 대역 S0∼S3의 전력 P0∼P3 각각과 비교하는 임계치 TH0∼TH3을 기억하고 있다.
도 26으로 되돌아가, 이상과 같은 클래스 분류 회로(243)가 출력하는 클래스 코드는, 계수 테이블 기억부(244)에 어드레스로서 제공된다.
계수 테이블 기억부(244)는 후술하는 학습 처리가 행해짐에 따라 얻어지는 탭 계수가 등록된 계수 테이블을 기억하고 있으며, 클래스 분류 회로(243)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 탭 계수를 곱의 합 연산 회로(245)에 출력한다.
여기서, 이 실시예에서는 주목 고화질 블록에 대하여, 하나의 클래스 코드가 얻어진다. 한편, 고화질 블록은 이 실시예에서는 16×16 화소의 256 화소로 구성되기 때문에, 주목 고화질 블럭에 대해서는 그것을 구성하는 256 화소 각각을 복호하기 위한 256 세트의 탭 계수가 필요하다. 따라서, 계수 테이블 기억부(244)에는 하나의 클래스 코드에 대응하는 어드레스에 대하여, 256 세트의 탭 계수가 기억되어 있다.
곱의 합 연산 회로(245)는 예측 탭 추출 회로(241)가 출력하는 예측 탭과, 계수 테이블 기억부(244)가 출력하는 탭 계수를 취득하고, 그 예측 탭과 탭 계수를 이용하여, 상술된 수학식 1에 나타낸 선형 예측 연산(곱의 합 연산)을 행하고, 그 결과 얻어지는 주목 고화질 블록의 16×16 화소의 화소값(의 예측값)을 대응하는 DCT 블록의 복호 결과로서 블록 분해 회로(233)(도 23)에 출력한다.
여기서, 예측 탭 추출 회로(241)에서는 상술한 바와 같이 주목 고화질 블록 의 각 화소가 순차 주목 화소로 되지만, 곱의 합 연산 회로(245)는 주목 고화질 블록의 주목 화소로 되어 있는 화소의 위치에 대응한 동작 모드(이하, 적절하게 화소 위치 모드라고 함)로 되어, 처리를 행한다.
즉, 예를 들면 주목 고화질 블럭의 화소 중 래스터 스캔 순으로 i 번째의 화소를 pi로 나타내고, 화소 pi가 주목 화소로 되어 있는 경우, 곱의 합 연산 회로(245)는 화소 위치 모드 #i의 처리를 행한다.
구체적으로는, 상술한 바와 같이 계수 테이블 기억부(244)는 주목 고화질 블록을 구성하는 256 화소 각각을 복호하기 위한 256 세트의 탭 계수를 출력하지만, 그 중 화소 pi를 복호하기 위한 탭 계수의 세트를 Wi로 나타내면, 곱의 합 연산 회로(245)는 동작 모드가 화소 위치 모드 #i일 때에는 예측 탭과 256 세트의 탭 계수 중 세트 Wi를 이용하여, 상술된 수학식 1의 곱의 합 연산을 행하고, 그 곱의 합 연산 결과를 화소 pi의 복호 결과로 한다.
이어서, 도 28의 흐름도를 참조하여, 도 26의 계수 변환 회로(232A)의 처리에 대하여 설명한다.
엔트로피 복호 회로(231)(도 23)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(241) 및 클래스 탭 추출 회로(242)에 있어서 순차 수신되고, 예측 탭 추출 회로(241)는 거기에 공급되는 양자화 DCT 계수의 블록(DCT 블록)에 대응하는 고화질 블록을 순차적으로 주목 고화질 블록으로 한다.
그리고, 클래스 탭 추출 회로(242)는 단계 S111에서 그곳에서 수신한 양자화 DCT 계수 중에서 주목 고화질 블록을 클래스 분류하는데 이용하는 것을 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(243)에 공급한다.
클래스 분류 회로(243)는 단계 S112에서 클래스 탭 추출 회로(242)로부터의 클래스 탭을 이용하여, 주목 고화질 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 계수 테이블 기억부(244)로 출력한다.
즉, 단계 S112에서는 도 29의 흐름도에 도시된 바와 같이, 우선 최초로 단계 S121에서 클래스 분류 회로(243)(도 27)의 전력 연산 회로(251)가 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술된 도 8에 나타낸 4개의 공간 주파수 대역 S0∼S3으로 분할하고, 각각의 전력 P0∼P3을 연산한다. 이 전력 P0∼P3은 전력 연산 회로(251)로부터 클래스 코드 생성 회로(252)에 출력된다.
클래스 코드 생성 회로(252)는 단계 S122에서 임계치 테이블 기억부(253)로부터 임계치 TH0∼TH3을 판독하고, 전력 연산 회로(251)로부터의 전력 P0∼P 3 각각과, 임계치 TH0∼TH3 각각을 비교하여, 각각의 대소 관계에 기초를 둔 클래스 코드를 생성하여, 리턴한다.
도 28로 되돌아가, 단계 S112에서 이상과 같이 함으로써 얻어지는 클래스 코드는, 클래스 분류 회로(243)로부터 계수 테이블 기억부(244)에 대해 어드레스로서 제공된다.
계수 테이블 기억부(244)는 클래스 분류 회로(243)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S113에서 그 어드레스에 기억되어 있는 256 세트의 탭 계수(클래스 코드의 클래스에 대응하는 256 세트의 탭 계수)를 판독하고, 곱의 합 연산 회로(245)로 출력한다.
그리고, 단계 S114로 진행하고, 예측 탭 추출 회로(241)는 주목 고화질 블록의 화소 중, 래스터 스캔 순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고, 예측 탭으로서 구성한다. 이 예측 탭은, 예측 탭 추출 회로(241)로부터 곱의 합 연산 회로(245)에 공급된다.
여기서, 이 실시예에서는 각 고화질 블록마다, 그 고화질 블록의 모든 화소에 대하여 동일한 예측 탭이 구성되므로, 실제로는 단계 S114의 처리는 주목 고화질 블럭에 대하여, 최초로 주목 화소로 되는 화소에 대해서만 행하면, 남은 255 화소에 대해서는 행할 필요가 없다.
곱의 합 연산 회로(245)는, 단계 S115에서 단계 S113에서 계수 테이블 기억부(244)가 출력하는 256 세트의 탭 계수 중 주목 화소에 대한 화소 위치 모드에 대응하는 탭 계수의 세트를 취득하고, 그 탭 계수의 세트와 단계 S114에서 예측 탭 추출 회로(241)로부터 공급되는 예측 탭을 이용하여, 상술된 수학식 1에 나타낸 곱의 합 연산을 행하여, 주목 화소의 화소값의 복호의 값을 얻는다.
그리고, 단계 S116으로 진행하여, 예측 탭 추출 회로(241)는 주목 고화질 블록의 모든 화소를 주목 화소로서 처리를 행했는지의 여부를 판정한다. 단계 S116에서, 주목 고화질 블록의 모든 화소를 주목 화소로서, 아직 처리를 행하고 있지 않다고 판정된 경우, 단계 S114에 되돌아가 예측 탭 추출 회로(241)는 주목 고화질 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로서, 이하 동일한 처리를 반복한다.
또한, 단계 S116에서 주목 고화질 블록의 모든 화소를 주목 화소로서 처리를 행했다고 판정된 경우, 즉 주목 고화질 블록의 모든 화소의 복호의 값, 즉 8×8의 양자화 DCT 계수를 8×8 화소로 복호하고, 또한 그 8×8 화소를 16×16 화소로 고화질화한 것이 얻어진 경우, 곱의 합 연산 회로(245)는 그 복호의 값으로 구성되는 고화질 블록을 블록 분해 회로(233)(도 23)에 출력하여, 처리를 종료한다.
또, 도 28의 흐름도에 따른 처리는 예측 탭 추출 회로(241)가 새로운 주목 고화질 블럭을 설정할 때마다 반복하여 행해진다.
이어서, 도 30은, 도 26의 계수 테이블 기억부(244)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(270A)의 구성예를 나타내고 있다.
이 학습 장치(270A)에서, 압축 회로(260)에는 1매 이상의 학습용의 화상 데이터가 학습 시의 교사가 되는 교사 데이터로서 공급되도록 이루어져 있다. 압축 회로(260)는 그 교사 데이터로서의 화상에 대하여, 도 26의 계수 변환 회로(232A)에서의 곱의 합 연산 회로(245)가 탭 계수를 이용한 곱의 합 연산을 행함으로써 실시하는 향상 처리에 기초하는 처리를 실시한다. 즉, 여기서는 향상 처리는 8×8 화소를 그 가로 및 세로의 공간 해상도를 2배로 한 16×16 화소의 고화질의 것(해상도를 향상시킨 것)으로 변환하는 처리이므로, 압축 회로(260)는 교사 데이터로서의 화상 데이터의 화소를 압축하여, 그 가로 및 세로의 화소수를 모두 1/2로 한 화상 데이터(이하, 적절하게 준교사 데이터라고 함)를 생성한다.
또, 준교사 데이터로서의 화상 데이터는 인코더(21)(도 2)에서 JPEG 부호화의 대상이 되는 화상 데이터와 동일한 화질(해상도)의 것으로, 예를 들면 지금 이 JPEG 부호화의 대상이 되는 화상을 SD(Standard Density) 화상으로 하면, 교사 데이터로 하는 화상으로서는 그 SD 화상의 가로 및 세로의 화소수를 모두 2배로 한 HD(High Density) 화상을 이용할 필요가 있다.
블록화 회로(261)는 압축 회로(260)가 생성하는 1매 이상의 준교사 데이터로서의 SD 화상을 JPEG 부호화에 있어서의 경우와 마찬가지로, 8×8 화소의 화소 블록으로 블록화한다.
DCT 회로(262)는 블록화 회로(261)가 블록화한 화소 블록을 순차 판독하고, 그 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 한다. 이 DCT 계수의 블록은 양자화 회로(263)에 공급된다.
양자화 회로(263)는 DCT 회로(262)로부터의 DCT 계수의 블록을 인코더(21)(도 2)에서의 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하고, 그 결과 얻어지는 양자화 DCT 계수의 블록(DCT 블록)을 예측 탭 추출 회로(264) 및 클래스 탭 추출 회로(265)에 순차 공급한다.
예측 탭 추출 회로(264)는 후술하는 정규 방정식 가산 회로(267)가 주목 고화질 블록으로 하는 고화질 블록을 구성하는 16×16 화소 중 주목 화소로 되어 있는 화소에 대하여, 도 26의 예측 탭 추출 회로(241)가 구성하는 것과 동일한 예측 탭을 양자화 회로(263)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 이 예측 탭은, 학습 시의 학생이 되는 학생 데이터로서 예측 탭 추출 회 로(264)로부터 정규 방정식 가산 회로(267)에 공급된다.
클래스 탭 추출 회로(265)는 주목 고화질 블록에 대하여, 도 26의 클래스 탭 추출 회로(242)가 구성하는 것과 동일한 클래스 탭을 양자화 회로(263)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 이 클래스 탭은 클래스 탭 추출 회로(265)로부터 클래스 분류 회로(266)로 공급된다.
클래스 분류 회로(266)는, 클래스 탭 추출 회로(265)로부터의 클래스 탭을 이용하여, 도 26의 클래스 분류 회로(243)와 동일한 처리를 행함으로써, 주목 고화질 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(267)에 공급한다.
정규 방정식 가산 회로(267)에는 압축 회로(260)에 교사 데이터로서 공급되는 것과 동일한 HD 화상이 공급되도록 되어 있다. 정규 방정식 가산 회로(267)는 그 HD 화상을 16×16 화소의 고화질 블록으로 블록화하고, 그 고화질 블록을 순차 주목 고화질 블록으로 한다. 또한, 정규 방정식 가산 회로(267)는 주목 고화질 블록을 구성하는 16×16 화소 중 예를 들면 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 것을 순차 주목 화소로 하고, 그 주목 화소의 화소값과 예측 탭 구성 회로(264)로부터의 예측 탭을 구성하는 양자화 DCT 계수를 대상으로 한 가산을 행한다.
즉, 정규 방정식 가산 회로(267)는 클래스 분류 회로(266)로부터 공급되는 클래스 코드에 대응하는 클래스마다, 예측 탭(학생 데이터)을 이용하여, 상술된 수 학식 8의 행렬 A에서의 각 컴포넌트로 되어 있는, 학생 데이터끼리의 승산(xinxim)과, 서매이션(Σ)에 상당하는 연산을 행한다.
또한, 정규 방정식 가산 회로(267)는 역시 클래스 분류 회로(266)로부터 공급되는 클래스 코드에 대응하는 클래스마다, 예측 탭(학생 데이터) 및 주목 화소(교사 데이터)를 이용하여, 상술된 수학식 8의 벡터 v에서의 각 컴포넌트로 되어 있는, 학생 데이터와 교사 데이터의 승산(xinyi)과, 서메이션(Σ)에 상당하는 연산을 행한다.
또, 정규 방정식 가산 회로(267)에서의 상술된 바와 같은 가산은, 각 클래스에 대해 주목 화소에 대한 화소 위치 모드마다 행해진다.
정규 방정식 가산 회로(267)는 거기에 공급되는 교사 데이터로서의 HD 화상을 구성하는 화소 모두를 주목 화소로서 이상의 가산을 행하고, 이에 따라 각 클래스에 대하여 화소 위치 모드마다 상술된 수학식 8에 나타낸 정규 방정식을 세운다.
탭 계수 결정 회로(268)는 정규 방정식 가산 회로(267)에서 클래스마다(또한, 화소 위치 모드마다) 생성된 정규 방정식을 풀어서, 클래스마다 256 세트의 탭 계수를 구하고, 계수 테이블 기억부(269)의 각 클래스에 대응하는 어드레스에 공급한다.
또, 학습용의 화상으로서 준비하는 화상의 매수나, 그 화상의 내용 등에 따라서는 정규 방정식 가산 회로(267)에서 탭 계수를 구하는데 필요한 수의 정규 방정식을 얻을 수 없는 클래스가 생기는 경우가 있을 수 있지만, 탭 계수 결정 회로(268)는 그와 같은 클래스에 대해서는, 예를 들면 디폴트의 탭 계수를 출력한다.
계수 테이블 기억부(269)는 탭 계수 결정 회로(268)로부터 공급되는 클래스마다의 256 세트의 탭 계수를 기억한다.
이어서, 도 31의 흐름도를 참조하여, 도 30의 학습 장치(270A)의 처리(학습 처리)에 대하여 설명한다.
이 학습 장치(270A)의 압축 회로(260)에는 학습용의 화상 데이터인 HD 화상이 교사 데이터로서 공급되며, 압축 회로(260)는 단계 S130에서 그 교사 데이터로서의 HD 화상의 화소를 압축하여, 그 가로 및 세로의 화소수를 모두 1/2로 한 준교사 데이터로서의 SD 화상을 생성한다.
그리고, 블록화 회로(261)는 단계 S131에서 압축 회로(260)에서 얻어진 준교사 데이터로서의 SD 화상을 인코더(21)(도 2)에 의한 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화하고, 단계 S132로 진행한다. 단계 S132에서는 DCT 회로(262)가 블록화 회로(261)가 블록화한 화소 블록을 순차 판독하고, 그 화소 블록을 DCT 처리함으로써 DCT 계수의 블록으로서, 단계 S133으로 진행한다. 단계 S133에서는 양자화 회로(263)가 DCT 회로(262)에서 얻어진 DCT 계수의 블록을 순차 판독하고, 인코더(21)에서의 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하여, 양자화 DCT 계수로 구성되는 블록(DCT 블록)으로 한다.
한편, 정규 방정식 가산 회로(267)에도 교사 데이터로서의 HD 화상이 공급되 며, 정규 방정식 가산 회로(267)는 그 HD 화상을 16×16 화소의 고화질 블록으로 블록화하고, 단계 S134에서 그 고화질 블록 중 아직 주목 고화질 블록이 되어 있지 않은 것을 주목 고화질 블록으로 한다. 또한, 단계 S134에서는 클래스 탭 추출 회로(265)가 블록화 회로(261)에서 블록화된 화소 블록 중 주목 고화질 블록을 클래스 분류하는데 이용하는 양자화 DCT 계수를 양자화 회로(263)에서 얻어진 DCT 블록으로부터 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(266)로 공급한다. 클래스 분류 회로(266)는 단계 S135에서 도 29의 흐름도에서 설명한 경우와 마찬가지로, 클래스 탭 추출 회로(265)로부터의 클래스 탭을 이용하여, 주목 고화질 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(267)에 공급하여, 단계 S136으로 진행한다.
단계 S136에서는, 정규 방정식 가산 회로(267)가 주목 고화질 블록의 화소 중 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하고, 예측 탭 추출 회로(264)가 그 주목 화소에 대하여, 도 26의 예측 탭 추출 회로(241)가 구성하는 것과 동일한 예측 탭을 양자화 회로(263)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 그리고, 예측 탭 추출 회로(264)는 주목 화소에 대한 예측 탭을 학생 데이터로서 정규 방정식 가산 회로(267)에 공급하여, 단계 S137로 진행한다.
단계 S137에서는 정규 방정식 가산 회로(267)는 교사 데이터로서의 주목 화소와, 학생 데이터로서의 예측 탭(을 구성하는 양자화 DCT 계수)을 대상으로 하여, 상술된 수학식 8의 행렬 A와 벡터 v의 상술된 바와 같은 가산을 행한다. 또, 이 가산은 클래스 분류 회로(266)로부터의 클래스 코드에 대응하는 클래스마다, 또한 주목 화소에 대한 화소 위치 모드마다 행해진다.
그리고, 단계 S138로 진행하여, 정규 방정식 가산 회로(267)는 주목 고화질 블록의 모든 화소를 주목 화소로 하여, 가산을 행했는지의 여부를 판정한다. 단계 S138에서, 주목 고화질 블록의 모든 화소를 주목 화소로 하여, 아직 가산을 행하고 있지 않다고 판정된 경우, 단계 S136으로 복귀되어, 정규 방정식 가산 회로(267)는 주목 고화질 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하고, 이하 동일한 처리를 반복한다.
또한, 단계 S138에서, 주목 고화질 블록의 모든 화소를 주목 화소로서 가산을 행한다고 판정된 경우, 단계 S139로 진행하고, 정규 방정식 가산 회로(267)는 교사 데이터로서의 화상으로부터 얻어진 모든 고화질 블록을 주목 고화질 블록으로서 처리를 행하는지의 여부를 판정한다. 단계 S139에서, 교사 데이터로서의 화상으로부터 얻어진 모든 고화질 블록을 주목 고화질 블록으로서, 아직 처리를 행하지 않는다고 판정된 경우에 단계 S134로 되돌아가, 아직 주목 고화질 블록으로 되어 있지 않은 고화질 블록이 새롭게 주목 고화질 블록으로 되고, 이하 동일한 처리가 반복된다.
한편, 단계 S139에서, 교사 데이터로서의 화상으로부터 얻어진 모든 고화질 블록을 주목 고화질 블록으로서 처리를 행한다고 판정된 경우, 즉 정규 방정식 가산 회로(267)에서 각 클래스에 대하여 화소 위치 모드마다의 정규 방정식이 얻어진 경우, 단계 S140으로 진행하고, 탭 계수 결정 회로(268)는 각 클래스의 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 각 클래스마다 그 클래스의 256의 화소 위치 모드 각각에 대응하는 256 세트의 탭 계수를 구하고, 계수 테이블 기억부(269)의 각 클래스에 대응하는 어드레스에 공급하여 기억시켜, 처리를 종료한다.
이상과 같이 함으로써, 계수 테이블 기억부(269)에 기억된 각 클래스마다의 탭 계수가 도 26의 계수 테이블 기억부(244)에 기억되어 있다.
따라서, 계수 테이블 기억부(244)에 기억된 탭 계수는 선형 예측 연산을 행함으로써 얻어지는 원래의 화소값의 예측값의 예측 오차(여기서는, 제곱 오차)가 통계적으로 최소가 되도록 학습을 행함으로써 구해진 것으로, 그 결과 도 26의 계수 변환 회로(232A)에 따르면, JPEG 부호화된 화상을 교사 데이터로서 이용한 HD 화상의 화질에 제한됨이 없이 근사한 고화질의 화상으로 복호할 수 있다.
또한, 계수 변환 회로(232A)에 따르면, 상술된 바와 같이 JPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 향상 처리가 동시에 실시되게 되므로, JPEG 부호화된 화상으로부터 효율적으로 고화질화된 복호 화상을 얻을 수 있다.
이어서, 도 32는, 도 23의 계수 변환 회로(232)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 26에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 32에 나타내는 계수 변환 회로(232B)는 역양자화 회로(271)가 새롭게 설치되어 있는 것 외에는 기본적으로 도 26에서의 경우와 마찬가지로 구성되어 있다.
도 32에 나타내는 계수 변환 회로(232B)에서 역양자화 회로(271)에는 엔트로 피 복호 회로(231)(도 23)에서 부호화 데이터를 엔트로피 복호함으로써 얻어지는 블럭마다의 양자화 DCT 계수가 공급된다.
또, 엔트로피 복호 회로(231)에서는, 상술된 바와 같이 부호화 데이터로부터 양자화 DCT 계수 외에, 양자화 테이블도 얻을 수 있지만, 도 32의 계수 변환 회로(232B)에서는 이 양자화 테이블도, 엔트로피 복호 회로(231)로부터 역양자화 회로(271)에 공급되도록 이루어져 있다.
역양자화 회로(271)는, 엔트로피 복호 회로(231)로부터의 양자화 DCT 계수를 마찬가지로 엔트로피 복호 회로(231)로부터의 양자화 테이블에 따라 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(241) 및 클래스 탭 추출 회로(242)에 공급한다.
따라서, 예측 탭 추출 회로(241)와 클래스 탭 추출 회로(242)에서는 양자화 DCT 계수가 아니고, DCT 계수를 대상으로서, 예측 탭과 클래스 탭이 각각 구성되며, 이후에도 DCT 계수를 대상으로 하여, 도 26에서의 경우와 동일한 처리가 행해진다.
이와 같이, 도 32의 계수 변환 회로(232B)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로서 처리가 행해지기 때문에, 계수 테이블 기억부(244)에 기억시키는 탭 계수는, 도 26에서의 경우와 상이한 것으로 할 필요가 있다.
그래서, 도 33은, 도 32의 계수 테이블 기억부(244)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(270B)의 구성예를 나타내고 있다. 또, 도면 중, 도 30에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하 게 생략한다. 즉, 도 33에 나타내는 학습 장치(270B)는 양자화 회로(263)의 후단에, 역양자화 회로(281)가 새롭게 설치되어 있는 것 외에는 도 30에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
도 33에 나타내는 학습 장치(270B)에서, 역양자화 회로(281)는 역양자화 회로(263)가 출력하는 양자화 DCT 계수를 도 32의 역양자화 회로(271)와 마찬가지로 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(264) 및 클래스 탭 추출 회로(265)에 공급한다.
따라서, 예측 탭 추출 회로(264)와 클래스 탭 추출 회로(265)에서는, 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여, 예측 탭과 클래스 탭이 각각 구성되며, 이후에도 DCT 계수를 대상으로 하여 도 30에서의 경우와 동일한 처리가 행해진다.
그 결과, DCT 계수가 양자화되고, 또한 역양자화됨으로써 생기는 양자화 오차의 영향을 저감시키는 탭 계수가 얻어지게 된다.
이어서, 도 34는, 도 23의 계수 변환 회로(232)의 다른 구성예를 나타내고 있다. 또, 도면 중, 도 26에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 34에 나타내는 계수 변환 회로(232C)는 클래스 탭 추출 회로(242) 및 클래스 분류 회로(243)가 설치되어 있지 않은 것 외에는 기본적으로 도 26에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 34에 나타내는 계수 변환 회로(232C)에서는 클래스라는 개념이 없지만, 이것은 클래스가 하나라고도 상정되기 때문에, 계수 테이블 기억부(244)에 는 1클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
이와 같이, 도 34의 계수 변환 회로(232C)에서는 계수 테이블 기억부(244)에 기억되어 있는 탭 계수는 도 26에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 35는, 도 34의 계수 테이블 기억부(244)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(270C)의 구성예를 나타내고 있다. 또, 도면 중, 도 30에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 35에 나타내는 학습 장치(270C)는 클래스 탭 추출 회로(265) 및 클래스 분류 회로(266)가 설치되어 있지 않은 것 외에는, 도 30에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 35의 학습 장치(270C)에서는 정규 방정식 가산 회로(267)에 있어서, 상술된 가산이 클래스에는 무관하게 화소 위치 모드별로 행해진다. 그리고, 탭 계수 결정 회로(268)에서, 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 도 36은, 도 23의 계수 변환 회로(232)의 다른 구성 예를 나타내고 있다. 또한, 도면 중, 도 26 또는 도 32에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 36에 나타내는 계수 변환 회로(232D)는 클래스 탭 추출 회로(242) 및 클래스 분류 회로(243)가 설치되어 있지 않으며, 또한 역양자화 회로(271)가 새로 설치되어 있는 것 외에는 기본적으로 도 26에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 36에 나타내는 계수 변환 회로(232D)에서는 상술된 도 34의 계수 변환 회로(232C)와 마찬가지로, 계수 테이블 기억부(244)에는 1클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
또한, 도 36의 계수 변환 회로(232D)에서는 도 32의 계수 변환 회로(232C)와 마찬가지로, 예측 탭 추출 회로(241)에서 양자화 DCT 계수가 아니라, 역양자화 회로(271)가 출력하는 DCT 계수를 대상으로 하여 예측 탭이 구성되며, 이후에도 DCT 계수를 대상으로 하여 처리가 행해진다.
따라서, 도 36의 계수 변환 회로(232D)에서도, 계수 테이블 기억부(244)에 기억되어 있는 탭 계수는 도 26에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 37은, 도 36의 계수 테이블 기억부(244)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(270D)의 구성예를 나타내고 있다. 또, 도면 중, 도 30 또는 도 33에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 37에 나타내는 학습 장치(270D)는 클래스 탭 추출 회로(265) 및 클래스 분류 회로(266)가 설치되어 있지 않으며, 또한 역양자화 회로(281)가 새롭게 설치되어 있는 것외에는, 도 30에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 37의 학습 장치(270D)에서는 예측 탭 추출 회로(264)에서, 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여 예측 탭이 구성되고, 이후에도 DCT 계수를 대상으로 하여 처리가 행해진다. 또한, 정규 방정식 가산 회로(267)에서, 상술된 가산이 클래스에는 무관하게 행해져, 탭 계수 결정 회로(268)에서 클래스와 무관하게 생성된 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 이상에서는 정지 화상을 압축 부호화하는 JPEG 부호화된 화상을 대상으로 했지만, 본 발명은 동화상을 압축 부호화하는 예를 들면, MPEG 부호화된 화상을 대상으로 할 수도 있다.
즉, 도 38은 MPEG 부호화가 행해지는 경우의 도 2의 인코더(21)의 구성예를 나타내고 있다.
이 도 38에 나타내는 인코더(221)는 MPEG 부호화의 대상인 동화상을 구성하는 프레임(또는 필드)은, 순차적으로 움직임 검출 회로(291)와 연산기(292)로 공급된다.
움직임 검출 회로(291)는 거기에 공급되는 프레임에 대하여, 16×16 화소의 매크로 블록 단위로 움직임 벡터를 검출하고, 엔트로피 부호화 회로(296) 및 움직임 보상 회로(300)에 공급한다.
연산기(292)는 거기에 공급되는 화상이 I 픽쳐이면, 그대로 블록화 회로(293)에 공급하고, P 픽쳐 또는 B 픽쳐이면, 움직임 보상 회로(300)로부터 공급되는 참조 화상과의 차분을 연산하여, 그 차분의 값을 블록화 회로(293)에 공급한다.
블록화 회로(293)는 연산기(292)의 출력을 8×8 화소의 화소 블록으로 블록화하고, DCT 회로(294)에 공급한다. DCT 회로(294)는 블록화 회로(293)로부터의 화소 블록을 DCT 처리하고, 그 결과 얻어지는 DCT 계수를 양자화 회로(295)에 공급한다. 양자화 회로(295)는 DCT 회로(293)로부터의 블록 단위의 DCT 계수를 소정의 양자화 단계로 양자화하고, 그 결과 얻어지는 양자화 DCT 계수를 엔트로피 부호화 회로(296)에 공급한다. 엔트로피 부호화 회로(296)는 양자화 회로(295)로부터의 양자화 DCT 계수를 엔트로피 부호화하고, 움직임 검출 회로(291)로부터의 움직임 벡터나, 그 밖의 필요한 정보를 부가하여, 그 결과 얻어지는 부호화 데이터, 예를 들면 MPEG 트랜스포트 스트림을 MPEG 부호화 결과로서 출력한다.
양자화 회로(295)가 출력하는 양자화 DCT 계수 중 L 픽쳐 및 P 픽쳐는 나중에 부호화되는 P 픽쳐나 B 픽쳐의 참조 화상으로서 이용하는데 로컬 디코드할 필요가 있기 때문에, 엔트로피 부호화 회로(296) 외에 역양자화 회로(297)에도 공급된다.
역양자화 회로(297)는 양자화 회로(295)로부터의 양자화 DCT 계수를 역양자화함으로써, DCT 계수로 하고, 역 DCT 회로(298)에 공급한다. 역 DCT 회로(298)는 역양자화 회로(297)로부터의 DCT 계수를 역 DCT 처리하고, 연산기(299)에 출력한다. 연산기(299)에는 역 DCT 회로(298)의 출력 외에, 움직임 보상 회로(300)가 출력하는 참조 화상도 공급되도록 이루어져 있다. 연산기(299)는, 역 DCT 회로(298)의 출력이 P 픽쳐의 것인 경우에는 그 출력과 움직임 보상 회로(300)의 출력을 가산함으로써, 원래 화상을 복호하고, 움직임 보상 회로(300)에 공급한다. 또한, 연산기(299)는 역 DCT 회로(298)의 출력이 I 픽쳐의 것인 경우에는 그 출력은 I 픽쳐의 복호 화상으로 되어 있으므로, 그대로 움직임 보상 회로(300)에 공급한다.
움직임 보상 회로(300)는 연산기(299)로부터 공급되는 로컬 디코드된 화상에 대하여, 움직임 검출 회로(291)로부터의 움직임 벡터에 따른 움직임 보상을 실시하고, 그 움직임 보상 후의 화상을 참조 화상으로서 연산기(292) 및 연산기(299)에 공급한다.
그리고, 도 23의 디코더(222)에서는 MPEG 부호화된 부호화 데이터도 효율적으로 고화질의 화상으로 복호할 수 있다.
즉, 부호화 데이터는 엔트로피 복호 회로(231)에 공급되고, 엔트로피 복호 회로(231)는 부호화 데이터를 엔트로피 복호한다. 이 엔트로피 복호의 결과 얻어지는 양자화 DCT 계수, 움직임 벡터, 그 밖의 정보는 엔트로피 복호 회로(231)로부터 계수 변환 회로(232D)로 공급된다.
계수 변환 회로(232D)는 엔트로피 복호 회로(231)로부터의 양자화 DCT 계수 Q와, 학습을 행함으로써 구해진 탭 계수를 이용하여 소정의 예측 연산을 행함과 함께, 엔트로피 복호 회로(231)로부터의 움직임 벡터에 따른 움직임 보상을 필요에 따라 행함으로써, 양자화 DCT 계수를 고화질의 화소값으로 복호하고, 그 고화질의 화소값으로 이루어지는 고화질 블록을 블록 분해 회로(233)에 공급한다.
블록 분해 회로(233)는 계수 변환 회로(232D)에서 얻어진 고화질 블록의 블록화를 분해하는 것으로, 가로 및 세로의 화소수가 모두 MPEG 부호화된 화상의 예를 들면 2배가 된 고화질의 복호 화상을 얻어 출력한다.
이어서, 도 39는 디코더(222)에서 MPEG 부호화된 부호화 데이터를 복호하는 경우의 도 23의 계수 변환 회로(232)의 구성예를 나타내고 있다. 또, 도면 중 도 36에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 39에 나타내는 계수 변환 회로(232E)는, 곱의 합 연산 회로(245)의 후단에 연산기(314) 및 움직임 보상 회로(316)가 설치되어 있는 것 외 에는 도 36에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 39에 나타내는 계수 변환 회로(232E)에서는 양자화 DCT 계수가 역양자화 회로(271)에서 역양자화되며, 그 결과 얻어지는 DCT 계수를 이용하여, 예측 탭 추출 회로(241)에서 예측 탭이 구성된다. 그리고, 곱의 합 연산 회로(245)가 그 예측 탭과 계수 테이블 기억부(244)에 기억된 탭 계수를 이용한 예측 연산을 행함으로써, 가로 및 세로의 화소수가 모두 원래 화상의 2배가 된 고화질의 데이터를 출력한다.
그리고, 연산기(314)는 곱의 합 연산 회로(245)의 출력을 필요에 따라 움직임 보상 회로(316)의 출력과 가산함으로써, 가로 및 세로의 화소수가 모두 원래 화상의 2배가 된 고화질의 화상을 복호하고, 블록 분해 회로(233)(도 23)에 출력한다.
즉, I 픽쳐에 대해서는 곱의 합 연산 회로(245)의 출력은 가로 및 세로의 화소수가 모두, 원래 화상의 2배가 된 고화질의 화상으로 되어 있으므로, 연산기(314)는 곱의 합 연산 회로(245)의 출력을 그대로 블록 분해 회로(233)에 출력한다.
또한, P 픽쳐 또는 B 픽쳐에 대해서는 곱의 합 연산 회로(245)의 출력은 가로 및 세로의 화소수가 모두 원래 화상의 2배가 된 고화질의 화상과, 고화질의 참조 화상과의 차분으로 되어 있으므로, 연산기(314)는 곱의 합 연산 회로(245)의 출력을 움직임 보상 회로(316)로부터 공급되는 고화질의 참조 화상과 가산함으로써, 가로 및 세로의 화소수가 모두 원래 화상의 2배가 된 고화질의 화상으로 복호하고, 블록 분해 회로(233)에 출력한다.
한편, 움직임 보상 회로(316)는 연산기(314)가 출력하는 고화질의 복호 화상 중, I 픽쳐 및 P 픽쳐를 수신하고, 그 I 픽쳐 또는 P 픽쳐의 고화질의 복호 화상에 대하여, 엔트로피 복호 회로(231)(도 23)로부터의 움직임 벡터를 이용한 움직임 보상을 실시함으로써, 고화질의 참조 화상을 얻어, 연산기(314)에 공급한다.
또, 여기서는, 복호 화상의 가로 및 세로의 화소수가 모두 원래 화상의 2배로 되어 있으므로, 움직임 보상 회로(316)는, 예를 들면 엔트로피 복호 회로(231)로부터의 움직임 벡터의 가로 방향 및 세로 방향의 크기를 모두 2배로 한 움직임 벡터에 따라 움직임 보상을 행한다.
이어서, 도 40은, 도 39의 계수 테이블 기억부(244)에 기억시키는 탭 계수를 학습하는 학습 장치(270E)의 구성예를 나타내고 있다. 또, 도면 중, 도 37에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다.
이 도 40에 나타내는 학습 장치(270E)에서, 압축 회로(320)에는 학습용의 HD 화상이 교사 데이터로서 입력되고, 압축 회로(320)는 예를 들면 도 30 의 압축 회로(260)와 마찬가지로, 교사 데이터로서의 HD 화상의 화소를 압축하여, 그 가로 및 세로의 화소수를 모두 1/2로 한 SD 화상인 준교사 데이터를 생성한다. 그리고, 이 준교사 데이터로서의 SD 화상은 움직임 벡터 검출 회로(321) 및 연산기(322)에 공급된다.
움직임 벡터 검출 회로(321), 연산기(322), 블록화 회로(323), DCT 회로(324), 양자화 회로(325), 역양자화 회로(327), 역 DCT 회로(328), 연산기(329) 또는 움직임 보상 회로(330)는 도 38의 움직임 벡터 검출 회로(291), 연산기(292), 블록화 회로(293), DCT 회로(294), 양자화 회로(295), 역양자화 회로(297), 역 DCT 회로(298), 연산기(299) 또는 움직임 보상 회로(300)와 각각 동일한 처리를 행하며, 이에 따라 양자화 회로(125)로부터는 도 38의 양자화 회로(295)가 출력하는 것과 동일한 양자화 DCT 계수가 출력된다.
양자화 회로(325)가 출력하는 양자화 DCT 계수는 역양자화 회로(281)에 공급되고, 역양자화 회로(281)는 양자화 회로(325)로부터의 양자화 DCT 계수를 역양자화하고, DCT 계수로 변환하여, 예측 탭 추출 회로(264)에 공급한다. 예측 탭 추출 회로(264)는 역양자화 회로(281)로부터의 DCT 계수로부터 예측 탭을 구성하고, 학생 데이터로서 정규 방정식 가산 회로(267)에 공급한다.
한편, 교사 데이터로서의 HD 화상은, 압축 회로(320) 외에 연산기(332)에도 공급되도록 되어 있다. 연산기(332)는 교사 데이터로서의 HD 화상으로부터, 필요에 따라 보간 회로(331)의 출력을 감산하고, 정규 방정식 가산 회로(267)에 공급한다.
즉, 보간 회로(331)는 움직임 보상 회로(330)가 출력하는 SD 화상의 참조 화상의 가로 및 세로의 화소수를 2배로 한 고화질의 참조 화상을 생성하여, 연산기(332)에 공급한다.
연산기(332)는 거기에 공급되는 HD 화상이 I 픽쳐인 경우에는 그 I 픽쳐의 HD 화상을 그대로 교사 데이터로서, 정규 방정식 가산 회로(267)에 공급한다. 또 한, 연산기(332)는 거기에 공급되는 HD 화상이 P 픽쳐 또는 B 픽쳐인 경우에는, 그 P 픽쳐 또는 B 픽쳐의 HD 화상과, 보간 회로(331)가 출력하는 고화질의 참조 화상과의 차분을 연산함으로써, 연산기(322)가 출력하는 SD 화상(준교사 데이터)에 대한 차분을 고화질화한 것을 얻어, 이것을 교사 데이터로서 정규 방정식 가산 회로(267)에 출력한다.
또, 보간 회로(331)에서는, 예를 들면 단순한 보간에 의해 화소수를 증가시킬 수 있다. 또한, 보간 회로(331)에서는, 예를 들면 클래스 분류 적응 처리에 의해 화소수를 증가시킬 수도 있다. 또한, 연산기(332)에서는 교사 데이터로서의 HD 화상을 MPEG 부호화하고, 그 로컬 디코드를 행하여 움직임 보상한 것을 참조 화상으로서 이용하도록 할 수 있다.
정규 방정식 가산 회로(267)는 연산기(332)의 출력을 교사 데이터로 함과 함께 역양자화 회로(281)로부터의 예측 탭을 학생 데이터로서, 상술된 바와 같은 가산을 행하고, 이에 따라 정규 방정식을 생성한다.
그리고, 탭 계수 결정 회로(268)는 정규 방정식 가산 회로(267)에서 생성된 정규 방정식을 풀어서, 탭 계수를 구하여 계수 테이블 기억부(269)에 공급하여 기억시킨다.
도 39의 곱의 합 연산 회로(245)에서는, 이와 같이 하여 구해진 탭 계수를 이용하여, MPEG 부호화된 부호화 데이터가 복호되므로, 역시 MPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리를 동시에 실시할 수 있으며, 따라서 MPEG 부호화된 화상으로부터 효율적이며 고화질의, 즉 이 실시예에서는 가로 및 세 로의 화소수가 모두 2배가 된 HD 화상인 복호 화상을 얻을 수 있다.
또, 도 39의 계수 변환 회로(132E)는 역양자화 회로(271)를 설치하지 않고 구성할 수 있다. 이 경우, 도 40의 학습 장치(270E)는 역양자화 회로(281)를 설치하지 않고 구성하면 된다.
또한, 도 39의 계수 변환 회로(232E)는 도 26에서의 경우와 마찬가지로, 클러스 탭 추출 회로(242) 및 클래스 분류 회로(243)를 설치하여 구성할 수 있다. 이 경우, 도 40의 학습 장치(270E)는, 도 30에서의 경우와 같이 클래스 탭 추출 회로(265) 및 클래스 분류 회로(266)를 설치하여 구성하면 된다.
또한, 상술된 바와 같은 경우에는 디코더(222)(도 23)에서 원래 화상의 공간 해상도를 2배로 향상시킨 복호 화상을 얻도록 했지만, 디코더(222)에서는 원래 화상의 공간 해상도를 임의의 배수로 한 복호 화상이나, 또한 원래 화상의 시간 해상도를 향상시킨 복호 화상을 얻도록 할 수도 있다.
즉, 예를 들면 MPEG 부호화하는 대상의 화상이 도 41A에 나타낸 바와 같은 시간 해상도가 낮은 경우에, 디코더(222)에서는 그 화상을 MPEG 부호화한 부호화 데이터를 도 41B에 나타낸 바와 같은 원래 화상의 시간 해상도를 2배로 한 화상으로 복호하도록 할 수 있다. 또한, 예를 들면 MPEG 부호화하는 대상의 화상이 도 42A에 도시된 바와 같은 영화에서 이용되는 24프레임/초의 화상인 경우에, 디코더(222)에서는 그 화상을 MPEG 부호화한 부호화 데이터를 도 42B에 도시된 바와 같은 원래 화상의 시간 해상도를 60/24배로 한 60 프레임/초의 화상으로 복호하도록 할 수 있다. 이 경우, 소위 2-3 풀다운을 용이하게 행할 수 있다.
여기서, 상술된 바와 같이 디코더(222)에서 시간 해상도를 향상시키는 경우에는 예측 탭이나 클래스 탭은, 예를 들면 도 43에 도시된 바와 같이, 2 이상의 프레임의 DCT 계수로 구성하도록 할 수 있다.
또한, 디코더(222)에서는 공간 해상도 또는 시간 해상도 중 어느 한쪽뿐 아니라, 양방을 향상시킨 복호 화상을 얻도록 할 수도 있다.
이상과 같이, 본 발명에 따르면, 학습을 행함으로써 구해진 탭 계수를 취득하고, 그 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻기 때문에, 효율적으로 변환 데이터를 복호하거나, 그 복호된 데이터에 소정의 처리를 실시하는 것이 가능해진다.
또한, 본 발명에 따르면, 교사가 되는 교사 데이터에, 소정의 처리에 기초하는 처리를 실시하고, 그 결과 얻어지는 준교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하여, 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행함으로써, 탭 계수를 구한다. 이와 같이 하여 구한 탭 계수를 이용함으로써, 효율적으로 직교 변환 또는 주파수 변환된 데이터를 복호하고, 또한 그 복호된 데이터에 소정의 처리를 실시하는 것이 가능해진다.
또한, 다음에 본 발명의 다른 실시예에 대하여 설명한다.
이어서 설명하는 실시예에서는, 도 2에 나타낸 디코더(22)로서 도 44에 도시 된 바와 같이 엔트로피 복호 회로(431), 계수 변환 회로(432) 및 블록 분해 회로(433)를 포함하는 디코더(422)를 이용하여 부호화 데이터를 복호한다.
부호화 데이터는 엔트로피 복호 회로(431)에 공급되도록 되어 있다. 엔트로피 복호 회로(431)는 부호화 데이터를 엔트로피 부호화된 양자화 DCT 계수와, 그것에 부가되어 있는 부가 정보로서의 양자화 테이블로 분리한다. 또한, 엔트로피 복호 회로(431)는 엔트로피 부호화된 양자화 DCT 계수를 엔트로피 복호하고, 그 결과 얻어지는 블록마다의 양자화 DCT 계수 Q를 부가 정보로서의 양자화 테이블과 함께 계수 변환 회로(432)에 공급한다.
계수 변환 회로(432)는 부가 정보로서의 양자화 테이블을 말하자면 보조적으로 이용하면서, 양자화 DCT 계수 Q와 학습을 행함으로써 구해지는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 블록마다의 양자화 DCT 계수를 8×8 화소의 원래 블록으로 복호한다.
블록 분해 회로(433)는 계수 변환 회로(432)에 있어서 얻어진, 복호된 블록(복호 블록)의 블록화를 분해시킴으로써, 복호 화상을 얻어 출력한다.
이 디코더(422)는 도 45의 흐름도에 나타내는 수순(단계 S201∼S203)에 따라 디코드 처리를 행한다.
즉, 부호화 데이터는 엔트로피 복호 회로(431)에 순차 공급되고, 단계 S201에서 엔트로피 복호 회로(431)는 부호화 데이터를 엔트로피 복호하고, 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(432)에 공급한다. 또한, 엔트로피 복호 회로(431)는 부호화 데이터로부터, 거기에 포함되는 부가 정보로서의 양자화 테이 블을 분리하여, 계수 변환 회로(432)에 공급한다. 계수 변환 회로(432)는, 단계 S202에서 양자화 테이블 및 탭 계수를 이용한 예측 연산을 행함으로써, 엔트로피 복호 회로(431)로부터의 블록마다의 양자화 DCT 계수 Q를 블록마다의 화소값으로 복호하고, 블록 분해 회로(433)에 공급한다. 블록 분해 회로(433)는 단계 S203에서 계수 변환 회로(432)로부터의 화소값의 블록(복호 블록)의 블록화를 분해하는 블록 분해를 행하고, 그 결과 얻어지는 복호 화상을 출력하여, 처리를 종료한다.
도 46은 이 디코더(422)에서 클래스 분류 적응 처리에 의해 양자화 DCT 계수를 화소값으로 복호하는 계수 변환 회로(432)의 구성예를 나타내고 있다.
이 도 46에 나타내는 계수 변환 회로(432A)에서, 엔트로피 복호 회로(431) (도 44)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(441) 및 클래스 탭 추출 회로(442)에 공급되도록 이루어져 있다. 부가 정보로서의 양자화 테이블은 클래스 분류 회로(443)에 공급되도록 되어 있다.
예측 탭 추출 회로(441)는 거기에 공급되는 양자화 DCT 계수의 블록(이하, 적절하게 DCT 블록이라고 함)에 대응하는 화소값의 블록(이 화소값의 블록은, 현 단계에서는 존재하지 않지만, 가상적으로 상정됨)(이하, 적절하게 화소 블록이라고 함)을 순차 주목 화소 블록으로 하고, 또한 그 주목 화소 블록을 구성하는 각 화소를 예를 들면 소위 래스터 스캔순으로 순차 주목 화소로 한다. 또한, 예측 탭 추출 회로(441)는 주목 화소의 화소값을 예측하는데 이용하고 있는 양자화 DCT 계수를 추출하여, 예측 탭으로 한다.
즉, 예측 탭 추출 회로(441)는, 예를 들면 상술된 도 6에 도시된 바와 같이 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 모든 양자화 DCT 계수, 즉 8×8의 64개의 양자화 DCT 계수를 예측 탭으로서 추출한다. 따라서, 이 실시예에서는, 임의의 화소 블록의 모든 화소에 대해 동일한 예측 탭이 구성된다. 단, 예측 탭은 주목 화소 외에, 상이한 양자화 DCT 계수로 구성할 수 있다.
예측 탭 추출 회로(441)에서 얻어진, 화소 블록을 구성하는 각 화소에 대한 예측 탭, 즉 64 화소 각각에 대한 64 세트의 예측 탭은 곱의 합 연산 회로(445)에 공급된다. 단, 이 실시예에서는 상술된 바와 같이 화소 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성되므로, 실제로는 하나의 화소 블록에 대하여 1 세트의 예측 탭을 곱의 합 연산 회로(445)에 공급하면 된다.
클래스 탭 추출 회로(442)는 주목 화소를 몇 개의 클래스 중 어느 하나로 분류하기 위한 클래스 분류에 이용하는 양자화 DCT 계수를 추출하여, 클래스 탭으로 한다. 이 클래스 탭 추출 회로(442)는, 예를 들면 예측 탭 추출 회로(441)에서의 경우와 마찬가지로, 상술된 도 6에 나타낸 바와 같은 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 8×8개의 모든 양자화 DCT 계수를 클래스 탭으로서 추출한다.
여기서, 클래스 탭 추출 회로(442)는 화소 블록마다 그 화소 블록을 클래스 분류하기 위해 그 화소 블록에 대응하는 DCT 블록의 64개의 양자화 DCT 계수를 추출하여, 클래스 탭으로 하도록 되어 있다.
또, 예측 탭이나 클래스 탭을 구성하는 양자화 DCT 계수는 상술한 패턴의 것에 한정되는 것은 아니다.
클래스 탭 추출 회로(442)에서 얻어진, 주목 화소 블록의 클래스 탭은 클래스 분류 회로(443)에 공급되도록 이루어져 있다. 클래스 분류 회로(443)는 클래스 탭 추출 회로(442)로부터의 클래스 탭과, 부가 정보로서의 양자화 테이블에 기초하여 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스에 대응하는 클래스 코드를 출력한다.
여기서, 양자화 DCT 계수로 구성되는 클래스 탭에 기초하여 클래스 분류를 행하는 방법으로는, 예를 들면 ADRC 등을 채용할 수 있다.
ADRC를 이용하는 방법으로는 클래스 탭을 구성하는 양자화 DCT 계수가 ADRC 처리되고, 그 결과 얻어지는 ADRC 코드에 따라 주목 화소 블록의 클래스가 결정된다.
이 실시예에서도 클래스 분류 회로(443)에서, 클래스 탭을 구성하는 양자화 DCT 계수로부터 중요성이 높은 특징량을 추출하고, 그 특징량에 기초하여 클래스 분류를 행함으로써, 클래스 수를 저감시키도록 이루어져 있다.
도 47은 도 46의 클래스 분류 회로(443)의 구성예를 나타내고 있다.
이 도 47에 나타내는 클래스 분류 회로(443)에서, 클래스 탭은 전력 연산 회로(451)에 공급되도록 이루어져 있다. 전력 연산 회로(451)는 클래스 탭을 구성하는 양자화 DCT 계수를 몇 개의 공간 주파수 대역의 것으로 나눠, 각 주파수 대역의 전력을 연산한다.
전력 연산 회로(451)는 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술된 도 6에 나타낸 바와 같은 4개의 공간 주파수 대역 S0, S1, S2, S 3으로 분할한다.
또한, 전력 연산 회로(451)는 공간 주파수 대역 S0, S1, S2, S3 각각에 대하여 양자화 DCT 계수의 AC 성분의 전력 P0, P1, P2, P3을 연산하고, 클래스 코드 생성 회로(452)에 출력한다.
클래스 코드 생성 회로(452)는 전력 연산 회로(451)로부터의 전력 P0, P1, P2, P3을 임계치 테이블 기억부(453)에 기억된 대응하는 임계치 TH0, TH 1, TH2, TH3과 각각 비교하고, 각각의 대소 관계에 기초하여 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(452)는 전력 P0과 임계치 TH0을 비교하여, 그 대소 관계를 나타내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(452)는 전력 P1과 임계치 TH1, 전력 P2와 임계치 TH2, 전력 P3과 임계치 TH3을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(452)는 이상과 같이 하여 얻어지는 4개의 1 비트의 코드를 예를 들면 소정의 순서로 배열함으로써 얻어지는 4 비트의 코드(따라서, 0∼15 중 어느 하나의 값)를 주목 화소 블럭의 제1 클래스를 나타내는 클래스 코드(이하, 적절하게 전력 클래스 코드라고 함)로 한다.
또한, 클래스 코드 생성 회로(452)에는 부가 정보로서의 양자화 테이블이 공급되도록 이루어져 있다. 클래스 코드 생성 회로(452)는 그 부가 정보에 기초하여 클래스 분류를 행하고, 이에 따라 주목 화소 블록의 제2 클래스를 나타내는 클래스 코드를 얻는다. 즉, 클래스 코드 생성 회로(452)는, 예를 들면 지금 JPEG 부호화에 있어서, 상술된 도 1B에 나타낸 2 종류의 양자화 테이블 중 어느 하나를 이용하여 양자화가 행해지는 경우에는, 부가 정보로서의 양자화 테이블이 그 2 종류의 양자화 테이블 중 어느 하나인지를 판정하고, 그 판정 결과를 나타내는 1비트의 코드를 주목 화소 블록의 제2 클래스를 나타내는 클래스 코드(이하, 적절하게 부가 정보 클래스 코드라고 함)로 한다.
그리고, 클래스 코드 생성 회로(452)는 제1 클래스를 나타내는 4 비트의 전력 클래스 코드에 제2 클래스를 나타내는 1 비트의 부가 정보 클래스 코드를 부가함으로써, 주목 화소 블록에 대한 최종적인 클래스 코드를 생성하여 출력한다. 따라서, 이 실시예에서는 최종적인 클래스 코드는 5 비트이고, 주목 화소 블록은 25(=32)개의 클래스 중 어느 하나(예를 들면, 0∼31 중 어느 하나의 값으로 나타내는 클래스)에 클래스 분류되게 된다.
또, 양자화 테이블에 기초하여 클래스 분류를 행하는 방법은 상술된 것에 한정되는 것은 아니다. 즉, 클래스 코드 생성 회로(452)에서는 부가 정보로서 공급되는 양자화 테이블(JPEG 부호화에서 실제로 사용된 양자화 테이블)과 비교하는 표준 패턴으로서의 양자화 테이블을 복수개 준비해 두고, 부가 정보로서의 양자화 테이블에 가장 근사한 표준 패턴으로서의 양자화 테이블을 검출하고, 그 검출 결과에 대응하는 코드를 부가 정보 클래스 코드로서 출력하도록 할 수 있다.
임계치 테이블 기억부(453)는 공간 주파수 대역 S0∼S3의 전력 P0∼P3 과 각각 비교하는 임계치 TH0∼TH3을 기억하고 있다.
또, 상술된 경우에는 클래스 분류 처리에, 양자화 DCT 계수의 DC 성분 x0 이 이용되지 않지만, 이 DC 성분 x0도 이용하여 클래스 분류 처리를 행할 수도 있다.
도 46으로 되돌아가, 이상과 같은 클래스 분류 회로(443)가 출력되는 클래스 코드는 계수 테이블 기억부(444)에 어드레스로서 제공된다.
계수 테이블 기억부(444)는 후술하는 학습 처리가 행해짐에 따라 얻어지는 클래스마다의 탭 계수가 등록된 계수 테이블을 기억하고 있으며, 클래스 분류 회로(443)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 클래스의 탭 계수를 곱의 합 연산 회로(445)에 출력한다.
이 실시예에서도 화소 블록이 클래스 분류되므로, 주목 화소 블록에 대하여 하나의 클래스 코드를 얻을 수 있다. 한편, 화소 블록은 이 실시예에서는 8×8 화소의 64 화소로 구성되기 때문에, 주목 화소 블록에 대하여 그것을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수가 필요하다. 따라서, 계수 테이블 기억부(444)에는 하나의 클래스 코드에 대응하는 어드레스에 대하여, 64 세트의 탭 계수가 기억되어 있다.
곱의 합 연산 회로(445)는 예측 탭 추출 회로(441)가 출력하는 예측 탭과, 계수 테이블 기억부(444)가 출력하는 탭 계수를 취득하고, 그 예측 탭과 탭 계수를 이용하여, 상술된 수학식 1에 나타낸 선형 예측 연산(곱의 합 연산)을 행하고, 그 결과 얻어지는 주목 화소 블록의 8×8 화소의 화소값을 대응하는 DCT 블록의 복호 결과로서 블록 분해 회로(433)(도 44)에 출력한다.
예측 탭 추출 회로(441)에서는, 상술된 바와 같이 주목 화소 블럭의 각 화소가 순차 주목 화소로 되지만, 곱의 합 연산 회로(445)는 주목 화소 블록의 주목 화소로 되어 있는 화소의 위치에 대응한 동작 모드(이하, 적절하게 화소 위치 모드라고 함)로 되어 처리를 행한다.
즉, 예를 들면 주목 화소 블록의 화소 중 래스터 스캔 순으로 i 번째의 화소를 pi로 나타내고, 화소 pi가 주목 화소로 되어 있는 경우, 곱의 합 연산 회로(445)는 화소 위치 모드 #i의 처리를 행한다.
구체적으로는, 상술된 바와 같이 계수 테이블 기억부(444)는 주목 화소 블록을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수를 출력하지만, 그 중 화소 pi를 복호하기 위한 탭 계수의 세트를 Wi로 나타내면, 곱의 합 연산 회로(445)는 동작 모드가 화소 위치 모드#i 일 때에는, 예측 탭과 64 세트의 탭 계수 중 세트 Wi를 이용하여, 상술된 수학식 1의 곱의 합 연산을 행하고, 그 곱의 합 연산 결과를 화소 pi의 복호 결과로 한다.
이어서, 도 48의 흐름도를 참조하여, 도 46의 계수 변환 회로(432A)의 처리에 대하여 설명한다.
엔트로피 복호 회로(431)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(441) 및 클래스 탭 추출 회로(442)에 있어서 순차 수신되고, 예측 탭 추 출 회로(441)는 거기에 공급되는 양자화 DCT 계수의 블록(DCT 블록)에 대응하는 화소 블록을 순차 주목 화소 블록으로 한다.
그리고, 클래스 탭 추출 회로(442)는 단계 S211에서, 그곳에서 수신한 양자화 DCT 계수 중에서 주목 화소 블록을 클래스 분류하는데 이용하는 것을 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(443)에 공급한다.
클래스 분류 회로(443)에는 클래스 분류 회로(442)로부터의 클래스 탭이 공급되는 것 외에 엔트로피 복호 회로(431)가 출력하는 부가 정보로서의 양자화 테이블도 공급되도록 이루어져 있다. 클래스 분류 회로(443)는 단계 S212에서 클래스 탭 추출 회로(442)로부터의 클래스 탭 및 엔트로피 복호 회로(431)로부터의 양자화 테이블을 이용하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 계수 테이블 기억부(444)에 출력한다.
즉, 단계 S212에서는 도 49의 흐름도에 도시된 바와 같이 우선 최초로 단계 S221에서 클래스 분류 회로(443)(도 47)의 전력 연산 회로(451)가 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술된 도 8에 나타낸 4개의 공간 주파수 대역 S0∼S3으로 분할하고, 각각의 전력 P0∼P3을 연산한다. 이 전력 P0∼P3은 전력 연산 회로(451)로부터 클래스 코드 생성 회로(452)에 출력된다.
클래스 코드 생성 회로(452)는 단계 S222에서 임계치 테이블 기억부(453)로부터 임계치 TH0∼TH3을 판독하고, 전력 연산 회로(451)로부터의 전력 P0∼P 3 각각과, 임계치 TH0∼TH3 각각을 비교하여 각각의 대소 관계에 기초한 전력 클래스 코드 를 생성한다.
또한, 클래스 코드 생성 회로(452)는 단계 S223에서 부가 정보로서의 양자화 테이블을 이용하여, 부가 정보 클래스 코드를 생성하고, 단계 S224로 진행한다. 단계 S224에서는 클래스 코드 생성 회로(452)는 전력 클래스 코드와 부가 정보 클래스 코드로부터 최종적인 클래스 코드를 생성하여, 리턴한다.
도 48에 되돌아가, 단계 S212에서 이상과 같이 하여 얻어지는 클래스 코드는 클래스 분류 회로(443)로부터 계수 테이블 기억부(444)에 대하여, 어드레스로서 제공된다.
계수 테이블 기억부(444)는 클래스 분류 회로(443)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S213에서 그 어드레스에 기억되어 있는 64 세트의 탭 계수를 판독하고, 곱의 합 연산 회로(445)에 출력한다.
그리고, 단계 S214로 진행하고, 예측 탭 추출 회로(441)는 주목 화소 블록의 화소 중 래스터 스캔 순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로서, 그 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고, 예측 탭으로서 구성한다. 이 예측 탭은, 예측 탭 추출 회로(441)로부터 곱의 합 연산 회로(445)에 공급된다.
여기서, 이 실시예에서는 각 화소 블록마다 그 화소 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성되므로, 실제로는 단계 S214의 처리는 주목 화소 블록에 대하여, 최초로 주목 화소로 되는 화소에 대해서만 행하면, 남은 63 화소에 대해서는 행할 필요가 없다.
곱의 합 연산 회로(445)는 단계 S215에서 단계 S213에서 계수 테이블 기억부(444)가 출력하는 64 세트의 탭 계수 중 주목 화소에 대한 화소 위치 모드에 대응하는 탭 계수의 세트를 취득하고, 그 탭 계수의 세트와, 단계 S214에서 예측 탭 추출 회로(441)로부터 공급되는 예측 탭을 이용하여, 상술된 수학식 1에 나타낸 곱의 합 연산을 행하여, 주목 화소의 화소값의 복호의 값을 얻는다.
그리고, 단계 S216으로 진행하고, 예측 탭 추출 회로(441)는 주목 화소 블록의 모든 화소를 주목 화소로서, 처리를 행했는지의 여부를 판정한다. 단계 S216에서, 주목 화소 블록의 모든 화소를 주목 화소로서 아직 처리를 행하지 않는다고 판정된 경우, 단계 S214로 되돌아가고, 예측 탭 추출 회로(441)는 주목 화소 블록의 화소 중 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하여, 이하 동일한 처리를 반복한다.
또한, 단계 S216에서 주목 화소 블록의 모든 화소를 주목 화소로서, 처리를 행했다고 판정된 경우, 즉 주목 화소 블록의 모든 화소의 복호의 값이 얻어진 경우, 곱의 합 연산 회로(445)는 그 복호의 값으로 구성되는 화소 블록(복호 블록)을 블록 분해 회로(433)(도 44)에 출력하고, 처리를 종료한다.
또한, 도 48의 흐름도에 따른 처리는 예측 탭 추출 회로(441)가 새로운 주목 화소 블록을 설정할 때마다 반복하여 행해진다.
이어서, 도 50은, 도 46의 계수 테이블 기억부(444)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(460A)의 구성예를 나타내고 있다.
이 도 50에 나타내는 학습 장치(460A)에서, 블록화 회로(461)에는 1매 이상 의 학습용의 화상 데이터가 학습 시의 교사가 되는 교사 데이터로서 공급되도록 이루어져 있다. 블록화 회로(461)는 교사 데이터로서의 화상을 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화한다.
DCT 회로(462)는 블록화 회로(461)가 블록화한 화소 블록을 순차 주목 화소 블록으로서 판독하고, 그 주목 화소 블록을 DCT 처리함으로써 DCT 계수의 블럭으로 한다. 이 DCT 계수의 블록은 양자화 회로(463)에 공급된다.
양자화 회로(463)는 DCT 회로(462)로부터의 DCT 계수의 블록을 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하고, 그 결과 얻어지는 양자화 DCT 계수의 블록(DCT 블록)을 예측 탭 추출 회로(464) 및 클래스 탭 추출 회로(465)에 순차 공급한다.
즉, 양자화 회로(463)는 JPEG 부호화에 이용되는 일반적인 압축율의 몇 개를 설정하고, 각 압축율에 대응하는 양자화 테이블에 따라 DCT 계수를 양자화하여, 예측 탭 추출 회로(464) 및 클래스 탭 추출 회로(465)에 순차 공급한다. 또한, 양자화 회로(463)는 양자화에 이용한 양자화 테이블을 부가 정보로서 클래스 분류 회로(466)에 공급한다. 또, 이 양자화 회로(463)가 사용하는 것과 동일한 양자화 테이블이 도 47의 클래스 코드 생성 회로(452)에 있어서, 표준 패턴으로서 기억되어 있다.
예측 탭 추출 회로(464)는 주목 화소 블록의 화소 중 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소에 대하여 양자화 회로(463)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써, 도 46 의 예측 탭 추출 회로(441)가 구성하는 것과 동일한 예측 탭을 구성한다. 이 예측 탭은 학습 시의 학생이 되는 학생 데이터로서, 예측 탭 추출 회로(464)로부터 정규 방정식 가산 회로(467)에 공급된다.
클래스 탭 추출 회로(465)는 주목 화소 블록에 대하여, 양자화 회로(463)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 도 46의 클래스 탭 추출 회로(442)가 구성하는 것과 동일한 클래스 탭을 구성한다. 이 클래스 탭은 클래스 탭 추출 회로(465)로부터 클래스 분류 회로(466)에 공급된다.
클래스 분류 회로(466)는 클래스 탭 추출 회로(465)로부터의 클래스 탭과 양자화 회로(463)로부터의 부가 정보로서의 양자화 테이블을 이용하여, 도 46의 클래스 분류 회로(443)와 동일한 처리를 행함으로써, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(467)에 공급한다.
정규 방정식 가산 회로(467)는 블록화 회로(461)로부터 교사 데이터로서의 주목 화소의 화소값을 판독하고, 예측 탭 구성 회로(464)로부터의 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 주목 화소를 대상으로 한 가산을 행한다.
즉, 정규 방정식 가산 회로(467)는 클래스 분류 회로(466)로부터 공급되는 클래스 코드에 대응하는 클래스마다 예측 탭(학생 데이터)을 이용하여, 상술된 수학식 8의 행렬 A에서의 각 컴포넌트로 되어 있는 학생 데이터끼리의 승산(xinxim)과 서메이션(Σ)에 상당하는 연산을 행한다.
또한, 정규 방정식 가산 회로(467)는, 역시 클래스 분류 회로(466)로부터 공급되는 클래스 코드에 대응하는 클래스마다 예측 탭(학생 데이터) 및 주목 화소(교사 데이터)를 이용하여, 상술된 수학식 8의 벡터 v에서의 각 컴포넌트로 되어 있는, 학생 데이터와 교사 데이터의 승산(xinyi)과, 서메이션(Σ)에 상당하는 연산을 행한다.
또, 정규 방정식 가산 회로(467)에서의, 상술된 바와 같은 가산은, 각 클래스에 대하여 주목 화소에 대한 화소 위치 모드마다 행해진다.
정규 방정식 가산 회로(467)는 블록화 회로(461)에 공급된 교사 화상을 구성하는 화소 모두를 주목 화소로 하여, 이상의 가산을 행하고, 이에 따라 각 클래스에 대하여 화소 위치 모드마다 상술된 수학식 8에 나타낸 정규 방정식이 성립된다.
탭 계수 결정 회로(468)는 정규 방정식 가산 회로(467)에 있어서 클래스마다 또한 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 클래스마다 64 세트의 탭 계수를 구하고, 계수 테이블 기억부(469)의 각 클래스에 대응하는 어드레스에 공급한다.
또, 학습용의 화상으로서 준비하는 화상의 매수나, 그 화상의 내용 등에 따라서는 정규 방정식 가산 회로(467)에서 탭 계수를 구하는데 필요한 수의 정규 방정식을 얻을 수 없는 클래스가 생기는 경우가 있을 수 있지만, 탭 계수 결정 회로(468)는 그와 같은 클래스에 대해서는, 예를 들면 디폴트의 탭 계수를 출력한다.
계수 테이블 기억부(469)는 탭 계수 결정 회로(468)로부터 공급되는 클래스마다의 64 세트의 탭 계수를 기억한다.
이어서, 도 51의 흐름도를 참조하여, 도 50의 학습 장치(460A)의 처리(학습 처리)에 대하여 설명한다.
블록화 회로(461)에는 학습용의 화상 데이터가 교사 데이터로서 공급되고, 블록화 회로(461)는 단계 S231에서 교사 데이터로서의 화상 데이터를 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화하여, 단계 S232로 진행한다. 단계 S232에서는 DCT 회로(462)가 블록화 회로(461)가 블록화한 화소 블록을 순차 판독하고, 그 주목 화소 블록을 DCT 처리함으로써 DCT 계수의 블록으로서, 단계 S233으로 진행한다.
단계 S233에서는 양자화 회로(463)가 사전에 설정된 양자화 테이블 중 아직 주목 양자화 테이블로 되어 있지 않은 것 중 하나를 주목 양자화 테이블로 세트하고, 클래스 분류 회로(466)에 공급하여 단계 S234로 진행한다. 단계 S234에서는 양자화 회로(463)가 DCT 회로(462)에서 얻어진 DCT 계수의 블록을 순차 판독하고, 주목 양자화 테이블에 따라 양자화하여 양자화 DCT 계수로 구성되는 블록(DCT 블록)으로 한다.
그리고, 단계 S235로 진행하고, 클래스 탭 추출 회로(465)는 블록화 회로(461)에서 블록화된 화소 블록 중 아직 주목 화소 블록으로 되어 있지 않은 것을 주목 화소 블록으로 한다. 또한, 클래스 탭 추출 회로(465)는 주목 화소 블록을 클래스 분류하는데 이용하는 양자화 DCT 계수를 양자화 회로(463)에서 얻어진 DCT 블럭으로부터 추출하여 클래스 탭을 구성하고, 클래스 분류 회로(466)에 공급한다. 클래스 분류 회로(466)는, 단계 S236에서 도 49의 흐름도에서 설명한 경우와 마찬가지로 클래스 탭 추출 회로(465)로부터의 클래스 탭 및 양자화 회로(463)로부터의 주목 양자화 테이블을 이용하여 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(467)에 공급하여, 단계 S237로 진행한다.
단계 S237에서는, 예측 탭 추출 회로(464)가 주목 화소 블록의 화소 중 래스터 스캔 순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소에 대하여 양자화 회로(463)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써, 도 46의 예측 탭 추출 회로(441)가 구성하는 것과 동일한 예측 탭을 구성한다. 그리고, 예측 탭 추출 회로(464)는 주목 화소에 대한 예측 탭을 학생 데이터로서 정규 방정식 가산 회로(467)에 공급하고, 단계 S238로 진행한다.
단계 S238에서는 정규 방정식 가산 회로(467)는 블록화 회로(461)로부터 교사 데이터로서의 주목 화소를 판독하고, 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 교사 데이터로서의 주목 화소를 대상으로 하여, 상술된 수학식 8의 행렬 A와 벡터 v의 상술된 바와 같은 가산을 행한다. 또, 이 가산은 클래스 분류 회로(466)로부터의 클래스 코드에 대응하는 클래스마다, 또한 주목 화소에 대한 화소 위치 모드마다 행해진다.
그리고, 단계 S239로 진행하고, 예측 탭 추출 회로(464)는 주목 화소 블록의 모든 화소를 주목 화소로서, 가산을 행했는지의 여부를 판정한다. 단계 S239에서 주목 화소 블록의 모든 화소를 주목 화소로서, 아직 가산을 행하고 있지 않다고 판정된 경우, 단계 S237로 복귀되어 예측 탭 추출 회로(464)는 주목 화소 블록의 화소 중 래스터 스캔 순으로 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하여, 이하 동일한 처리를 반복한다.
또한, 단계 S239에서 주목 화소 블록의 모든 화소를 주목 화소로서 가산을 행한다고 판정된 경우, 단계 S240으로 진행하고, 블록화 회로(461)는 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록에 대하여, 주목 화소 블록으로 하여 처리를 행했는지의 여부를 판정한다. 단계 S240에서, 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 아직 처리를 행하지 않다고 판정된 경우, 단계 S235로 복귀되며, 블록화 회로(461)에서 블록화된 화소 블록 중 아직 주목 화소 블록으로 되어 있지 않은 것이 새롭게 주목 화소 블록으로 되며, 이하 동일한 처리가 반복된다.
한편, 단계 S240에서 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록에 대하여 주목 화소 블록으로 하여 처리를 행했다고 판정된 경우, 단계 S241로 진행하고, 양자화 회로(463)는 사전에 설정된 양자화 테이블 모두를 주목 양자화 테이블로서 처리를 행했는지의 여부를 판정한다. 단계 S241에서, 사전에 설정된 양자화 테이블 모두에 대하여 주목 양자화 테이블로 하여 처리를 행하지 않다고 판정된 경우, 단계 S233으로 되돌아가, 모든 학습용의 화상 데이터를 대상으로, 이하 단계 S233 이후의 처리가 반복된다.
또한, 단계 S241에서 사전에 설정된 양자화 테이블 모두를 주목 양자화 테이 블로 하여 처리를 행했다고 판정된 경우, 단계 S242로 진행하고, 탭 계수 결정 회로(468)는 정규 방정식 가산 회로(467)에서 각 클래스의 화소 위치 모드마다 생성된 정규 방정식을 풀어서, 각 클래스마다 그 클래스의 64의 화소 위치 모드 각각에 대응하는 64 세트의 탭 계수를 구하고, 계수 테이블 기억부(469)의 각 클래스에 대응하는 어드레스에 공급하여 기억시키고, 처리를 종료한다.
이상과 같이 함으로써, 계수 테이블 기억부(469)에 기억된 각 클래스마다의 탭 계수가 도 46의 계수 테이블 기억부(444)에 기억되어 있다.
따라서, 계수 테이블 기억부(444)에 기억된 탭 계수는 선형 예측 연산을 행함으로써 얻어지는 원래의 화소값의 예측값의 예측 오차(여기서는, 제곱 오차)가 통계적으로 최소가 되도록 학습을 행함으로써 구해진 것이며, 그 결과 도 46의 계수 변환 회로(432A)에 따르면, JPEG 부호화된 화상을 원래 화상에 제한되지 않고 근사한 화상으로 복호할 수 있다.
또한, 상술된 바와 같이, JPEG 부호화된 화상의 복호 처리와 그 화질을 향상시키기 위한 처리가 동시에 실시되게 되므로, JPEG 부호화된 화상으로부터 효율적으로 화질이 좋은 복호 화상을 얻을 수 있다.
또, 이 실시예에서는 클래스 분류 회로(443, 466)에서의 클래스 분류를 클래스 탭뿐만 아니라 부가 정보로서의 양자화 테이블도 이용하여 행하고 있지만, 클래스 분류는 클래스 탭만을 이용하여 행할 수 있다. 그러나, 상술된 바와 같이 클래스 분류를 부가 정보로서의 양자화 테이블을 이용하여 행함으로써, 말하자면 정밀한 클래스 분리가 가능해지고, 복호 화상의 화질을 보다 향상시킬 수 있게 된다.
이어서, 도 52는, 도 44의 계수 변환 회로(432)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 46에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 52에 나타내는 계수 변환 회로(432B)는 역양자화 회로(471)가 새롭게 설치되어 있는 것 외에는 기본적으로 도 46에서의 경우와 마찬가지로 구성되어 있다.
도 52에 나타내는 계수 변환 회로(432B)에서, 역양자화 회로(471)에는 엔트로피 복호 회로(431)(도 44)에서 부호화 데이터를 엔트로피 복호함으로써 얻어지는 블록마다의 양자화 DCT 계수가 공급된다. 또한, 역양자화 회로(471)에는 엔트로피 복호 회로(431)가 출력하는 부가 정보로서의 양자화 테이블도 공급된다.
역양자화 회로(471)는 엔트로피 복호 회로(431)로부터의 양자화 DCT 계수를 마찬가지로 엔트로피 복호 회로(431)로부터의 양자화 테이블에 따라 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(441) 및 클래스 탭 추출 회로(442)에 공급한다.
따라서, 예측 탭 추출 회로(441)와 클래스 탭 추출 회로(442)에서는 양자화 DCT 계수가 아니라 DCT 계수를 대상으로서 예측 탭과 클래스 탭이 각각 구성되며, 이후에도 DCT 계수를 대상으로 하여 도 46에서의 경우와 동일한 처리가 행해진다.
이와 같이, 도 52의 계수 변환 회로(432B)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여 처리가 행해지기 때문에, 계수 테이블 기억부(444)에 기억시키는 탭 계수는 도 46에서의 경우와 상이한 것으로 할 필요가 있다.
그래서, 도 53은, 도 52의 계수 테이블 기억부(444)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(460B)의 구성예를 나타내고 있다. 또, 도면 중 도 50에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉 도 53에 나타내는 학습 장치(460B)는 양자화 회로(463)의 후단에, 역양자화 회로(481)가 새롭게 설치되어 있는 것 외에는, 도 50에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
도 53에 나타내는 학습 장치(460B)에서 역양자화 회로(481)에는 역양자화 회로(463)가 출력하는 양자화 DCT 계수와, 부가 정보로서의 양자화 테이블이 공급되도록 이루어져 있다. 그리고, 역양자화 회로(481)는 역양자화 회로(463)로부터의 양자화 DCT 계수를 마찬가지로 역양자화 회로(463)로부터의 양자화 테이블에 따라 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(464) 및 클래스 탭 추출 회로(465)에 공급한다.
따라서, 예측 탭 추출 회로(464)와 클래스 탭 추출 회로(465)에서는 양자화 DCT 계수가 아니라 DCT 계수를 대상으로 하여 예측 탭과 클래스 탭이 각각 구성되고, 이후에도 DCT 계수를 대상으로 하여, 도 50에서의 경우와 동일한 처리가 행해진다.
그 결과, DCT 계수가 양자화되고, 또한 역양자화됨으로써 생기는 양자화 오차의 영향을 저감시키는 탭 계수를 얻을 수 있게 된다.
이어서, 도 54는, 도 44의 계수 변환 회로(432)의 다른 구성예를 나타내고 있다. 또, 도면 중 도 46에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 52에 나타내는 계수 변환 회로(432C) 는 클래스 탭 추출 회로(442)가 설치되어 있지 않은 것 외에는 기본적으로 도 46에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 54에 나타내는 계수 변환 회로(432C)에서는 클래스 분류 회로(443)는 거기에 공급되는 부가 정보로서의 양자화 테이블에만 기초하여 클래스 분류를 행하고, 그 결과 얻어지는 부가 정보 클래스 코드를 그대로 최종적인 클래스 코드로서 계수 테이블 기억부(444)에 공급한다.
이 실시예에서는, 부가 정보 클래스 코드는 상술된 바와 같이 1 비트이며, 따라서 도 54의 계수 테이블 기억부(444)에는 2(=21) 클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
이와 같이, 도 54의 계수 변환 회로(432C)에서는 계수 테이블 기억부(444)에 기억되어 있는 탭 계수는 도 46에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 55는, 도 54의 계수 테이블 기억부(444)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(460C)의 구성예를 나타내고 있다. 또, 도면 중 도 50에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 55에 나타내는 학습 장치(460C)는 클래스 탭 추출 회로(465)가 설치되어 있지 않은 것 외에는 도 50에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 55의 학습 장치(460C)에서는 정규 방정식 가산 회로(467)에서, 부가 정보에만 기초하여 얻어지는 클래스마다 상술된 가산이 행해진다. 그리고, 탭 계수 결정 회로(468)에서, 그와 같은 가산에 의해 생성되는 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 도 56은, 도 44의 계수 변환 회로(432)의 다른 구성예를 나타내고 있다. 또, 도면 중, 도 46 또는 도 52에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여 그 설명을 적절하게 생략한다. 즉, 도 56에 나타내는 계수 변환 회로(432D)는 클래스 탭 추출 회로(442)가 설치되지 않고, 또한 역양자화 회로(471)가 새롭게 설치되어 있는 것 외에는 기본적으로 도 46에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 56에 나타내는 계수 변환 회로(432D)에서는, 도 54의 계수 변환 회로(432C)에서의 경우와 마찬가지로, 계수 테이블 기억부(444)에는 부가 정보로서의 양자화 테이블에만 기초하여 행해지는 클래스 분류에 의해 얻어지는 클래스의 탭 계수만이 기억되어 있고, 이것을 이용하여 처리가 행해진다.
또한, 도 56의 계수 변환 회로(432D)에서는, 도 52의 계수 변환 회로(432C)와 마찬가지로, 예측 탭 추출 회로(441)에서 양자화 DCT 계수가 아니라, 역양자화 회로(471)가 출력하는 DCT 계수를 대상으로 하여, 예측 탭이 구성되고, 이후에도 DCT 계수를 대상으로서 처리가 행해진다.
따라서, 도 56의 계수 변환 회로(432D)에서도 계수 테이블 기억부(444)에 기억되어 있는 탭 계수는, 도 46에서의 경우와 상이한 것으로 되어 있다.
그래서, 도 57은, 도 56의 계수 테이블 기억부(444)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(460D)의 구성예를 나타내고 있다. 또, 도면 중, 도 50 또는 도 53에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 57에 나타내는 학습 장치(460D)는 클래스 탭 추출 회로(465)가 설치되지 않고, 또한 역양자화 회로(481)가 새롭게 설치되어 있는 것 외에는 도 50에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 57의 학습 장치(460D)에서는 예측 탭 추출 회로(464)에서, 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여 예측 탭이 구성되며, 이후에도 DCT 계수를 대상으로 하여 처리가 행해진다. 또한, 정규 방정식 가산 회로(467)에 있어서, 부가 정보로서의 양자화 테이블에만 기초하여 상술된 가산이 행해지는 클래스 분류에 의해 얻어지는 클래스마다 행해지며, 탭 계수 결정 회로(468)에서 그와 같은 클래스마다의 정규 방정식을 풀어서, 탭 계수가 구해진다.
이어서, 이상에서는 정지 화상을 압축 부호화하는 JPEG 부호화된 화상을 대상으로 했지만, 본 발명은 동화상을 압축 부호화하는, 예를 들면 MPEG 부호화된 화상을 대상으로 할 수도 있다.
즉, 도 58은 MPEG 부호화가 행해지는 경우의 도 2의 인코더(421)의 구성예를 나타내고 있다.
이 도 58에 도시한 인코더(421)에 있어서, MPEG 부호화의 대상인 동화상을 구성하는 프레임 또는 필드는, 순차적으로 움직임 검출 회로(491)와 연산기(492)에 공급된다.
움직임 검출 회로(491)는 거기에 공급되는 프레임에 대하여, 매크로 블록 단위로 움직임 벡터를 검출하고, 엔트로피 부호화 회로(496) 및 움직임 보상 회로(500)에 공급한다.
연산기(492)는 거기에 공급되는 화상이 I 픽쳐이면 그대로 블록화 회로(493)에 공급하고, P 픽쳐 또는 B 픽쳐이면 움직임 보상 회로(500)로부터 공급되는 참조 화상과의 차분을 연산하여, 그 차분치를 블록화 회로(493)에 공급한다.
블록화 회로(493)는 연산기(492)의 출력을 8×8 화소의 화소 블록으로 블록화하고, DCT 회로(494)에 공급한다. DCT 회로(494)는 블록화 회로(493)로부터의 화소 블록을 DCT 처리하고, 그 결과 얻어지는 DCT 계수를 양자화 회로(495)에 공급한다. 양자화 회로(495)는 DCT 회로(493)로부터의 블록 단위의 DCT 계수를 소정의 양자화 테이블에 따라서 양자화하고, 그 결과 얻어진 양자화 DCT 계수를 이용한 양자화 테이블과 함께 엔트로피 부호화 회로(496)에 공급한다. 엔트로피 부호화 회로(496)는 양자화 회로(495)로부터의 양자화 DCT 계수를 엔트로피 부호화하고, 움직임 검출 회로(491)로부터의 움직임 벡터나 양자화 회로(495)로부터의 양자화 테이블, 그 밖의 필요한 정보를 부가하여, 그 결과 얻어지는 부호화 데이터를 MPEG 부호화 결과로서 출력한다.
양자화 회로(495)가 출력하는 양자화 DCT 계수 중, I 픽쳐 및 P 픽쳐는 후에 부호화되는 P 픽쳐나 B 픽쳐의 참조 화상으로서 이용하는데 로컬 디코드할 필요가 있기 때문에, 엔트로피 부호화 회로(496) 외에 역양자화 회로(497)에도 공급된다. 또한, 역양자화 회로(497)에는 양자화 회로(495)에서 이용된 양자화 테이블도 공급된다.
역양자화 회로(497)는 양자화 회로(495)로부터의 양자화 DCT 계수를 동일하 게 양자화 회로(495)로부터의 양자화 테이블에 따라서 역양자화함으로써 DCT 계수로 하고, 역 DCT 회로(498)에 공급한다. 역 DCT 회로(498)는 역양자화 회로(497)로부터의 DCT 계수를 역 DCT 처리하고, 연산기(499)로 출력한다. 연산기(499)에는 역 DCT 회로(498)의 출력 외에, 움직임 보상 회로(500)가 출력하는 참조 화상도 공급되도록 되어 있다. 연산기(499)는 역 DCT 회로(498)의 출력이 P 픽쳐인 경우에는 그 출력과 움직임 보상 회로(500)의 출력을 가산함으로써, 원래의 화상을 복호하고 움직임 보상 회로(500)에 공급한다. 또한, 연산기(499)는 역 DCT 회로(498)의 출력이 I 픽쳐인 경우에는 그 출력은 I 픽쳐의 복호 화상으로 되어 있기 때문에, 그대로 움직임 보상 회로(500)에 공급한다.
움직임 보상 회로(500)는 연산기(499)로부터 공급되는 로컬 디코드된 화상에 대하여, 움직임 검출 회로(491)로부터의 움직임 벡터에 따른 움직임 보상을 실시하고, 그 움직임 보상 후의 화상을 참조 화상으로서 연산기(492) 및 연산기(499)에 공급한다.
여기서, 이상과 같은 MPEG 부호화의 결과 얻어지는 부호화 데이터는 도 59에 도시한 바와 같은 구성의 MPEG 디코더(510)에 의해 복호할 수 있다.
도 59에 도시한 MPEG 디코더(510)에 있어서, 부호화 데이터는 엔트로피 복호 회로(511)에 공급되고, 엔트로피 복호 회로(511)는 부호화 데이터를 엔트로피 복호하고, 양자화 DCT 계수를 얻음과 함께, 그 부호화 데이터에 포함되는 움직임 벡터, 양자화 테이블, 그 밖의 필요한 정보를 분리한다. 그리고, 양자화 DCT 계수 및 양자화 테이블은 역양자화 회로(112)에 공급되고, 움직임 벡터는 움직임 보상 회로(516)에 공급된다.
역양자화 회로(112)는 엔트로피 복호 회로(511)로부터의 양자화 DCT 계수를 동일하게 엔트로피 복호 회로(511)로부터의 양자화 테이블에 따라서 역양자화함으로써 DCT 계수로 하고, 역 DCT 회로(513)에 공급한다. 역 DCT 회로(513)는 역양자화 회로(512)로부터의 DCT 계수를 역 DCT 처리하고, 연산기(514)에 출력한다. 연산기(514)에는 역양자화 회로(513)의 출력 외에, 움직임 보상 회로(516)가 출력하는 이미 복호된 I 픽쳐 또는 P 픽쳐를 엔트로피 복호 회로(511)로부터의 움직임 벡터에 따라서 움직임 보상한 것이 참조 화상으로서 공급되도록 되어 있다. 연산기(514)는 역 DCT 회로(513)의 출력이 P 픽쳐 또는 B 픽쳐인 경우에는 그 출력과 움직임 보상 회로(516)의 출력을 가산함으로써, 원래의 화상을 복호하고, 블록 분해 회로(515)에 공급한다. 또한, 연산기(514)는 역 DCT 회로(513)의 출력이 I 픽쳐인 경우에는 그 출력은 I 픽쳐의 복호 화상으로 되어 있기 때문에, 그대로 블록 분해 회로(515)로 공급한다.
블록 분해 회로(515)는 연산기(514)로부터 화소 블록 단위로 공급되는 복호 화상의 블록화를 분해시킴으로써 복호 화상을 얻어 출력한다.
한편, 움직임 보상 회로(516)는 연산기(514)가 출력하는 복호 화상 중 I 픽쳐와 P 픽쳐를 수신하고, 엔트로피 복호 회로(511)로부터의 움직임 벡터에 따른 움직임 보상을 실시한다. 그리고, 움직임 보상 회로(516)는 그 움직임 보상 후의 화상을 참조 화상으로서 연산기(514)에 공급한다.
그리고, 도 44의 디코더(422)에 따르면, MPEG 부호화된 부호화 데이터도 상 술된 바와 같이, 효율적으로 화질이 좋은 화상으로 복호할 수 있다.
즉, 부호화 데이터는 엔트로피 복호 회로(431)에 공급되며, 엔트로피 복호 회로(431)는 부호화 데이터를 엔트로피 복호하고, 양자화 DCT 계수를 얻음과 함께, 그 부호화 데이터에 포함되는 움직임 벡터, 양자화 테이블, 그 밖의 필요한 정보를 분리한다. 그리고, 양자화 DCT 계수는 엔트로피 복호 회로(431)로부터 계수 변환 회로(432D)에 공급되고, 양자화 테이블이나 움직임 벡터 등도 부가 정보로서 엔트로피 복호 회로(431)로부터 계수 변환 회로(432D)에 공급된다.
계수 변환 회로(432D)는 엔트로피 복호 회로(431)로부터의 양자화 DCT 계수 Q, 부가 정보 및 학습을 행함으로써 구해진 탭 계수를 이용하여 소정의 예측 연산을 행함과 함께, 엔트로피 복호 회로(431)로부터의 움직임 벡터에 따른 움직임 보상을 필요에 따라서 행함으로써, 양자화 DCT 계수를 원래의 화소값으로 복호하고, 블록 분해 회로(433)에 공급한다.
블록 분해 회로(433)는 계수 변환 회로(432D)에 있어서 얻어진 복호된 화소가 되는 화소 블록의 블록화를 분해시킴으로써 복호 화상을 얻어 출력한다.
다음에, 도 60은 디코더(22)에 있어서 MPEG 부호화된 부호화 데이터를 복호하는 경우의 도 44의 계수 변환 회로(432)의 구성예를 나타내고 있다. 또, 도 60 중, 도 56 또는 도 59에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서 그 설명을 적절하게 생략한다. 즉, 도 60에 도시한 계수 변환 회로(432E)는 곱의 합 연산 회로(445)의 후단에 도 59에서의 연산기(514) 및 움직임 보상 회로(516)가 설치되어 있는 것 외에, 도 56에서의 경우와 마찬가지로 구성되어 있 다.
따라서, 도 60의 계수 변환 회로(432E)에서는 도 56에서의 경우와 마찬가지의 처리가 도 59의 MPEG 디코더의 역 DCT 회로(513)에서의 역 DCT 처리를 대신하여 행해지고, 이후에는 도 59에서의 경우와 마찬가지로 하여 복호 화상이 얻어진다.
또, 도 60에 도시한 계수 변환 회로(432E)에서는 클래스 분류 회로(443)에 공급되는 부가 정보에는 양자화 테이블 외에, 움직임 벡터도 포함되고 있다. 따라서, 클래스 분류 회로(443)에서는 양자화 테이블 외에, 움직임 벡터에 기초하여 클래스 분류를 행하는 것이 가능하다. 움직임 벡터에 기초한 클래스 분류에서는, 예를 들면 움직임 벡터의 크기와 소정의 임계치와의 대소 관계를 나타내는 코드나 움직임 벡터의 x 성분, y 성분 각각과 소정의 임계치와의 대소 관계를 나타내는 코드 등을 클래스 코드로 하도록 할 수 있다.
다음에, 도 61은 도 60의 계수 테이블 기억부(444)에 기억시키는 탭 계수를 학습하는 학습 장치(460E)의 구성예를 나타내고 있다. 또, 도 61 중, 도 57에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다.
즉, 도 61에 도시한 학습 장치(460E)에 있어서, 움직임 벡터 검출 회로(521) 및 연산기(522)에는 학습용 화상이 교사 데이터로서 입력된다. 움직임 벡터 검출 회로(521), 연산기(522), 블록화 회로(523), DCT 회로(524), 양자화 회로(525), 역양자화 회로(527), 역 DCT 회로(528), 연산기(529) 또는 움직임 보상 회로(530)는 도 58의 움직임 벡터 검출 회로(491), 연산기(492), 블록화 회로(493), DCT 회로(494), 양자화 회로(495), 역양자화 회로(497), 역 DCT 회로(498), 연산기(499) 또는 움직임 보상 회로(500)와 각각 마찬가지의 처리를 행하고, 이에 따라 양자화 회로(525)로부터는 도 58의 양자화 회로(495)가 출력하는 것과 마찬가지의 양자화 DCT 계수와 양자화 테이블이 출력된다.
양자화 회로(525)가 출력하는 양자화 DCT 계수 및 양자화 테이블은, 역양자화 회로(481)에 공급되고, 역양자화 회로(481)는 양자화 회로(525)로부터의 양자화 DCT 계수를 동일하게 양자화 회로(525)로부터의 양자화 단계에 따라서 역양자화하여 DCT 계수로 변환하고, 예측 탭 추출 회로(464)에 공급한다. 예측 탭 추출 회로(464)는 역양자화 회로(481)로부터의 DCT 계수로부터 예측 탭을 구성하고, 정규 방정식 가산 회로(467)에 공급한다.
한편, 클래스 분류 회로(466)는 양자화 회로(525)가 출력하는 양자화 테이블에 기초하여 클래스 분류를 행한다. 또, 도 60의 클래스 분류 회로(443)가 양자화 테이블 및 움직임 벡터에 기초하여 클래스 분류를 행하는 경우에는 클래스 분류 회로(466)는 양자화 회로(525)가 출력하는 양자화 테이블과 움직임 벡터 검출 회로(521)가 출력하는 움직임 벡터에 기초하여 클래스 분류를 행한다.
클래스 분류 회로(466)에 의한 클래스 분류의 결과 얻어지는 클래스 코드는 정규 방정식 가산 회로(467)에 공급되고, 정규 방정식 가산 회로(467)는 연산기(522)의 출력을 교사 데이터로 함과 함께, 역양자화 회로(431)로부터의 예측 탭을 학생 데이터로서 상술한 바와 같은 가산을 클래스마다 행하고, 이에 따라 정규 방정식을 생성한다.
그리고, 탭 계수 결정 회로(468)는 정규 방정식 가산 회로(467)에서 생성된 클래스마다의 정규 방정식을 푸는 것으로, 클래스마다의 탭 계수를 구하고, 계수 테이블 기억부(469)에 공급하여 기억시킨다.
도 60의 곱의 합 연산 회로(445)에서는, 이와 같이 하여 구해진 클래스마다의 탭 계수를 이용하여, MPEG 부호화된 부호화 데이터가 복호되기 때문에, 역시 MPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리를 동시에 실시할 수 있고, 따라서 MPEG 부호화된 화상으로부터 효율적으로 화질이 좋은 복호 화상을 얻을 수 있다.
또, 도 60의 계수 변환 회로(432E)는 역양자화 회로(471)를 설치하지 않고 구성하는 것이 가능하다. 이 경우, 도 61의 학습 장치(460E)는 역양자화 회로(481)를 설치하지 않고 구성하면 된다.
또한, 도 60의 계수 변환 회로(432E)는 도 46에서의 경우와 마찬가지로, 클래스 탭 추출 회로(442)를 설치하며 구성하는 것이 가능하다. 이 경우, 도 61의 학습 장치(460E)는 도 50에서의 경우와 같이, 클래스 탭 추출 회로(465)를 설치하여 구성하면 된다.
또, 상술한 경우에 있어서는 부가 정보로서, 양자화 테이블이나 움직임 벡터를 이용하도록 하였지만, 부가 정보로서는 그 외에, DCT 계수를 원래대로 복귀시키는데 반드시 필요하지 않은 각 종 정보를 채용하는 것이 가능하다. 즉, 예를 들면 MPEG 부호화된 부호화 데이터에 대해서 말하면, 부가 정보로서는 양자화 테이블이나 움직임 벡터 외에 픽쳐 타입이나 매크로 블록 타입 등을 채용하는 것이 가능하 다.
이상과 같이, 본 발명에 따르면, 부가 정보에 기초하여 원래의 데이터 중 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하고, 학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중 주목 데이터의 클래스에 대응하는 탭 계수를 취득한다. 그리고, 변환 데이터 및 주목 데이터의 클래스에 대응하는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써 변환 데이터를 원래의 데이터로 효율적으로 복호할 수 있다.
또한, 본 발명에 따르면, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하고, 학생 데이터를 생성할 때에 이용한 소정의 부가 정보에 기초하여, 교사 데이터 중 주목하고 있는 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하여, 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고 클래스마다의 탭 계수를 구한다. 이와 같이 하여 구해진 계수를 이용함으로써, 직교 변환 또는 주파수 변환된 데이터를 효율적으로 복호하는 것이 가능해진다.
또한, 다음에 본 발명의 다른 실시예에 대하여 설명한다.
다음에 설명하는 실시예에서는, 상술한 도 2에 도시한 디코더(22)로서 도 62에 도시한 바와 같이 엔트로피 복호 회로(631), 계수 변환 회로(632) 및 블록 분해 회로(633)로 이루어지는 디코더(622)를 이용하여 부호화 데이터를 복호한다.
부호화 데이터는 엔트로피 복호 회로(631)에 공급되도록 되어 있다. 엔트로피 복호 회로(631)는 부호화 데이터를 엔트로피 복호하여, 그 결과 얻어지는 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(632)에 공급한다. 또, 부호화 데이터에는 엔트로피 부호화된 양자화 DCT 계수 외에 양자화 테이블도 포함된다.
계수 변환 회로(632)는 엔트로피 복호 회로(631)로부터의 양자화 DCT 계수 Q와, 후술하는 학습을 행함으로써 구해지는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 블록마다의 양자화 DCT 계수를 8×8 화소의 원래의 블록으로 복호한다.
블록 분해 회로(633)는 계수 변환 회로(632)에 있어서 얻어진 복호된 블록(복호 블록)의 블록화를 분해시킴으로써 복호 화상을 얻어 출력한다.
다음에, 도 63의 흐름도를 참조하여 도 62의 디코더(22)의 처리에 대하여 설명한다.
부호화 데이터는 엔트로피 복호 회로(631)에 순차 공급되고, 단계 S301에 있어서, 엔트로피 복호 회로(631)는 부호화 데이터를 엔트로피 복호하고, 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(632)에 공급한다. 계수 변환 회로(632)는 단계 S302에서 탭 계수를 이용한 예측 연산을 행함으로써, 엔트로피 복호 회로(631)로부터의 블록마다의 양자화 DCT 계수 Q를 블록마다의 화소값으로 복호하고, 블록 분해 회로(633)에 공급한다. 블록 분해 회로(633)는 단계 S303에서 계수 변환 회로(632)로부터의 화소값의 블록(복호 블록)의 블록화를 분해하는 블록 분해를 행하고, 그 결과 얻어지는 복호 화상을 출력하여 처리를 종료한다.
그리고, 이 도 62의 계수 변환 회로(632)에서는, 예를 들면 클래스 분류 적응 처리를 이용하여 양자화 DCT 계수를 화소값으로 복호한다.
도 64는 클래스 분류 적응 처리에 의해, 양자화 DCT 계수를 화소값으로 복호하는 도 62의 계수 변환 회로(632)의 구성예를 나타내고 있다.
이 도 64에 도시한 계수 변환 회로(632A)에서, 엔트로피 복호 회로(631)(도 62)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(641) 및 클래스 탭 추출 회로(642)에 공급되도록 되어 있다.
예측 탭 추출 회로(641)는 거기에 공급되는 양자화 DCT 계수의 블록(이하, 적절하게, DCT 블록이라 함)에 대응하는 화소값의 블록(이 화소값의 블록은 현 단계에서는 존재하지 않지만, 가상적으로 상정된다)(이하, 적절하게 화소 블록이라 함)을 순차 주목 화소 블록으로 하고, 또한 그 주목 화소 블록을 구성하는 각 화소를, 예를 들면 소위 래스터 스캔순으로 순차 주목 화소로 한다. 또한, 예측 탭 추출 회로(641)는 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고 예측 탭으로 한다.
즉, 예측 탭 추출 회로(641)는, 예를 들면 도 65A에 도시한 바와 같이, 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 모든 양자화 DCT 계수 즉 8×8의 64개의 양자화 DCT 계수를 예측 탭으로서 추출한다. 따라서, 이 실시예에서는 임의의 화소 블록의 모든 화소에 대하여 동일한 예측 탭이 구성된다. 단, 예측 탭은 주목 화소마다 다른 양자화 DCT 계수로 구성하는 것이 가능하다.
또, 예측 탭을 구성하는 양자화 DCT 계수는 상술한 패턴으로 한정되지는 않 는다.
예측 탭 추출 회로(641)에 있어서 얻어진 화소 블록을 구성하는 각 화소에 대한 예측 탭, 즉 64 화소 각각에 대한 64 세트의 예측 탭은 곱의 합 연산 회로(645)에 공급된다. 단, 이 실시예에서는 상술한 바와 같이 화소 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성되기 때문에, 실제로는 하나의 화소 블록에 대하여, 1 세트의 예측 탭을 곱의 합 연산 회로(645)에 공급하면 된다.
클래스 탭 추출 회로(642)는 주목 화소를 몇 개의 클래스 중 어느 하나로 분류하기 위한 클래스 분류에 이용하는 양자화 DCT 계수를 추출하여 클래스 탭으로 한다.
또, JPEG 부호화에서는 화상이 화소 블록마다 부호화(DCT 처리 및 양자화)되기 때문에, 임의의 화소 블록에 속하는 화소는, 예를 들면 전부 동일한 클래스로 클래스 분류하는 것으로 한다. 따라서, 클래스 탭 추출 회로(642)는 임의의 화소 블록의 각 화소에 대해서는 동일한 클래스 탭을 구성한다.
즉, 이 실시예에서는 클래스 탭 추출 회로(642)는, 예를 들면 도 65B에 도시한 바와 같이, 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록과 그 상하 좌우에 인접하는 4개의 DCT 블록의 합계로 5개의 DCT 블록의 320(=8×8×5)개의 양자화 DCT 계수를 클래스 탭으로서 추출한다.
여기서, 화소 블록에 속하는 각 화소를 전부 동일한 클래스로 클래스 분류한다고 하는 것은, 그 화소 블록을 클래스 분류하는 것과 등가이다. 따라서, 클래스 탭 추출 회로(642)에는 주목 화소 블록을 구성하는 64 화소 각각을 클래스 분류하 기 위한 64 세트의 클래스 탭이 아니라, 주목 화소 블록을 클래스 분류하기 위한 1 세트의 클래스 탭을 구성시키면 되고, 이 때문에 클래스 탭 추출 회로(642)는 화소 블록마다, 그 화소 블록을 클래스 분류하기 위해서, 그 화소 블록에 대응하는 DCT 블록과, 그 상하 좌우에 인접하는 4개의 DCT 블록의 양자화 DCT 계수를 추출하여 클래스 탭으로 하도록 되고 있다.
또, 클래스 탭을 구성하는 양자화 DCT 계수는 상술한 패턴에 한정되지는 않는다.
즉, JPEG 부호화에서는 8×8 화소의 화소 블록 단위로, DCT 및 양자화가 행해짐으로써, 8×8의 양자화 DCT 계수로 이루어지는 DCT 블록이 구성되므로 임의의 화소 블록의 화소를 클래스 분류 적응 처리에 의해서 복호하는 경우에는, 그 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수만을 클래스 탭으로서 이용하는 것이 상정된다.
그러나, 화상에 있어서는 임의의 화소 블록에 주목한 경우에, 그 화소 블록의 화소와, 그 주변의 화소 블록의 화소와의 사이에는 적지 않게 상관이 있는 것이 일반적이다. 따라서, 상술된 바와 같이, 임의의 화소 블록에 대응하는 DCT 블록뿐만아니라, 그 이외의 DCT 블록으로부터도 양자화 DCT 계수를 추출하여, 클래스 탭으로서 이용함으로써, 주목 화소를 보다 적절하게 클래스 분류하는 것이 가능해지고, 그 결과, 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수만을 클래스 탭으로서 이용하는 경우에 비교하여 복호 화상의 화질을 향상시키는 것이 가능해진다.
여기서, 상술한 경우에는 임의의 화소 블록에 대응하는 DCT 블록과, 그 상하 좌우에 인접하는 4개의 DCT 블록의 양자화 DCT 계수를 클래스 탭으로 하도록 하였지만, 클래스 탭으로 하는 양자화 DCT 계수는, 그 외에, 임의의 화소 블록에 대응하는 DCT 블록의 경사 방향으로 인접하는 DCT 블록이나 인접하지 않지만 주변에 있는 DCT 블록 등으로부터 추출하도록 해도 된다. 즉, 어떠한 범위의 DCT 블록으로부터 클래스 탭으로 하는 양자화 DCT 계수를 추출하는가는 특별히 한정되지는 않는다.
클래스 탭 추출 회로(642)에 있어서 얻어진 주목 화소 블록의 클래스 탭은 클래스 분류 회로(643)에 공급되도록 되어 있다. 클래스 분류 회로(643)는 클래스 탭 추출 회로(642)로부터의 클래스 탭에 기초하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스에 대응하는 클래스 코드를 출력한다.
여기서, 클래스 분류를 행하는 방법으로는, 예를 들면 ADRC 등을 채용할 수 있다.
ADRC를 이용하는 방법으로는, 클래스 탭을 구성하는 양자화 DCT 계수가 ADRC 처리되고, 그 결과 얻어지는 ADRC 코드에 따라서 주목 화소 블록의 클래스가 결정된다.
클래스 분류 회로(643)에 있어서는, 클래스 탭의 정보량을 상술한 ADRC 처리나 혹은 벡터 양자화 등에 의해 압축하고나서 클래스 분류를 행하는 것이 바람직하다.
그런데, 이 실시예에서는 클래스 탭은, 상술한 바와 같이 320개의 양자화 DCT 계수로 구성된다. 따라서, 예를 들면 가령 클래스 탭을 1 비트 ADRC 처리함으 로써 클래스 분류를 행하는 것으로 해도 클래스 코드의 경우의 수는 2320가지라는 방대한 값이 된다.
그래서, 이 실시예에서는 클래스 분류 회로(643)에 있어서, 클래스 탭을 구성하는 양자화 DCT 계수로부터 중요성이 높은 특징량을 추출하고, 그 특징량에 기초하여 클래스 분류를 행하는 것으로, 클래스 수를 저감하도록 되어 있다.
즉, 도 66은 도 64의 클래스 분류 회로(643)의 구성예를 나타내고 있다.
이 도 64에 도시한 클래스 분류 회로(643)에 있어서, 클래스 탭은 전력 연산 회로(651)에 공급되도록 되어 있다. 전력 연산 회로(651)는 클래스 탭을 구성하는 양자화 DCT 계수를 몇 개의 공간 주파수 대역으로 나누어서, 각 주파수 대역의 전력을 연산한다.
즉, 이 실시예에서는 클래스 탭은 도 65B에 도시한 바와 같이, 5개의 DCT 블록의 양자화 DCT 계수로 구성되지만, 전력 연산 회로(651)는 클래스 탭을 구성하는 각 DCT 블록의 8×8개의 양자화 DCT 계수를 예를 들면 도 8에 도시한 바와 같은 4개의 공간 주파수 대역 S0, S1, S2, S3으로 분할한다.
여기서, 하나의 DCT 블록의 8×8개의 양자화 DCT 계수 각각을 알파벳 x에 도 65A에 도시한 바와 같은 래스터 스캔순으로 0에서부터의 순차적인 정수를 붙여서 나타내는 것으로 하면, 공간 주파수 대역 S0은 4개의 양자화 DCT 계수 x0, x1 , x8, x9로 구성되고, 공간 주파수 대역 S1은 12개의 양자화 DCT 계수 x2, x3 , x4, x5, x6, x7, x10, x11, x12, x13, x14, x15 로 구성된다. 또한, 공간 주파수 대역 S2는 12개의 양자화 DCT 계수 x16, x17, x24, x25, x32, x33 , x40, x41, x48, x49, x56, x57로 구성되고, 공간 주파수 대역 S3은 36개의 양자화 DCT 계수 x18, x19, x20, x21, x22, x23, x26, x27, x28, x29, x30, x31, x34, x35, x36 , x37, x38, x39, x42, x43, x44, x45, x46, x47, x50, x51, x52, x53, x54, x55, x58 , x59, x60 , x61, x62, x63으로 구성된다.
또한, 전력 연산 회로(651)는 클래스 탭을 구성하는 5개의 DCT 블록 각각에 대하여, 그 공간 주파수 대역 S0, S1, S2, S3 각각에 관하여, 양자화 DCT 계수의 AC 성분의 전력 P0, P1, P2, P3을 연산하고 클래스 코드 생성 회로(652)에 출력한다.
즉, 전력 연산 회로(651)는 공간 주파수 대역 S0에 대해서는 상술한 4개의 양자화 DCT 계수 x0, x1, x8, x9 중 AC 성분 x1, x8, x9의 2승합 x1 2+ x8 2+x9 2를 구하고, 이것을 전력 P0으로서 클래스 코드 생성 회로(652)에 출력한다. 또한, 전력 연산 회로(651)는 공간 주파수 대역 S1에 대한 상술한 12개의 양자화 DCT 계수의 AC 성분, 즉 12개 모든 양자화 DCT 계수의 2승합을 구하고, 이것을 전력 P1로서 클래스 코드 생성 회로(652)에 출력한다. 또한, 전력 연산 회로(651)는 공간 주파수 대역 S2와 공간 주파수 대역 S3에 대해서도 공간 주파수 대역 S1에서의 경우와 마찬가지로 하여, 각각의 전력 P2와 전력 P3을 구하고 클래스 코드 생성 회로(652)로 출력한다.
클래스 코드 생성 회로(652)는 전력 연산 회로(651)로부터의 클래스 탭을 구성하는 5개의 DCT 블록 각각에 대한 전력 P0, P1, P2, P3을 임계치 테이블 기억부(653)에 기억된 대응하는 임계치 TH0, TH1, TH2, TH3과 각각 비교하고, 각각의 대소 관계에 기초하여 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(652)는 전력 P0과 임계치 TH0을 비교하고, 그 대소 관계를 나타내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(652)는 전력 P1과 임계치 TH1, 전력 P2 와 임계치 TH2, 전력 P3과 임계치 TH3을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다.
클래스 코드 생성 회로(652)는 클래스 탭을 구성하는 5개의 DCT 블록 각각에 대하여, 상술된 바와 같이 하여, 4개의 1 비트의 코드, 즉 합계로, 20 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(652)는 이 20 비트의 코드를 주목 화소 블록의 클래스를 나타내는 클래스 코드로서 출력한다. 이 경우, 주목 화소 블록은 220개의 클래스 중 어느 하나로 클래스 분류되게 된다.
임계치 테이블 기억부(653)는 공간 주파수 대역 S0 ∼ S3의 전력 P0 ∼ P3과 각각 비교하는 임계치 TH0 ∼ TH3을 기억하고 있다.
또, 상술한 경우에는 클래스 분류 처리에 양자화 DCT 계수의 DC 성분 x0이 이용되지는 않지만, 이 DC 성분 x0을 이용하여 클래스 분류 처리를 행하는 것도 가 능하다.
도 64로 되돌아가서, 이상과 같은 클래스 분류 회로(643)가 출력하는 클래스 코드는 계수 테이블 기억부(644)에 어드레스로서 제공된다.
계수 테이블 기억부(644)는 학습 처리가 행해짐으로써 얻어지는 탭 계수가 등록된 계수 테이블을 기억하고 있고, 클래스 분류 회로(643)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 탭 계수를 곱의 합 연산 회로(645)에 출력한다.
여기서, 이 실시예에서는 화소 블록이 클래스 분류되기 때문에, 주목 화소 블록에 대하여 하나의 클래스 코드가 얻어진다. 한편, 화소 블록은 이 실시예에서는 8×8 화소의 64 화소로 구성되기 때문에, 주목 화소 블록에 대하여 그것을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수가 필요하다. 따라서, 계수 테이블 기억부(644)에는 하나의 클래스 코드에 대응하는 어드레스에 대하여 64 세트의 탭 계수가 기억되어 있다.
곱의 합 연산 회로(645)는 예측 탭 추출 회로(641)가 출력하는 예측 탭과, 계수 테이블 기억부(644)가 출력하는 탭 계수를 취득하고, 그 예측 탭과 탭 계수를 이용하여, 상술한 수학식 1에 나타낸 선형 예측 연산(곱의 합 연산)을 행하고, 그 결과 얻어지는 주목 화소 블록의 8×8 화소의 화소값을 대응하는 DCT 블록의 복호 결과로서 블록 분해 회로(633)(도 62)에 출력한다.
여기서, 예측 탭 추출 회로(641)에 있어서는, 상술한 바와 같이, 주목 화소 블록의 각 화소가 순차 주목 화소로 되지만, 곱의 합 연산 회로(645)는 주목 화소 블록의 주목 화소로 되어 있는 화소의 위치에 대응한 동작 모드(이하, 적절하게, 화소 위치 모드라고 함)가 되어 처리를 행한다.
즉, 예를 들면 주목 화소 블록의 화소 중 래스터 스캔순으로 i번째의 화소를 pi로 나타내고, 화소 pi가 주목 화소로 되어 있는 경우, 곱의 합 연산 회로(645)는 화소 위치 모드 #i의 처리를 행한다.
구체적으로는, 상술한 바와 같이, 계수 테이블 기억부(644)는 주목 화소 블록을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수를 출력하지만, 그 중 화소 pi를 복호하기 위한 탭 계수의 세트를 Wi로 나타내면, 곱의 합 연산 회로(645)는 동작 모드가 화소 위치 모드 #i일 때에는 예측 탭과 64 세트의 탭 계수 중 세트 Wi를 이용하여 상술한 수학식 1의 곱의 합 연산을 행하고, 그 곱의 합 연산 결과를 화소 pi의 복호 결과로 한다.
다음에, 도 67의 흐름도를 참조하여, 도 64의 계수 변환 회로(632A)의 처리에 대하여 설명한다.
엔트로피 복호 회로(631)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(641) 및 클래스 탭 추출 회로(642)에 있어서 순차 수신되고, 예측 탭 추출 회로(641)는 거기에 공급되는 양자화 DCT 계수의 블록(DCT 블록)에 대응하는 화소 블록을 순차 주목 화소 블록으로 한다.
그리고, 클래스 탭 추출 회로(642)는 단계 S311에서, 거기에서 수신한 양자화 DCT 계수 중에서부터 주목 화소 블록을 클래스 분류하는데 이용하는 것, 즉 이 실시예에서는 주목 화소 블록에 대응하는 DCT 블록과 그 상하 좌우에 인접하는 4개의 DCT 블록과의 합계로 5개의 DCT 블록의 양자화 DCT 계수를 추출하여 클래스 탭을 구성하고 클래스 분류 회로(643)에 공급한다.
클래스 분류 회로(643)는 단계 S312에 있어서, 클래스 탭 추출 회로(642)로부터의 클래스 탭을 이용하여 주목 화소 블록을 클래스 분류하고, 그 결과 얻어진 클래스 코드를 계수 테이블 기억부(644)로 출력한다.
즉, 단계 S312에서는 도 68의 흐름도에 도시한 바와 같이, 우선 최초로, 단계 S321에서, 클래스 분류 회로(643)(도 66)의 전력 연산 회로(651)가 클래스 탭을 구성하는 5개의 DCT 블록 각각에 대하여 도 8에 도시한 4개의 공간 주파수 대역 S0 ∼ S3 각각의 전력 P0 ∼ P3을 연산한다. 이 전력 P0 ∼ P 3은 전력 연산 회로(651)로부터 클래스 코드 생성 회로(652)로 출력된다.
클래스 코드 생성 회로(652)는 단계 S322에서 임계치 테이블 기억부(653)로부터 임계치 TH0 ∼ TH3을 판독하고, 전력 연산 회로(651)로부터의 클래스 탭을 구성하는 5개의 DCT 블록의 전력 P0 ∼ P3 각각과 임계치 TH0 ∼ TH3 각각을 비교하고 각각의 대소 관계에 기초한 클래스 코드를 생성하여 리턴한다.
도 67로 되돌아가, 단계 S312에서 이상과 같이 하여 얻어지는 클래스 코드는 클래스 분류 회로(643)로부터 계수 테이블 기억부(644)에 대하여 어드레스로서 제공된다.
계수 테이블 기억부(644)는 클래스 분류 회로(643)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S313에서 그 어드레스에 기억되어 있는 64 세트의 탭 계수를 판독하고 곱의 합 연산 회로(645)에 출력한다.
그리고, 단계 S314로 진행하고 예측 탭 추출 회로(641)는 주목 화소 블록의 화소 중, 래스터 스캔순으로 또한 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고, 예측 탭으로서 구성한다. 이 예측 탭은 예측 탭 추출 회로(641)로부터 곱의 합 연산 회로(645)에 공급된다.
여기서, 이 실시예에서는 각 화소 블록마다, 그 화소 블록의 모든 화소에 대하여, 동일한 예측 탭이 구성되기 때문에, 실제로는 단계 S314의 처리는 주목 화소 블록에 대하여, 최초로 주목 화소로 되는 화소에 대해서만 행하면, 남은 63 화소에 대해서는 행할 필요가 없다.
곱의 합 연산 회로(645)는 단계 S315에서, 단계 S313에서 계수 테이블 기억부(644)가 출력하는 64 세트의 탭 계수 중, 주목 화소에 대한 화소 위치 모드에 대응하는 탭 계수의 세트를 취득하고, 그 탭 계수의 세트와, 단계 S314에서 예측 탭 추출 회로(641)로부터 공급되는 예측 탭을 이용하여 상술한 수학식 1에 나타낸 곱의 합 연산을 행하고, 주목 화소의 화소값의 복호치를 얻는다.
그리고, 단계 S316으로 진행하고, 예측 탭 추출 회로(641)는 주목 화소 블록의 모든 화소를 주목 화소로 하여 처리를 행하였는지의 여부를 판정한다. 단계 S316에서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 아직 처리를 행하지 않았다고 판정된 경우, 단계 S314로 되돌아가서, 예측 탭 추출 회로(641)는 주목 화소 블록의 화소 중, 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하여, 이하, 마찬가지의 처리를 반복한다.
또한, 단계 S316에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여 처리를 행하였다고 판정된 경우, 즉 주목 화소 블록의 모든 화소의 복호치가 얻어진 경우, 곱의 합 연산 회로(645)는 그 복호치로 구성되는 화소 블록(복호 블록)을 블록 분해 회로(633)(도 62)에 출력하고 처리를 종료한다.
또, 도 67의 흐름도에 따른 처리는 예측 탭 추출 회로(641)가 새로운 주목 화소 블록을 설정할 때마다 반복하여 행해진다.
다음에, 상술한 경우에는 클래스 분류 회로(643)에 있어서, 클래스 탭을 구성하는 5개의 DCT 블록 각각에 대하여, 동일한 공간 주파수 대역 S0 ∼ S3의 전력 P0 ∼ P3을 계산하고, 그 전력에 기초하여 클래스 분류를 행하도록 하였지만, 그 외에, 클래스 분류는, 예를 들면 클래스 탭을 구성하는 5개의 DCT 블록의 몇 개에 대하여, 다른 공간 주파수 대역의 전력을 계산하고, 그 전력에 기초하여 행하도록 하는 것도 가능하다.
즉, 예를 들면 도 69에 사선을 그려서 나타낸 바와 같이, 클래스 탭을 구성하는 5개의 DCT 블록 중, 주목 화소 블록에 대응하는 DCT 블록(이하, 적절하게 주목 DCT 블록이라 함)에 대해서는 수직 방향의 고주파수 대역의 전력 Pv 및 수평 방향의 고주파수 대역의 전력 Ph를, 주목 DCT 블록 상에 인접하는 DCT 블록에 대해서 는 수직 방향의 고주파수 대역의 전력 Pu를, 주목 DCT 블록 아래에 인접하는 DCT 블록에 대해서는 수직 방향의 고주파수 대역의 전력 Pd를, 주목 DCT 블록의 좌측 옆의 DCT 블록에 대해서는 수평 방향의 고주파수 대역의 전력 Pl을, 주목 DCT 블록의 우측 옆의 DCT 블록에 대해서는 수평 방향의 고주파수 대역의 전력 Pr을 각각 계산하고, 이들의 전력 Pv, Ph, Pu, Pd, Pl, Pr에 기초하여, 도 66 및 도 68에서 설명한 경우와 마찬가지로 하여 클래스 분류를 행하도록 하는 것이 가능하다.
이 경우, 도 66에 도시한 클래스 분류 회로(643)에서는, 도 67의 단계 S312에 있어서, 도 70에 도시한 바와 같은 처리가 행해진다.
즉, 우선 최초로, 단계 S331에 있어서, 클래스 분류 회로(643)(도 66)의 전력 연산 회로(651)가 클래스 탭을 구성하는 5개의 DCT 블록에 대하여, 도 69에서 설명한 바와 같은 각 주파수 대역의 전력 Pv, Ph, Pu, Pd, P l, Pr을 연산하고, 클래스 코드 생성 회로(652)로 출력한다.
클래스 코드 생성 회로(652)는 단계 S332에 있어서, 임계치 테이블 기억부(653)로부터 임계치를 판독한다. 또, 여기서는 임계치 테이블 기억부(653)에 전력 Pv, Ph, Pu, Pd, Pl, Pr 각각과 비교하기 위한 임계치 THv, THh, THu, THd, THl, THr이 기억되고 있는 것으로 한다.
클래스 코드 생성 회로(652)는 임계치 테이블 기억부(653)로부터 임계치 THv, THh, THu, THd, THl, THr을 판독하면, 각각을 전력 연산 회로(651)로부터의 전력 Pv, Ph, Pu, Pd, Pl, Pr 각각과 비교하고, 각각의 대소 관계에 기초한 6개의 1 비트를 얻는다. 그리고, 클래스 코드 생성 회로(652)는 그 6개의 1 비트의 코드로 이루어지는 6 비트의 코드를 클래스 코드로서 출력하고 리턴한다. 따라서, 이 경우, 주목 화소(주목 화소 블록)는 64(=26)개의 클래스 중 어느 하나로 클래스 분류되게 된다.
다음에, 이상에서는 클래스 탭으로서의 양자화 DCT 계수의 AC 성분을 클래스 분류에 이용하도록 하였지만, 클래스 분류는, 그 외에 양자화 DCT 계수의 DC 성분을 이용하여 행하는 것도 가능하다.
즉, 클래스 분류는, 예를 들면 도 71에 도시한 바와 같이, 주목 DCT 블록의 DC 성분 C0, 그 상하 좌우에 인접하는 DCT 블록 각각의 DC 성분 Cu, Cd, Cl, Cr을 이용하여 행하는 것이 가능하다.
이 경우, 도 64의 클래스 분류 회로(643)는, 예를 들면 도 72에 도시한 바와 같이 구성된다.
클래스 탭은 차분 연산 회로(751)에 공급되도록 되어 있다. 차분 연산 회로(751)는, 클래스 탭을 구성하는 5개의 DCT 블록 중, 주목 DCT 블록의 상하 좌우에 인접하는 DCT 블록의 DC 성분 Cu, Cd, Cl, Cr 각각과, 주목 DCT 블록의 DC 성분 C0과의 차분의 절대치 Du, Dd, Dl, Dr을 연산하고, 클래스 코드 생성 회로(752)에 공 급한다. 즉, 차분 연산 회로(751)는 다음의 수학식 9를 연산하고,
Figure 112002000485227-pct00017
그 연산 결과를 클래스 코드 생성 회로(752)에 공급한다.
클래스 코드 생성 회로(752)는 차분 연산 회로(751)로부터의 연산 결과(차분 절대치) Du, Dd, Dl, Dr을 임계치 테이블 기억부(753)에 기억된 대응하는 임계치 THu, THd, THl, THr과 각각 비교하고, 각각의 대소 관계에 기초하여 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(752)는 차분 절대치 Du와 임계치 THu를 비교하고, 그 대소 관계를 나타내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(752)는 차분 절대치 Dd와 임계치 THd, 차분 절대치 Dl과 임계치 THl, 차분 절대치 Dr과 임계치 THr을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다.
그리고, 클래스 코드 생성 회로(752)는, 이상과 같이 하여 얻어지는 4개의 1 비트의 코드를 예를 들면 소정의 순서로 배열함으로써 얻어지는 4 비트의 코드(따라서, 0 ∼ 15 중 어느 하나의 값)를 주목 화소 블록의 클래스를 나타내는 클래스 코드로서 출력한다. 따라서, 이 경우, 주목 화소 블록은 24(=16)개의 클래스 중 어 느 하나로 클래스 분류되게 된다.
임계치 테이블 기억부(753)는 차분 절대치 Du, Dd, Dl, Dr과 각각 비교하는 임계치 THu, THd, THl, THr을 기억하고 있다.
클래스 분류 회로(643)가 도 72에 도시한 바와 같이 구성되는 경우, 도 67의 단계 S312에서는 도 73에 도시한 바와 같은 처리가 행해진다.
즉, 이 경우, 우선 최초로, 단계 S341에 있어서, 차분 연산 회로(751)는 클래스 탭을 구성하는 5개의 DCT 블록 각각의 DC 성분 Co, Cu, Cd, Cl , Cr을 이용하여, 상술한 차분 절대치 Du, Dd, Dl, Dr을 연산하고, 클래스 코드 생성 회로(752)에 공급한다.
클래스 코드 생성 회로(752)는 단계 S342에서 임계치 테이블 기억부(753)에 기억된 임계치 THu, THd, THl, THr 각각과, 차분 연산 회로(751)로부터의 차분 절대치 Du, Dd, Dl, Dr 각각과 비교하고, 그 대소 관계를 나타내는 4개의 1 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(752)는 그 4개의 1 비트의 코드로 되는 4 비트의 코드를 클래스 코드로서 출력하고 리턴한다.
또, 클래스 분류는 양자화 DCT 계수의 AC 성분만, 또는 DC 성분만을 이용하여 행하는 것 외에, AC 성분 및 DC 성분의 양방을 이용하여 행하는 것도 가능하다. 즉, 클래스 분류의 방법은, 상술한 수법에 한정되지는 않는다.
여기서, 상기 도 64의 계수 테이블 기억부(644)에 기억시키는 탭 계수의 학 습 처리는, 상술한 도 16이나 도 18에 도시한 학습 장치(60C, 60D)에 의해 실행할 수 있다.
또한, 도 62의 계수 변환 회로(632)는 상술한 도 13과 마찬가지로 구성할 수 있다.
다음에, 도 74는 상기 계수 변환 회로(632)의 다른 구성예를 나타내고 있다. 또, 도 74 중, 도 64에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서 그 설명을 적절하게 생략한다. 즉, 도 74에 도시한 계수 변환 회로(632B)는 곱의 합 연산 회로(645)의 후단에, 역 DCT 회로(701)가 새롭게 설치되어 있는 것 외에는, 기본적으로 도 64에서의 경우와 마찬가지로 구성되어 있다.
역 DCT 회로(701)는 곱의 합 연산 회로(645)의 출력을 역 DCT 처리함으로써, 화상으로 복호하여 출력한다. 따라서, 도 74의 계수 변환 회로(632B)에서는 곱의 합 연산 회로(645)는 예측 탭 추출 회로(641)가 출력하는 예측 탭을 구성하는 양자화 DCT 계수와, 계수 테이블 기억부(644)에 기억된 탭 계수를 이용한 곱의 합 연산을 행함으로써 DCT 계수를 출력한다.
이와 같이, 도 74의 계수 변환 회로(632B)에서는 양자화 DCT 계수가 탭 계수와의 곱의 합 연산에 의해, 화소값으로 복호되지는 않고, DCT 계수로 변환되며, 또한 그 DCT 계수가 역 DCT 회로(701)에서 역 DCT됨으로써, 화소값으로 복호된다. 따라서, 계수 테이블 기억부(644)에 기억시키는 탭 계수는 도 64에서의 경우와 다르게 할 필요가 있다.
그래서, 도 75는 도 74의 계수 테이블 기억부(644)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(660B)의 구성예를 나타내고 있다. 또, 도 75 중, 도 16에서의 경우와 대응하는 부분에 대해서는 최상위 자릿수에 6을 붙인 동일 부호로써 나타내고, 그 설명을 적절하게 생략한다. 즉, 도 75에 도시한 학습 장치(660B)는 정규 방정식 가산 회로(667)에 대하여, 교사 데이터로서 학습용 화상의 화소값이 아니라, DCT 회로(662)가 출력되는 학습용 화상을 DCT 처리한 DCT 계수가 제공되도록 되어 있는 것 외에는 도 16에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 75에 도시한 학습 장치(660B)에서는 정규 방정식 가산 회로(667)가 DCT 회로(662)가 출력하는 DCT 계수를 교사 데이터로 함과 함께, 예측 탭 구성 회로(664)가 출력하는 예측 탭을 구성하는 양자화 DCT 계수를 학생 데이터로서 상술한 가산을 행한다. 그리고, 탭 계수 결정 회로(668)는 그와 같은 가산에 의해 얻어진 정규 방정식을 푸는 것으로, 탭 계수를 구한다. 그 결과, 도 75의 학습 장치(660B)에서는 양자화 DCT 계수를 양자화 회로(663)에서의 양자화에 의한 양자화 오차를 저감(억제)한 DCT 계수로 변환하는 탭 계수가 구해지게 된다.
도 74의 계수 변환 회로(632B)에서는, 곱의 합 연산 회로(645)가 상술한 바와 같은 탭 계수를 이용하여 곱의 합 연산을 행하기 때문에, 그 출력은 예측 탭 추출 회로(641)가 출력하는 양자화 DCT 계수를, 그 양자화 오차를 저감한 DCT 계수로 변환한 것으로 되어 있다. 따라서, 그와 같은 DCT 계수가 역 DCT 회로(701)에서 역 DCT됨으로써, 양자화 오차의 영향에 의한 화질의 열화를 저감한 복호 화상이 얻어지게 된다.
다음에, 도 76은 도 62의 계수 변환 회로(632)의 다른 구성예를 나타내고 있다. 또, 도 76 중, 도 64 또는 도 74에서의 경우와 대응하는 부분에 대해서는 동일 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 76에 도시한 계수 변환 회로(632C)는 도 18에서의 경우와 마찬가지로, 역양자화 회로(671)가 새롭게 설치되고, 또한 도 74에서의 경우와 마찬가지로, 역 DCT 회로(701)가 새롭게 설치되어 있는 것 외에는 도 64에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 76의 계수 변환 회로(632C)에서는 예측 탭 추출 회로(641)와 클래스 탭 추출 회로(642)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여, 예측 탭과 클래스 탭이 각각 구성된다. 또한, 도 76의 계수 변환 회로(632C)에서는 곱의 합 연산 회로(645)는 예측 탭 추출 회로(641)가 출력하는 예측 탭을 구성하는 DCT 계수와, 계수 테이블 기억부(644)에 기억된 탭 계수를 이용한 곱의 합 연산을 행함으로써, 양자화 오차를 저감한 DCT 계수를 얻어 역 DCT 회로(701)에 출력한다.
다음에, 도 77은 도 76의 계수 테이블 기억부(644)에 기억시키는 탭 계수의 학습 처리를 행하는 학습 장치(660C)의 구성예를 나타내고 있다. 또, 도 77 중, 도 75에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 77에 도시한 학습 장치(660C)는 도 19에서의 경우와 마찬가지로, 역양자화 회로(681)가 새롭게 설치되고, 또한 도 75에서의 경우와 마찬가지로, 정규 방정식 가산 회로(667)에 대하여, 교사 데이터로서, 학습용 화상의 화소값이 아니라, DCT 회로(662)가 출력하는 학습용 화상을 DCT 처리한 DCT 계수가 주어지게 되어 있는 것 외에는, 도 16에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 77의 학습 장치(660C)에서는 정규 방정식 가산 회로(667)가 DCT 회로(662)가 출력하는 DCT 계수, 즉 양자화 오차가 없는 DCT 계수를 교사 데이터로 함과 함께, 예측 탭 구성 회로(664)가 출력하는 예측 탭을 구성하는 DCT 계수 즉 양자화되어 역양자화된 DCT 계수를 학생 데이터로 하여, 상술한 가산을 행한다. 그리고, 탭 계수 결정 회로(668)는 그와 같은 가산에 의해 얻어지는 정규 방정식을 푸는 것으로, 탭 계수를 구한다. 그 결과, 도 77의 학습 장치(660C)에서는 양자화되고, 또한 역양자화된 DCT 계수를, 그 양자화 및 역양자화에 의한 양자화 오차를 저감한 DCT 계수로 변환하는 탭 계수가 구해지게 된다.
이상과 같이, 본 발명에 따르면, 주목 처리 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 변환 데이터를 적어도 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하고 클래스 탭으로 하고, 그 클래스 탭에 기초하여, 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하고, 주목 처리 데이터의 클래스의 탭 계수 및 변환 데이터를 이용하여, 소정의 예측 연산을 행함으로써, 주목 처리 데이터의 예측치를 구하기 때문에, 효율적으로 변환 데이터로부터 원하는 처리 데이터를 구할 수 있다.
또한, 본 발명에 따르면, 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 학생 데이터를 적어도 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하고, 클래스 탭으로 하고, 그 클래스 탭에 기초하여, 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행한다. 그리고, 클래 스마다의 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측치의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 클래스마다 구한다. 이와 같이 하여 구해진 탭 계수를 이용함으로써 효율적으로 직교 변환 또는 주파수 변환된 데이터로부터 원하는 데이터를 구하는 것이 가능해진다.
또한, 본 발명의 다른 실시예에 대하여 설명한다.
다음에 설명하는 실시예에서는 상술한 도 2에 도시한 디코더(22)로서 도 78에 도시한 바와 같이 엔트로피 복호 회로(831), 계수 변환 회로(832) 및 블록 분해 회로(833)로 이루어지는 디코더(822)를 이용하여 부호화 데이터를 복호한다.
부호화 데이터는 엔트로피 복호 회로(831)에 공급되도록 되어 있다. 엔트로피 복호 회로(831)는 부호화 데이터를 엔트로피 복호하고, 그 결과 얻어지는 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(832)에 공급한다. 또, 부호화 데이터에는 엔트로피 부호화된 양자화 DCT 계수 외에, 양자화 테이블도 포함되지만, 양자화 테이블은 필요에 따라 양자화 DCT 계수의 복호에 이용하는 것이 가능하다.
계수 변환 회로(832)는 엔트로피 복호 회로(831)로부터의 양자화 DCT 계수 Q와, 학습을 행함으로써 구해지는 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 블록마다의 양자화 DCT 계수를 8×8 화소의 원래의 블록으로 복호한다.
블록 분해 회로(833)는 계수 변환 회로(832)에 있어서 얻어진 복호된 블록(복호 블록)의 블록화를 분해시킴으로써 복호 화상을 얻어 출력한다.
다음에, 도 79의 흐름도를 참조하여, 도 78의 디코더(822)의 처리에 대하여 설명한다.
부호화 데이터는 엔트로피 복호 회로(831)에 순차 공급되며, 단계 S401에서 엔트로피 복호 회로(831)는 부호화 데이터를 엔트로피 복호하고, 블록마다의 양자화 DCT 계수 Q를 계수 변환 회로(832)에 공급한다. 계수 변환 회로(832)는 단계 S402에 있어서, 탭 계수를 이용한 예측 연산을 행함으로써, 엔트로피 복호 회로(831)로부터의 블록마다의 양자화 DCT 계수 Q를 블록마다의 화소값으로 복호하고, 블록 분해 회로(833)에 공급한다. 블록 분해 회로(833)는 단계 S403에 있어서, 계수 변환 회로(832)로부터의 화소값의 블록(복호 블록)의 블록화를 분해시키는 블록 분해를 행하고, 그 결과 얻어지는 복호 화상을 출력하여 처리를 종료한다.
이 도 78의 계수 변환 회로(832)에서는 클래스 분류 적응 처리를 이용하여 양자화 DCT 계수를 화소값으로 복호한다.
도 80은 클래스 분류 적응 처리에 의해, 양자화 DCT 계수를 화소값으로 복호하는 도 78의 계수 변환 회로(832)의 구성예를 나타내고 있다.
이 도 80에 도시한 계수 변환 회로(832A)에서 엔트로피 복호 회로(831)(도 78)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(841) 및 클래스 탭 추출 회로(842)에 공급되도록 되어 있다.
예측 탭 추출 회로(841)는 거기에 공급되는 양자화 DCT 계수의 블록(이하, 적절하게, DCT 블록이라 함)에 대응하는 화소값의 블록(이 화소값의 블록은 현 단계에서는 존재하지 않지만, 가상적으로 상정된다)(이하, 적절하게, 화소 블록이라 함)을 순차 주목 화소 블록으로 하고, 또한 그 주목 화소 블록을 구성하는 각 화소 를 예를 들면 소위 래스터 스캔순으로 순차 주목 화소로 한다. 또한, 예측 탭 추출 회로(841)는 패턴 테이블 기억부(846)의 패턴 테이블을 참조함으로써, 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고 예측 탭으로 한다.
즉, 패턴 테이블 기억부(846)는 주목 화소에 대한 예측 탭으로서 추출하는 양자화 DCT 계수의 주목 화소에 대한 위치 관계를 나타낸 패턴 정보가 등록되어 있는 패턴 테이블을 기억하고 있고, 예측 탭 추출 회로(841)는 그 패턴 정보에 기초하여, 양자화 DCT 계수를 추출하고 주목 화소에 대한 예측 탭을 구성한다.
예측 탭 추출 회로(841)는 8×8의 64 화소로 되는 화소 블록을 구성하는 각 화소에 대한 예측 탭, 즉 64 화소 각각에 대한 64 세트의 예측 탭을 상술된 바와 같이 하여 구성하고 곱의 합 연산 회로(845)에 공급한다.
클래스 탭 추출 회로(842)는 주목 화소를 몇 개의 클래스 중 어느 하나로 분류하기 위한 클래스 분류에 이용하는 양자화 DCT 계수를 추출하고, 클래스 탭으로 한다.
또, JPEG 부호화에서는 화상이 화소 블록마다 부호화(DCT 처리 및 양자화)되기 때문에 임의의 화소 블록에 속하는 화소는, 예를 들면 전부 동일한 클래스로 클래스 분류하는 것으로 한다. 따라서, 클래스 탭 추출 회로(842)는 임의의 화소 블록의 각 화소에 대해서는 동일한 클래스 탭을 구성한다. 즉, 클래스 탭 추출 회로(842)는, 예를 들면 상술한 도 6에 도시한 바와 같이 주목 화소가 속하는 화소 블록에 대응하는 DCT 블록의 모든 양자화 DCT 계수 즉 8×8의 64개의 양자화 DCT 계수를 클래스 탭으로서 추출한다. 단, 클래스 탭은 주목 화소마다 다른 양자화 DCT 계수로 구성하는 것이 가능하다.
여기서, 화소 블록에 속하는 각 화소를 전부 동일한 클래스로 클래스 분류하는 것은, 그 화소 블록을 클래스 분류하는 것과 등가이다. 따라서, 클래스 탭 추출 회로(842)에는 주목 화소 블록을 구성하는 64 화소 각각을 클래스 분류하기 위한 64 세트의 클래스 탭이 아니라 주목 화소 블록을 클래스 분류하기 위한 1 세트의 클래스 탭을 구성하면 되며, 이 때문에, 클래스 탭 추출 회로(842)는 화소 블록마다, 그 화소 블록을 클래스 분류하기 위해서, 그 화소 블록에 대응하는 DCT 블록의 64개의 양자화 DCT 계수를 추출하고 클래스 탭으로 하게 되어 있다.
또, 클래스 탭을 구성하는 양자화 DCT 계수는 상술한 패턴으로 한정되지는 않는다.
클래스 탭 추출 회로(842)에 있어서 얻어진 주목 화소 블록의 클래스 탭은 클래스 분류 회로(843)에 공급되도록 되어 있다. 클래스 분류 회로(843)는 클래스 탭 추출 회로(842)로부터의 클래스 탭에 기초하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스에 대응하는 클래스 코드를 출력한다.
여기서, 클래스 분류를 행하는 방법으로는, 예를 들면 ADRC 등을 채용할 수 있다.
ADRC를 이용하는 방법으로는, 클래스 탭을 구성하는 양자화 DCT 계수가 ADRC 처리되며, 그 결과 얻어지는 ADRC 코드에 따라서 주목 화소 블록의 클래스가 결정된다.
이 클래스 분류 회로(843)에서는, 클래스 탭의 정보량을 상술한 ADRC 처리나 혹은 벡터 양자화 등에 의해 압축하고나서 클래스 분류를 행하는 것이 바람직하다.
그래서, 본 실시예에서는 클래스 분류 회로(843)에 있어서, 클래스 탭을 구성하는 양자화 DCT 계수로부터 중요성이 높은 특징량을 추출하고, 그 특징량에 기초하여 클래스 분류를 행하는 것으로, 클래스수를 저감하도록 되어 있다.
즉, 도 81은 도 80의 클래스 분류 회로(843)의 구성예를 나타내고 있다.
클래스 탭은 전력 연산 회로(851)에 공급되도록 되어 있다. 전력 연산 회로(851)는 클래스 탭을 구성하는 양자화 DCT 계수를 몇 개의 공간 주파수 대역으로 나누어서 각 주파수 대역의 전력을 연산한다.
즉, 전력 연산 회로(851)는 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술한 도 6에 도시한 바와 같은 4개의 공간 주파수 대역 S0, S1, S2, S3으로 분할한다. 여기서, 공간 주파수 대역 S0은 4개의 양자화 DCT 계수 x0, x1, x8, x9로 구성되고, 공간 주파수 대역 S1은 12개의 양자화 DCT 계수 x2, x3, x4 , x5, x6, x7, x10, x11, x12, x13, x14, x15로 구성된다. 또한, 공간 주파수 대역 S2는 12개의 양자화 DCT 계수 x16, x17, x24, x25, x32, x33 , x40, x41, x48, x49, x56, x57로 구성되고, 공간 주파수 대역 S3은 36개의 양자화 DCT 계수 x18, x19, x20, x21, x22, x23, x26, x27, x28, x29, x30, x31, x34, x35, x36 , x37, x38, x39, x42, x43, x44, x45, x46, x47, x50, x51, x52, x53, x54, x55, x58, x59, x60 , x61, x62, x63으로 구성된다.
또한, 전력 연산 회로(851)는 공간 주파수 대역 S0, S1, S2, S3 각각에 대하여, 양자화 DCT 계수의 AC 성분의 전력 P0, P1, P2, P3을 연산하고 클래스 코드 생성 회로(852)에 출력한다.
즉, 전력 연산 회로(851)는 공간 주파수 대역 S0에 대해서는 상술한 4개의 양자화 DCT 계수 x0, x1, x8, x9 중 AC 성분 x1, x8, x9의 2승합 x1 2+x8 2+x9 2를 구하고, 이것을 전력 p0으로서 클래스 코드 생성 회로(852)에 출력한다. 또한, 전력 연산 회로(851)는 공간 주파수 대역 S1에 대한 상술한 12개의 양자화 DCT 계수의 AC 성분, 즉 12개 모든 양자화 DCT 계수의 2승합을 구하고, 이것을 전력 P1로서 클래스 코드 생성 회로(852)에 출력한다. 또한, 전력 연산 회로(851)는 공간 주파수 대역 S2와 공간 주파수 대역 S3에 대해서도, 공간 주파수 대역 S1에서의 경우와 마찬가지로 하여, 각각의 전력 P2와 전력 P3을 구하고 클래스 코드 생성 회로(852)에 출력한다.
클래스 코드 생성 회로(852)는 전력 연산 회로(851)로부터의 전력 P0, P1, P2, P3을 임계치 테이블 기억부(853)에 기억된 대응하는 임계치 TH0, TH 1, TH2, TH3과 각각 비교하고, 각각의 대소 관계에 기초하여 클래스 코드를 출력한다. 즉, 클래스 코드 생성 회로(852)는 전력 P0와 임계치 TH0을 비교하고, 그 대소 관계를 나타 내는 1 비트의 코드를 얻는다. 마찬가지로, 클래스 코드 생성 회로(852)는 전력 P1과 임계치 TH1, 전력 P2와 임계치 TH2, 전력 P3과 임계치 TH3을 각각 비교함으로써, 각각에 대하여 1 비트의 코드를 얻는다. 그리고, 클래스 코드 생성 회로(852)는 이상과 같이 하여 얻어지는 4개의 1 비트의 코드를 예를 들면 소정의 순서로 배열함으로써 얻어지는 4 비트의 코드(따라서, 0 ∼ 15 중 어느 하나의 값)를 주목 화소 블록의 클래스를 나타내는 클래스 코드로서 출력한다. 따라서, 본 실시예에서는, 주목 화소 블록은 24(=16)개의 클래스 중 어느 하나로 클래스 분류되게 된다.
임계치 테이블 기억부(853)는 공간 주파수 대역 S0 ∼ S3의 전력 P0 ∼ P3과 각각 비교하는 임계치 TH0 ∼ TH3을 기억하고 있다.
또, 상술한 경우에는 클래스 분류 처리에, 양자화 DCT 계수의 DC 성분 x0이 이용되지만, 이 DC 성분 x0을 이용하여 클래스 분류 처리를 행하는 것도 가능하다.
도 80으로 되돌아가서, 이상과 같은 클래스 분류 회로(843)가 출력하는 클래스 코드는 계수 테이블 기억부(844) 및 패턴 테이블 기억부(846)에 어드레스로서 제공된다.
계수 테이블 기억부(844)는 후술한 바와 같은 탭 계수의 학습 처리가 행해짐으로써 얻어지는 탭 계수가 등록된 계수 테이블을 기억하고 있고, 클래스 분류 회로(843)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 탭 계수를 곱의 합 연산 회로(845)에 출력한다.
여기서, 본 실시예에서는, 화소 블록이 클래스 분류되기 때문에 주목 화소 블록에 대하여, 하나의 클래스 코드가 얻어진다. 한편, 화소 블록은 본 실시예에서는, 8×8 화소의 64 화소로 구성되므로 주목 화소 블록에 대하여, 그것을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수가 필요하다. 따라서, 계수 테이블 기억부(844)에는 하나의 클래스 코드에 대응하는 어드레스에 대하여 64 세트의 탭 계수가 기억되어 있다.
곱의 합 연산 회로(845)는, 예측 탭 추출 회로(841)가 출력하는 예측 탭과, 계수 테이블 기억부(844)가 출력하는 탭 계수를 취득하고, 그 예측 탭과 탭 계수를 이용하여, 상술한 수학식 1에 나타낸 선형 예측 연산(곱의 합 연산)을 행하고, 그 결과 얻어지는 주목 화소 블록의 8×8 화소의 화소값을 대응하는 DCT 블록의 복호 결과로서 블록 분해 회로(833)(도 78)로 출력한다.
여기서, 예측 탭 추출 회로(841)에 있어서는, 상술한 바와 같이, 주목 화소 블록의 각 화소가 순차 주목 화소로 되지만, 곱의 합 연산 회로(845)는 주목 화소 블록의 주목 화소로 되어 있는 화소의 위치에 대응한 동작 모드(이하, 적절하게, 화소 위치 모드라 함)로 되어 처리를 행한다.
즉, 예를 들면 주목 화소 블록의 화소 중 래스터 스캔순으로 i번째의 화소를 pi로 나타내고, 화소 pi가 주목 화소로 되어 있는 경우, 곱의 합 연산 회로(845)는 화소 위치 모드 #i의 처리를 행한다.
구체적으로는, 상술한 바와 같이, 계수 테이블 기억부(844)는 주목 화소 블 록을 구성하는 64 화소 각각을 복호하기 위한 64 세트의 탭 계수를 출력하지만, 그 중 화소 pi를 복호하기 위한 탭 계수의 세트를 Wi로 나타내면, 곱의 합 연산 회로(845)는 동작 모드가 화소 위치 모드 #i일 때에는 예측 탭과 64 세트의 탭 계수 중 세트 Wi를 이용하여, 상술한 수학식 1의 곱의 합 연산을 행하고, 그 곱의 합 연산 결과를 화소 pi의 복호 결과로 한다.
패턴 테이블 기억부(846)는 후술하는 양자화 DCT 계수의 추출 패턴을 나타내는 패턴 정보의 학습 처리가 행해짐으로써 얻어지는 패턴 정보가 등록된 패턴 테이블을 기억하고 있고, 클래스 분류 회로(843)가 출력하는 클래스 코드에 대응하는 어드레스에 기억되어 있는 패턴 정보를 예측 탭 추출 회로(841)에 출력한다.
여기서, 패턴 테이블 기억부(846)에 있어서도, 계수 테이블 기억부(844)에 대하여 설명한 것과 마찬가지의 이유로부터, 하나의 클래스 코드에 대응하는 어드레스에 대하여 64 세트의 패턴 정보(각 화소 위치 모드마다의 패턴 정보)가 기억되어 있다.
다음에, 도 82의 흐름도를 참조하여 도 80의 계수 변환 회로(832A)의 처리에 대하여 설명한다.
엔트로피 복호 회로(831)가 출력하는 블록마다의 양자화 DCT 계수는 예측 탭 추출 회로(841) 및 클래스 탭 추출 회로(842)에 있어서 순차 수신되고, 예측 탭 추출 회로(841)는 거기에 공급되는 양자화 DCT 계수의 블록(DCT 블록)에 대응하는 화소 블록을 순차 주목 화소 블록으로 한다.
그리고, 클래스 탭 추출 회로(842)는, 단계 S411에 있어서, 거기서 수신한 양자화 DCT 계수 중에서 주목 화소 블록을 클래스 분류하는데 이용하는 것을 추출하여, 클래스 탭을 구성하고, 클래스 분류 회로(843)에 공급한다.
클래스 분류 회로(843)는, 단계 S412에 있어서, 클래스 탭 추출 회로(842)로부터의 클래스 탭을 이용하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 계수 테이블 기억부(844) 및 패턴 테이블 기억부(846)로 출력한다.
즉, 단계 S412에서는 도 83의 흐름도에 도시한 바와 같이, 우선 최초로, 단계 S421에 있어서, 클래스 분류 회로(843)(도 81)의 전력 연산 회로(851)가 클래스 탭을 구성하는 8×8개의 양자화 DCT 계수를 상술한 도 6에 도시한 4개의 공간 주파수 대역 S0 ∼ S3으로 분할하고, 각각의 전력 P0 ∼ P3을 연산한다. 이 전력 P0 ∼ P3은 전력 연산 회로(851)로부터 클래스 코드 생성 회로(852)에 출력된다.
클래스 코드 생성 회로(852)는 단계 S422에서, 임계치 테이블 기억부(853)로부터 임계치 TH0 ∼ TH3을 판독하고, 전력 연산 회로(851)로부터의 전력 P0 ∼ P3 각각과, 임계치 TH0 ∼ TH3 각각을 비교하여, 각각의 대소 관계에 기초한 클래스 코드를 생성하여 리턴한다.
도 82로 되돌아가서, 단계 S412에 있어서 이상과 같이 하여 얻어지는 클래스 코드는 클래스 분류 회로(843)로부터 계수 테이블 기억부(844) 및 패턴 테이블 기억부(846)에 대하여 어드레스로서 주어진다.
계수 테이블 기억부(844)는 클래스 분류 회로(843)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S413에 있어서, 그 어드레스에 기억되어 있는 64 세트의 탭 계수를 판독하고, 곱의 합 연산 회로(845)에 출력한다. 또한, 패턴 테이블 기억부(846)도 클래스 분류 회로(843)로부터의 어드레스로서의 클래스 코드를 수신하면, 단계 S413에 있어서, 그 어드레스에 기억되어 있는 64 세트의 패턴 정보를 판독하고 예측 탭 추출 회로(841)에 출력한다.
그리고, 단계 S414로 진행하여, 예측 탭 추출 회로(841)는 주목 화소 블록의 화소 중, 래스터 스캔 순으로, 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 그 주목 화소의 화소 위치 모드에 대응하는 패턴 정보에 따라서, 그 주목 화소의 화소값을 예측하는데 이용하는 양자화 DCT 계수를 추출하고, 예측 탭으로서 구성한다. 이 예측 탭은 예측 탭 추출 회로(841)로부터 곱의 합 연산 회로(845)에 공급된다.
곱의 합 연산 회로(845)는 단계 S415에 있어서, 단계 S413에서 계수 테이블 기억부(844)가 출력하는 64 세트의 탭 계수 중, 주목 화소에 대한 화소 위치 모드에 대응하는 탭 계수의 세트를 취득하고, 그 탭 계수의 세트와, 단계 S414에서 예측 탭 추출 회로(841)로부터 공급된 예측 탭을 이용하여, 상술한 수학식 1에 도시한 곱의 합 연산을 행하고, 주목 화소의 화소값의 복호치를 얻는다.
그리고, 단계 S416으로 진행하고, 예측 탭 추출 회로(841)는 주목 화소 블록의 모든 화소를 주목 화소로 하여 처리를 행했는지의 여부를 판정한다. 단계 S416에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 아직 처리를 행하지 않았다고 판정된 경우, 단계 S414로 되돌아가서, 예측 탭 추출 회로(841)는 주목 화소 블록의 화소 중, 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하여 이하 마찬가지의 처리를 반복한다.
또한, 단계 S416에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여 처리를 행하였다고 판정된 경우, 즉 주목 화소 블록의 모든 화소의 복호치가 얻어진 경우, 곱의 합 연산 회로(845)는 그 복호치로 구성되는 화소 블록(복호 블록)을 블록 분해 회로(833)(도 78)로 출력하고 처리를 종료한다.
또, 도 82의 흐름도에 따른 처리는 예측 탭 추출 회로(841)가 새로운 주목 화소 블록을 설정할 때마다 반복하여 행해진다.
다음에, 도 84는 도 80의 계수 테이블 기억부(844)에 기억시키는 탭 계수의 학습 처리를 행하는 탭 계수 학습 장치(860A)의 구성예를 나타내고 있다.
블록화 회로(861)에는 1매 이상의 학습용 화상 데이터가 학습 시의 교사가 되는 교사 데이터로서 공급되도록 되어 있다. 블록화 회로(861)는 교사 데이터로서의 화상을 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화한다.
DCT 회로(862)는 블록화 회로(861)가 블록화한 화소 블록을 순차 주목 화소 블록으로서 판독하고, 그 주목 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 한다. 이 DCT 계수의 블록은 양자화 회로(863)에 공급된다.
양자화 회로(863)는 DCT 회로(862)로부터의 DCT 계수의 블록을 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하고, 그 결과 얻어지는 양 자화 DCT 계수의 블록(DCT 블록)을 예측 탭 추출 회로(864) 및 클래스 탭 추출 회로(865)에 순차 공급한다.
예측 탭 추출 회로(864)는 주목 화소 블록의 화소 중 래스터 캔순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여 그 주목 화소에 대하여, 패턴 테이블 기억부(870)로부터 판독되는 패턴 정보를 참조함으로써, 도 80의 예측 탭 추출 회로(841)가 구성하는 것과 동일한 예측 탭을,양자화 회로(863)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 이 예측 탭은 학습 시에 학생이 되는 학생 데이터로서 예측 탭 추출 회로(864)로부터 정규 방정식 가산 회로(867)에 공급된다.
클래스 탭 추출 회로(865)는 주목 화소 블록에 대하여, 양자화 회로(863)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써, 도 80의 클래스 탭 추출 회로(842)가 구성하는 것과 동일한 클래스 탭을 구성한다. 이 클래스 탭은 클래스 탭 추출 회로(865)로부터 클래스 분류 회로(866)에 공급된다.
클래스 분류 회로(866)는 클래스 탭 추출 회로(865)로부터의 클래스 탭을 이용하여, 도 80의 클래스 분류 회로(843)와 동일한 처리를 행하는 것으로, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(867) 및 패턴 테이블 기억부(870)에 공급한다.
정규 방정식 가산 회로(867)는 블록화 회로(861)로부터 교사 데이터로서의 주목 화소의 화소값을 판독하고, 예측 탭 구성 회로(864)로부터의 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 주목 화소를 대상으로 한 가산을 행한 다.
즉, 정규 방정식 가산 회로(867)는 클래스 분류 회로(866)로부터 공급되는 클래스 코드에 대응하는 클래스마다 예측 탭(학생 데이터)을 이용하여, 상술한 수학식 8의 행렬 A에서의 각 컴포넌트로 되어 있는 학생 데이터끼리의 승산(XinXim)과, 서메이션(Σ)에 상당하는 연산을 행한다.
또한, 정규 방정식 가산 회로(867)는 역시 클래스 분류 회로(866)로부터 공급되는 클래스 코드에 대응하는 클래스마다 예측 탭(학생 데이터) 및 주목 화소(교사 데이터)를 이용하여, 상술한 수학식 8의 벡터 v에서의 각 컴포넌트로 되어 있는 학생 데이터와 교사 데이터의 승산(xinyi)과, 합계(Σ)에 상당하는 연산을 행한다.
또, 정규 방정식 가산 회로(867)에서의 상술한 바와 같은 가산은 각 클래스에 대하여, 주목 화소에 대한 화소 위치 모드마다 행해진다.
정규 방정식 가산 회로(867)는 블록화 회로(861)에 공급된 교사 화상을 구성하는 화소 전부를 주목 화소로서 이상의 가산을 행하고, 이에 따라 각 클래스에 대하여, 화소 위치 모드마다 상술한 수학식 8에 도시한 정규 방정식이 성립된다.
탭 계수 결정 회로(868)는 정규 방정식 가산 회로(867)에 있어서 클래스마다, 또한 화소 위치 모드마다 생성된 정규 방정식을 푸는 것에 의해, 클래스마다, 64 세트의 탭 계수를 구하며, 계수 테이블 기억부(869)의 각 클래스에 대응하는 어드레스에 공급한다.
또, 학습용 화상으로서 준비하는 화상의 매수나 그 화상의 내용 등에 의해서 는, 정규 방정식 가산 회로(867)에 있어서, 탭 계수를 구하는데 필요한 수의 정규 방정식이 얻어지지 않은 클래스가 생기는 경우가 있을 수 있지만, 탭 계수 결정 회로(868)는 그와 같은 클래스에 대해서는, 예를 들면 디폴트의 탭 계수를 출력한다.
계수 테이블 기억부(869)는 탭 계수 결정 회로(868)로부터 공급되는 클래스마다의 64 세트의 탭 계수를 기억한다.
패턴 테이블 기억부(870)는 도 80의 패턴 테이블 기억부(846)가 기억하고 있는 것과 동일한 패턴 테이블을 기억하고 있고, 클래스 분류 회로(866)로부터의 클래스 코드에 대응하는 어드레스에 기억되어 있는 64 세트의 패턴 정보를 판독하며, 예측 탭 추출 회로(864)에 공급한다.
다음에, 도 85의 흐름도를 참조하여 도 84의 탭 계수 학습 장치(860A)의 처리(학습 처리)에 대하여 설명한다.
블록화 회로(861)에는 학습용 화상 데이터가 교사 데이터로서 공급되고, 블록화 회로(861)는 단계 S431에 있어서, 교사 데이터로서의 화상 데이터를 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화하여 단계 S432로 진행한다. 단계 S432에서는 DCT 회로(862)가, 블록화 회로(861)가 블록화한 화소 블록을 순차 판독하고, 그 주목 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 하고, 단계 S433으로 진행한다. 단계 S433에서는 양자화 회로(863)가 DCT 회로(862)에서 얻어진 DCT 계수의 블록을 순차 판독하고, JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하여, 양자화 DCT 계수로 구성되는 블록(DCT 블록)으로 한다.
그리고, 단계 S434로 진행하고, 클래스 탭 추출 회로(865)는 블록화 회로(861)에서 블록화된 화소 블록 중, 아직 주목 화소 블록으로 되어 있지 않은 것을 주목 화소 블록으로 한다. 또한, 클래스 탭 추출 회로(865)는 주목 화소 블록을 클래스 분류하는데 이용하는 양자화 DCT 계수를 양자화 회로(863)에서 얻어진 DCT 블록으로부터 추출하고 클래스 탭을 구성하고, 클래스 분류 회로(866)에 공급한다. 클래스 분류 회로(866)는 단계 S435에 있어서, 도 83의 흐름도에서 설명한 경우와 마찬가지로, 클래스 탭 추출 회로(865)로부터의 클래스 탭을 이용하여 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 정규 방정식 가산 회로(867) 및 패턴 테이블 기억부(870)에 공급하고, 단계 S436으로 진행한다.
이에 따라, 패턴 테이블 기억부(870)는 클래스 분류 회로(866)로부터의 클래스 코드에 대응하는 어드레스에 기억된 64 세트의 패턴 정보를 판독하여, 예측 탭 추출 회로(864)에 공급한다.
단계 S436에서는, 예측 탭 추출 회로(864)가 주목 화소 블록의 화소 중 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하고, 패턴 테이블 기억부(870)로부터의 64 세트의 패턴 정보 중 주목 화소의 화소 위치 모드에 대응하는 것에 따라, 도 80의 예측 탭 추출 회로(841)가 구성하는 것과 동일한 예측 탭을 양자화 회로(863)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 구성한다. 그리고, 예측 탭 추출 회로(864)는 주목 화소에 대한 예측 탭을 학생 데이터로 하여, 정규 방정식 가산 회로(867)에 공급하고, 단계 S437로 진행한다.
단계 S437에서는 정규 방정식 가산 회로(867)는 블록화 회로(861)로부터, 교사 데이터로서의 주목 화소를 판독하고, 학생 데이터로서의 예측 탭을 구성하는 양자화 DCT 계수 및 교사 데이터로서의 주목 화소를 대상으로 하여, 상술한 수학식 8의 행렬 A와 벡터 v의 상술한 바와 같은 가산을 행한다. 또, 이 가산은 클래스 분류 회로(866)로부터의 클래스 코드에 대응하는 클래스마다, 또한 주목 화소에 대한 화소 위치 모드마다 행해진다.
그리고, 단계 S438로 진행하고, 예측 탭 추출 회로(864)는 주목 화소 블록의 모든 화소를 주목 화소로 하여 가산을 행할지의 여부를 판정한다. 단계 S438에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 아직 가산을 행하지 않는다고 판정된 경우, 단계 S436으로 되돌아가서, 예측 탭 추출 회로(864)는 주목 화소 블록의 화소 중, 래스터 스캔 순으로 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하고, 이하 마찬가지의 처리를 반복한다.
또한, 단계 S438에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 가산을 행하였다고 판정된 경우, 단계 S439로 진행하고, 블록화 회로(861)는 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 처리를 행하였는지의 여부를 판정한다. 단계 S439에서, 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 아직 처리를 행하지 않는다고 판정된 경우, 단계 S434로 되돌아가서 블록화 회로(861)에서 블록화된 화소 블록 중, 아직 주목 화소 블록으로 되어 있지 않은 것이 새롭게 주목 화소 블록으로 되고, 이하 마찬가지의 처리가 반복된다.
한편, 단계 S439에 있어서, 교사 데이터로서의 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 처리를 행하였다고 판정된 경우, 즉, 예를 들면 정규 방정식 가산 회로(867)에 있어서, 각 클래스에 대하여 화소 위치 모드마다의 정규 방정식이 얻어진 경우, 단계 S440으로 진행하고, 탭 계수 결정 회로(868)는 각 클래스의 화소 위치 모드마다 생성된 정규 방정식을 푸는 것에 의해, 각 클래스마다 그 클래스의 64의 화소 위치 모드 각각에 대응하는 64 세트의 탭 계수를 구하고, 계수 테이블 기억부(869)의 각 클래스에 대응하는 어드레스에 공급하여 기억시켜서 처리를 종료한다.
이상과 같이 하여, 계수 테이블 기억부(869)에 기억된 각 클래스마다의 탭 계수가 도 80의 계수 테이블 기억부(844)에 기억된다.
따라서, 계수 테이블 기억부(844)에 기억된 탭 계수는 선형 예측 연산을 행함으로써 얻어지는 원래의 화소값의 예측값의 예측 오차(여기에서는 제곱 오차)가 통계적으로 최소가 되도록 학습을 행함으로써 구해진 것으로, 그 결과 도 80의 계수 변환 회로(832A)에 따르면, JPEG 부호화된 화상을 원래의 화상에 한하지 않고 가까운 화상으로 복호할 수 있다.
또한, 상술한 바와 같이, JPEG 부호화된 화상의 복호 처리와, 그 화질을 향상시키기 위한 처리가 동시에 실시되게 되기 때문에, JPEG 부호화된 화상으로부터 효율적으로 화질이 좋은 복호 화상을 얻을 수 있다.
다음에, 도 86은 도 80의 패턴 테이블 기억부(846) 및 도 84의 패턴 테이블 기억부(870)에 기억시키는 패턴 정보의 학습 처리를 행하는 패턴 학습 장치(950A) 의 구성예를 나타내고 있다.
블록화 회로(951)에는 1매 이상의 학습용 화상 데이터가 공급되도록 되어 있다. 블록화 회로(951)는 학습용 화상을 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화한다. 또, 블록화 회로(951)에 공급하는 학습용 화상 데이터는 도 84의 탭 계수 학습 장치(860A)의 블록화 회로(861)에 공급되는 학습용 화상 데이터와 동일한 것이어도 되며, 다른 것이어도 된다.
DCT 회로(952)는 블록화 회로(951)가 블록화한 화소 블록을 순차 판독하고, 그 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 한다. 이 DCT 계수의 블록은 양자화 회로(953)에 공급된다.
양자화 회로(953)는 DCT 회로(952)로부터의 DCT 계수의 블록을 JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라서 양자화하고, 그 결과 얻어지는 양자화 DCT 계수의 블록(DCT 블록)을 가산 회로(954) 및 클래스 탭 추출 회로(955)에 순차 공급한다.
가산 회로(954)는 블록화 회로(951)에서 얻어진 화소 블록을 순차적으로 주목 화소 블록으로 하고, 그 주목 화소 블록의 화소 중, 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하여, 클래스 분류 회로(956)가 출력하는 주목 화소의 클래스 코드마다, 그 주목 화소와 양자화 회로(953)가 출력하는 양자화 DCT 계수와의 사이의 상관값(상호 상관값)을 구하기 위한 가산 연산을 행한다.
즉, 패턴 정보의 학습 처리에서는, 예를 들면 도 87A에 도시한 바와 같이, 주목 화소가 속하는 주목 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수 각각과 주목 화소를 대응시키는 것을, 도 87B에 도시한 바와 같이, 학습용 화상으로부터 얻어지는 화소 블록 전부에 대하여 행하는 것으로, 화소 블록의 각 위치에 있는 화소 각각과, 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수 각각과의 사이의 상관값을 연산하고, 화소 블록의 각 위치에 있는 화소 각각에 대하여, 예를 들면 도 87C에서 ■ 표시로 나타낸 바와 같이, 그 화소와의 상관값이 큰 위치 관계에 있는 양자화 DCT 계수의 위치 패턴을 패턴 정보로 하도록 되어 있다. 즉, 도 87C는 화소 블록의 좌측으로부터 3번째로, 위에서부터 1번째의 화소와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수의 위치 패턴을 ■ 표시로 나타내고 있고, 이러한 위치 패턴이 패턴 정보가 된다.
여기서, 화소 블록의 좌측으로부터 x+1번째, 위에서부터 y+1번째의 화소를 A(x, y)로 나타냄과 함께(본 실시예에서는, x, y는 0 ∼ 7(=8-1)의 범위의 정수), 그 화소가 속하는 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 좌측으로부터 s+1번째, 위에서부터 t+1번째의 양자화 DCT 계수를 B(s, t)로 나타내면(본 실시예에서는, s, t는 0 ∼ 23(=8×3-1)의 범위의 정수), 화소 A(x, y)와, 그 화소 A(x, y)에 대하여 소정의 위치 관계에 있는 양자화 DCT 계수 B(s, t)와의 상호 상관값 RA(x, y)B(s, t)는 다음의 수학식 10으로 나타낸다.
Figure 112002000485227-pct00018
단, 수학식 10에서(후술하는 수학식 11 ∼ 수학식 13에서도 마찬가지), 서메이션(Σ)은 학습용 화상으로부터 얻어진 화소 블록 전부에 대한 가산을 나타낸다. 또한, A'(x, y)는 학습용 화상으로부터 얻어진 화소 블록의 위치(x, y)에 있는 화소(값)의 평균값을, B'(s, t)는 학습용 화상으로부터 얻어진 화소 블록에 대한 3×3개의 DCT 블록의 위치(s, t)에 있는 양자화 DCT 계수의 평균값을 각각 나타낸다.
따라서, 학습용 화상으로부터 얻어진 화소 블록의 총수를 N으로 나타내면, 평균값 A'(x, y) 및 B'(s, t)는 다음의 수학식 11과 같이 나타낼 수 있다.
Figure 112002000485227-pct00019
수학식 11을 수학식 10에 대입하면, 다음의 수학식 12가 유도된다.
Figure 112002000485227-pct00020
수학식 12로부터 상관값 RA(x, y)B(s, t)를 구하기 위해서는,
Figure 112002000485227-pct00021
의 합계 5가지 식의 가산 연산을 행할 필요가 있고, 가산 회로(954)는 이 5가지 식의 가산 연산을 행한다.
또, 여기서는 설명을 간단히 하기 위해서, 클래스를 고려하지 않았지만, 도 86의 패턴 학습 장치(950A)에서 가산 회로(954)는 수학식 13의 5가지 식의 가산 연산을 클래스 분류 회로(956)로부터 공급되는 클래스 코드마다 나누어서 행한다. 따라서, 상술한 경우에는, 서메이션(Σ)은 학습용 화상으로부터 얻어진 화소 블록 전부에 대한 가산을 나타내는 것으로 하였지만, 클래스를 고려하는 경우에는 수학식 13의 서메이션(Σ)은 학습용 화상으로부터 얻어진 화소 블록 중, 각 클래스에 속하는 것에 대한 가산을 나타내게 된다.
도 86으로 되돌아가서, 가산 회로(954)는 학습용 화상에 대하여, 클래스마다 화소 블록의 각 위치에 있는 화소와, 그 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수와의 상관값을 연산하기 위한 수학식 13에 나타낸 가산 연산 결과를 얻으면, 그 가산 연산 결과를 상관 계수 산출 회로(957)에 출력한다.
클래스 탭 추출 회로(955)는 주목 화소 블록에 대하여, 양자화 회로(953)의 출력으로부터 필요한 양자화 DCT 계수를 추출함으로써 도 80의 클래스 탭 추출 회로(842)가 구성하는 것과 동일한 클래스 탭을 구성한다. 이 클래스 탭은 클래스 탭 추출 회로(955)로부터 클래스 분류 회로(956)에 공급된다.
클래스 분류 회로(956)는 클래스 탭 추출 회로(955)로부터의 클래스 탭을 이용하여, 도 80의 클래스 분류 회로(843)와 동일한 처리를 행하는 것으로, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 가산 회로(954)에 공급한다.
상관 계수 산출 회로(957)는 가산 회로(954)의 출력을 이용하여, 수학식 12에 따라, 클래스마다 화소 블록의 각 위치에 있는 화소와, 그 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수와의 상관값을 연산하여 패턴 선택 회로(958)에 공급한다.
패턴 선택 회로(958)는 상관 계수 산출 회로(957)로부터의 상관값에 기초하여, 화소 블록의 각 위치에 있는 8×8의 화소 각각과의 상관값이 큰 위치 관계에 있는 DCT 계수의 위치를 클래스마다 인식한다. 즉, 패턴 선택 회로(958)는, 예를 들면 화소 블록의 각 위치에 있는 화소와의 상관값의 절대치가 소정의 임계치 이상인 DCT 계수의 위치를 클래스마다 인식한다. 혹은, 또한 패턴 선택 회로(958)는, 예를 들면 화소 블록의 각 위치에 있는 화소와의 상관값이 소정의 순위 이상인 DCT 계수의 위치를 클래스마다 인식한다. 그리고, 패턴 선택 회로(958)는 클래스마다 인식한 8×8 화소 각각에 대한 화소 위치 모드마다의 64 세트의 DCT 계수의 위치 패턴을 패턴 정보로서, 패턴 테이블 기억부(959)에 공급한다.
또, 패턴 선택 회로(958)에 있어서, 화소 블록의 각 위치에 있는 화소와의 상관값이 소정의 순위 이상인 DCT 계수의 위치를 인식하도록 한 경우에는, 그 인식되는 DCT 계수의 위치의 수는 고정(소정의 순위에 상당하는 값)이 되지만, 화소 블록의 각 위치에 있는 화소와의 상관값이 소정의 임계치 이상으로 되어 있는 DCT 계수의 위치를 인식하도록 한 경우에는, 그 인식되는 DCT 계수의 위치의 수는 가변이 된다.
패턴 테이블 기억부(959)는 패턴 선택 회로(958)가 출력하는 패턴 정보를 기억한다.
다음에, 도 88의 흐름도를 참조하여 도 86의 패턴 학습 장치(950A)의 처리(학습 처리)에 대하여 설명한다.
블록화 회로(951)에는 학습용 화상 데이터가 공급되며, 블록화 회로(861)는 단계 S451에 있어서, 그 학습용 화상 데이터를 JPEG 부호화에서의 경우와 마찬가지로 8×8 화소의 화소 블록으로 블록화하고, 단계 S452로 진행한다. 단계 S452에서는, DCT 회로(952)가, 블록화 회로(951)가 블록화한 화소 블록을 순차 판독하고, 그 화소 블록을 DCT 처리함으로써, DCT 계수의 블록으로 하고, 단계 S453으로 진행한다. 단계 S453에서는 양자화 회로(953)가, DCT 회로(952)에서 얻어진 DCT 계수의 블록을 순차 판독하고, JPEG 부호화에 이용되는 것과 동일한 양자화 테이블에 따라 양자화하여, 양자화 DCT 계수로 구성되는 블록(DCT 블록)으로 한다.
그리고, 단계 S454로 진행하고, 가산 회로(954)는 블록화 회로(951)에서 블 록화된 화소 블록 중, 아직 주목 화소 블록이 되어 있지 않은 것을 주목 화소 블록으로 한다. 또한, 단계 S454에서는 클래스 탭 추출 회로(955)는 주목 화소 블록을 클래스 분류하는데 이용하는 양자화 DCT 계수를 양자화 회로(863)에서 얻어진 DCT 블록으로부터 추출하여 클래스 탭을 구성하고, 클래스 분류 회로(956)에 공급한다. 클래스 분류 회로(956)는 단계 S455에 있어서, 도 83의 흐름도에서 설명한 경우와 마찬가지로, 클래스 탭 추출 회로(955)로부터의 클래스 탭을 이용하여, 주목 화소 블록을 클래스 분류하고, 그 결과 얻어지는 클래스 코드를 가산 회로(954)에 공급하여 단계 S456으로 진행한다.
단계 S456에서는 가산 회로(954)가 주목 화소 블록의 화소 중 래스터 스캔순으로 아직 주목 화소로 되어 있지 않은 화소를 주목 화소로 하고, 그 주목 화소의 위치(화소 위치 코드)마다, 또한, 클래스 분류 회로(956)로부터 공급되는 클래스 코드마다 수학식 13에 나타낸 가산 연산을 블록화 회로(951)에서 블록화된 학습용 화상과 양자화 회로(953)가 출력하는 양자화 DCT 계수를 이용하여 행하고, 단계 S457로 진행한다.
단계 S457에서는, 가산 회로(954)는 주목 화소 블록의 모든 화소를 주목 화소로 하여, 가산 연산을 행했는지의 여부를 판정한다. 단계 S457에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 아직 가산 연산을 행하지 않는다고 판정된 경우, 단계 S456으로 되돌아가고, 가산 회로(954)는 주목 화소 블록의 화소 중, 래스터 스캔순으로, 아직 주목 화소로 되어 있지 않은 화소를 새롭게 주목 화소로 하고, 이하, 마찬가지의 처리를 반복한다.
또한, 단계 S457에 있어서, 주목 화소 블록의 모든 화소를 주목 화소로 하여, 가산 연산을 행하였다고 판정된 경우, 단계 S458로 진행하고, 가산 회로(954)는 학습용 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 처리를 행하였는지의 여부를 판정한다. 단계 S458에 있어서, 교사용 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 아직 처리를 행하지 않는다고 판정된 경우, 단계 S454로 되돌아가고, 블록화 회로(951)에서 블록화된 화소 블록 중, 아직 주목 화소 블록으로 되어 있지 않은 것이 새롭게 주목 화소 블록으로 되고, 이하, 마찬가지의 처리가 반복된다.
한편, 단계 S458에 있어서, 학습용 화상으로부터 얻어진 모든 화소 블록을 주목 화소 블록으로 하여, 처리를 행하였다고 판정된 경우, 단계 S459로 진행하고, 상관 계수 산출 회로(957)는 가산 회로(954)에서의 가산 연산 결과를 이용하여, 수학식 12에 따라, 클래스마다 화소 블록의 각 위치에 있는 화소와, 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수와의 상관값을 연산하여 패턴 선택 회로(958)에 공급한다.
패턴 선택 회로(958)는 단계 S460에 있어서, 상관 계수 산출 회로(957)로부터의 상관값에 기초하여, 화소 블록의 각 위치에 있는 8×8의 화소 각각과의 상관값이 큰 위치 관계에 있는 DCT 계수의 위치를 클래스마다 인식하고, 그 클래스마다 인식한 8×8 화소 각각에 대한 64 세트의 DCT 계수의 위치 패턴을 패턴 정보로서 패턴 테이블 기억부(959)에 공급하여 기억시켜서 처리를 종료한다.
이상과 같이 하여, 패턴 테이블 기억부(959)에 기억된 각 클래스마다의 64 세트의 패턴 정보가 도 80의 패턴 테이블 기억부(846) 및 도 84의 패턴 테이블 기억부(870)에 기억되어 있다.
따라서, 도 80의 계수 변환 회로(832A)에서는 주목 화소에 대하여, 그것과의 상관이 큰 위치에 있는 양자화 DCT 계수가 예측 탭으로서 추출되고, 그와 같은 예측 탭을 이용하여 양자화 DCT 계수가 원래의 화소값으로 복호되기 때문에, 예를 들면 예측 탭으로 하는 양자화 DCT 계수를 랜덤하게 추출하는 경우에 비교하여, 복호 화상의 화질을 향상시키는 것이 가능해진다.
또, JPEG 부호화에서는, 8×8 화소의 화소 블록 단위로, DCT 및 양자화가 행해짐으로써, 8×8의 양자화 DCT 계수로 이루어지는 DCT 블록이 구성되기 때문에, 임의의 화소 블록의 화소를 클래스 분류 적응 처리에 의해 복호하는 경우에는, 그 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수를 예측 탭으로서 이용하는 것을 상정할 수 있다.
그러나, 화상에 있어서는, 임의의 화소 블록에 주목한 경우에, 그 화소 블록의 화소와, 그 주변의 화소 블록의 화소와의 사이에는 적지 않게 상관이 있는 것이 일반적이다. 따라서, 상술된 바와 같이, 임의의 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록, 즉 임의의 화소 블록에 대응하는 DCT 블록뿐만아니라, 그 이외의 DCT 블록으로부터도, 주목 화소와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수를 추출하고, 예측 탭으로서 이용함으로써, 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수만을 예측 탭으로서 이용하는 경우에 비교하여, 복호 화상의 화질을 향상시키는 것이 가능해진다.
여기서, 임의의 화소 블록의 화소와, 그 주변의 화소 블록의 화소와의 사이에, 적지 않게 상관이 있다고 한다면, 임의의 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 양자화 DCT 계수 전부를 예측 탭으로서 이용함으로써, 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수만을 예측 탭으로서 이용하는 경우에 비교하여 복호 화상의 화질을 향상시키는 것이 가능하다.
단지, 임의의 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 양자화 DCT 계수 전부를 예측 탭으로 하면, 예측 탭을 구성하는 양자화 DCT 계수의 수는 576(=8×8×3×3)이 되고, 도 80의 곱의 합 연산 회로(845)에 있어서 행할 필요가 있는 곱의 합 연산의 횟수가 많아진다.
그래서, 그 576의 양자화 DCT 계수 중, 주목 화소와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수를 추출하여 예측 탭으로서 이용함으로써, 도 80의 곱의 합 연산 회로(845)에서의 연산량의 증가를 억제하면서, 복호 화상의 화질을 향상시키는 것이 가능해진다.
또, 상술한 경우에는 임의의 화소 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 양자화 DCT 계수로부터, 주목 화소와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수를 예측 탭으로서 추출하도록 하였지만, 예측 탭으로 하는 양자화 DCT 계수는 그 외에, 임의의 화소 블록에 대응하는 DCT 블록을 중심으로 하는 5×5개 등의 DCT 블록의 양자화 DCT 계수로부터 추출하도록 해도 된다. 즉, 어떠한 범위의 DCT 블록으로부터, 예측 탭으로 하는 양자화 DCT 계수를 추출하지만 특별히 한정되지는 않는다.
또한, 임의의 DCT 블록의 양자화 DCT 계수는, 대응하는 화소 블록의 화소로부터 얻어진 것이기 때문에, 주목 화소에 대하여 예측 탭을 구성함에 있어서는 그 주목 화소의 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수는, 전부, 예측 탭으로 하는 것이 바람직하다고 상정된다.
그래서, 도 86의 패턴 선택 회로(958)에는 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수는 반드시, 예측 탭으로서 추출되는 패턴 정보를 생성시키도록 할 수 있다. 이 경우, 패턴 선택 회로(958)에서는 화소 블록에 대응하는 DCT 블록의 주위에 인접하는 8개의 DCT 블록으로부터, 상관값이 큰 양자화 DCT 계수가 선택되고, 그 양자화 DCT 계수의 위치의 패턴과, 화소 블록에 대응하는 DCT 블록의 양자화 DCT 계수의 모든 위치의 패턴을 맞추는 것이 최종적인 패턴 정보가 되게 된다.
다음에, 도 89는 도 78의 계수 변환 회로(832)의 다른 구성예를 나타내고 있다. 또, 도 89 중, 도 80에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 89에 도시한 계수 변환 회로(832B)는 역양자화 회로(871)가 새롭게 설치되어 있는 것 외에는, 기본적으로 도 80에서의 경우와 마찬가지로 구성되어 있다.
도 89의 계수 변환 회로(832B)에서, 역양자화 회로(871)에는 엔트로피 복호 회로(831)(도 78)에 있어서 부호화 데이터를 엔트로피 복호함으로써 얻어지는 블록마다의 양자화 DCT 계수가 공급된다.
또, 엔트로피 복호 회로(831)에 있어서는, 상술한 바와 같이, 부호화 데이터로부터, 양자화 DCT 계수 외에, 양자화 테이블도 얻어지지만, 도 89의 계수 변환 회로(832B)에서는 이 양자화 테이블도, 엔트로피 복호 회로(831)로부터 역양자화 회로(871)에 공급되도록 되어 있다.
역양자화 회로(871)는, 엔트로피 복호 회로(831)로부터의 양자화 DCT 계수를 동일하게 엔트로피 복호 회로(831)로부터의 양자화 테이블에 따라서 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(841) 및 클래스 탭 추출 회로(842)에 공급한다.
따라서, 예측 탭 추출 회로(841)와 클래스 탭 추출 회로(842)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여, 예측 탭과 클래스 탭이 각각 구성되며, 이후도 DCT 계수를 대상으로 하여, 도 80에서의 경우와 마찬가지의 처리가 행해진다.
이와 같이, 도 89의 계수 변환 회로(832B)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여 처리가 행해지기 때문에, 계수 테이블 기억부(844)에 기억시키는 탭 계수는 도 80에서의 경우와 다른 것으로 할 필요가 있다.
그래서, 도 90은 도 89의 계수 테이블 기억부(844)에 기억시키는 탭 계수의 학습 처리를 행하는 탭 계수 학습 장치(860B)의 구성예를 나타내고 있다. 또, 도 90 중, 도 84에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여, 그 설명을 적절하게 생략한다. 즉, 도 90에 도시한 탭 계수 학습 장치(860B)는 양자화 회로(863)의 후단에, 역양자화 회로(881)가 새롭게 설치되어 있는 것 외에는, 도 84에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
도 90의 탭 계수 학습 장치(860B)에 있어서, 역양자화 회로(881)는 역양자화 회로(863)가 출력하는 양자화 DCT 계수를 도 89의 역양자화 회로(871)와 마찬가지로 역양자화하고, 그 결과 얻어지는 DCT 계수를 예측 탭 추출 회로(864) 및 클래스 탭 추출 회로(865)에 공급한다.
따라서, 예측 탭 추출 회로(864)와 클래스 탭 추출 회로(865)에서는, 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여, 예측 탭과 클래스 탭이 각각 구성되며, 이후에도 DCT 계수를 대상으로 하여 도 84에서의 경우와 마찬가지의 처리가 행해진다.
그 결과, DCT 계수가 양자화되며 또한 역양자화됨으로써 생기는 양자화 오차의 영향을 저감하는 탭 계수가 얻어지게 된다.
다음에, 도 91은 도 89의 패턴 테이블 기억부(846) 및 도 90의 패턴 테이블 기억부(870)에 기억시키는 패턴 정보의 학습 처리를 행하는 패턴 학습 장치(950B)의 구성예를 나타내고 있다. 또, 도 91 중, 도 86에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 91에 도시한 패턴 학습 장치(950B)는 양자화 회로(953)의 후단에, 역양자화 회로(891)가 새롭게 설치되어 있는 것 외에는, 도 86에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
도 91의 패턴 학습 장치(950B)에서, 역양자화 회로(891)는 역양자화 회로(953)가 출력하는 양자화 DCT 계수를 도 89의 역양자화 회로(871)나 도 90의 역양자화 회로(881)와 마찬가지로 역양자화하고, 그 결과 얻어지는 DCT 계수를 가산 회로(954) 및 클래스 탭 추출 회로(955)에 공급한다.
따라서, 가산 회로(954)와 클래스 탭 추출 회로(955)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여 처리가 행해진다. 즉, 가산 회로(954)는 상술한 가산 연산을, 양자화 회로(953)가 출력하는 양자화 DCT 계수 대신에, 역양자화 회로(891)가 출력하는 DCT 계수를 이용하여 행하고, 클래스 탭 추출 회로(955)도, 양자화 회로(953)가 출력하는 양자화 DCT 계수 대신에, 역양자화 회로(891)가 출력하는 DCT 계수를 이용하여, 클래스 탭을 구성한다. 그리고, 이후는 도 86에서의 경우와 마찬가지의 처리가 행해짐으로써 패턴 정보가 구해진다.
다음에, 도 92는 도 78의 계수 변환 회로(832)의 다른 구성예를 나타내고 있다. 또, 도 92 중, 도 80에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 92에 도시한 계수 변환 회로(832C)는 곱의 합 연산 회로(845)의 후단에, 역 DCT 회로(901)가 새롭게 설치되어 있는 것 외에는, 기본적으로, 도 80에서의 경우와 마찬가지로 구성되어 있다.
역 DCT 회로(901)는 곱의 합 연산 회로(845)의 출력을 역 DCT 처리함으로써, 화상으로 복호하여 출력한다. 따라서, 도 92의 계수 변환 회로(832C)에서는 곱의 합 연산 회로(845)는 예측 탭 추출 회로(841)가 출력하는 예측 탭을 구성하는 양자화 DCT 계수와, 계수 테이블 기억부(844)에 기억된 탭 계수를 이용한 곱의 합 연산을 행함으로써, DCT 계수를 출력한다.
이와 같이, 도 92의 계수 변환 회로(832C)에서는 양자화 DCT 계수가 탭 계수와의 곱의 합 연산에 의해, 화소값으로 복호되는 것이 아니라, DCT 계수로 변환되고, 또한, 그 DCT 계수가 역 DCT 회로(901)에서 역 DCT됨으로써, 화소값으로 복호 된다. 따라서, 계수 테이블 기억부(844)에 기억시키는 탭 계수는 도 80에서의 경우와 다른 것으로 할 필요가 있다.
그래서, 도 93은 도 92의 계수 테이블 기억부(844)에 기억시키는 탭 계수의 학습 처리를 행하는 탭 계수 학습 장치(860C)의 구성예를 나타내고 있다. 또, 도 93 중, 도 84에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 93에 도시한 탭 계수 학습 장치(860C)는 정규 방정식 가산 회로(867)에 대하여, 교사 데이터로서 학습용 화상의 화소값이 아니라, DCT 회로(862)가 출력하는, 학습용 화상을 DCT 처리한 DCT 계수가 주어지게 되어 있는 것 외에는, 도 84에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 93의 탭 계수 학습 장치(860C)에서는 정규 방정식 가산 회로(867)가 DCT 회로(862)가 출력하는 DCT 계수를 교사 데이터로 함과 함께, 예측 탭 구성 회로(864)가, 출력하는 예측 탭을 구성하는 양자화 DCT 계수를 학생 데이터로서, 상술한 가산을 행한다. 그리고, 탭 계수 결정 회로(868)는 그와 같은 가산에 의해 얻어지는 정규 방정식을 푸는 것에 의해, 탭 계수를 구한다. 그 결과, 도 93의 탭 계수 학습 장치(860C)에서는 양자화 DCT 계수를, 양자화 회로(863)에서의 양자화에 의한 양자화 오차를 저감(억제)한 DCT 계수로 변환하는 탭 계수가 구해지게 된다.
도 92의 계수 변환 회로(832C)에서는 곱의 합 연산 회로(845)가 상술한 바와 같은 탭 계수를 이용하여 곱의 합 연산을 행하기 때문에, 그 출력은 예측 탭 추출 회로(841)가 출력하는 양자화 DCT 계수를, 그 양자화 오차를 저감한 DCT 계수로 변 환한 것이 된다. 따라서, 그와 같은 DCT 계수가 역 DCT 회로(901)에서 역 DCT됨으로써, 양자화 오차의 영향에 의한 화질의 열화를 저감한 복호 화상이 얻어지게 된다.
다음에, 도 94는 도 92의 패턴 테이블 기억부(846) 및 도 93의 패턴 테이블 기억부(870)에 기억시키는 패턴 정보의 학습 처리를 행하는 패턴 학습 장치(950C)의 구성예를 나타내고 있다. 또, 도 94 중, 도 86에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 94에 도시한 패턴 학습 장치(950C)는, 가산 회로(954)에 대하여, 블록화 회로(951)가 출력하는 학습용 화상의 화소가 아니라, DCT 회로(952)가 출력하는 DCT 계수가 공급되도록 되어 있는 것 외에는, 도 86에서의 경우와 마찬가지로 구성되어 있다.
도 86의 패턴 학습 장치(950A)에서는 예측 탭을 구성하는 양자화 DCT 계수와 탭 계수를 이용한 곱의 합 연산에 의해, 화소를 복호하기 위해서, 화소와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수를 구하고, 그 양자화 DCT 계수의 위치 패턴을 패턴 정보로 하였지만, 도 94의 패턴 학습 장치(950C)에서는 예측 탭을 구성하는 양자화 DCT 계수와 탭 계수를 이용한 곱의 합 연산에 의해서, 양자화 오차를 저감한 DCT 계수를 얻기 위해서, DCT 계수와 상관이 큰 위치 관계에 있는 양자화 DCT 계수를 구하여, 그 양자화 DCT 계수의 위치 패턴을 패턴 정보로서 구할 필요가 있다.
그래서, 도 94의 패턴 학습 장치(950C)에서는 가산 회로(954)는, 블록화 회로(951)에 있어서 얻어진 화소 블록이 아니라, 그 화소 블록을 DCT 회로(952)에서 DCT 처리한 DCT 계수의 블록을 순차 주목 블록으로 하고, 그 주목 블록의 DCT 계수 중, 래스터 스캔순으로 아직 주목 DCT 계수로 되어 있지 않은 DCT 계수를 주목 DCT 계수로 하여, 클래스 분류 회로(956)가 출력하는 주목 DCT 계수의 클래스 코드마다, 그 주목 DCT 계수와 양자화 회로(953)가 출력하는 양자화 DCT 계수와의 사이의 상관값(상호 상관값)을 구하기 위한 가산 연산을 행한다.
즉, 도 94의 패턴 학습 장치(950C)에 의한 학습 처리에서는, 예를 들면 도 95A에 도시한 바와 같이, 주목 DCT 계수가 속하는 주목 블록에 대응하는, 양자화 DCT 계수의 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수 각각과, 주목 DCT 계수를 대응시키는 것을, 도 95B에 도시한 바와 같이, 학습용 화상으로부터 얻어지는 DCT 계수의 블록 전부에 대하여 행할 때마다, DCT 계수의 블록의 각 위치에 있는 DCT 계수 각각과, 그 블록에 대응하는 DCT 블록을 중심으로 하는 3×3개의 DCT 블록의 각 위치에 있는 양자화 DCT 계수 각각과의 사이의 상관값을 연산하고, DCT 계수의 블록의 각 위치에 있는 DCT 계수 각각에 대하여, 예를 들면 도 95C에서 ■ 표시로 나타낸 바와 같이, 그 DCT 계수와의 상관값이 큰 위치 관계에 있는 양자화 DCT 계수의 위치 패턴을 패턴 정보로 하게 되어 있다. 즉, 도 95C는 DCT 계수의 블록의 좌측으로부터 2번째, 위에서 1번째의 DCT 계수와의 상관이 큰 위치 관계에 있는 양자화 DCT 계수의 위치 패턴을 ■ 표시로 나타내고 있고, 이러한 위치 패턴이 패턴 정보가 된다.
여기서, DCT 계수의 블록의 좌측으로부터 x+1번째, 위에서 y+1번째의 화소를 A(x, y)로 나타냄과 함께, 그 DCT 계수가 속하는 블록에 대응하는 DCT 블록을 중심 으로 하는 3×3개의 DCT 블록의 좌측으로부터 s+1번째, 위에서 t+1번째의 양자화 DCT 계수를 B(s, t)로 나타내면, DCT 계수 A(x, y)와, 그 DCT 계수 A(x, y)에 대하여 소정의 위치 관계에 있는 양자화 DCT 계수 B(s, t)와의 상호 상관값 RA(x, y)B(s, t)는 상술한 수학식 10 내지 수학식 13에서 설명한 경우와 마찬가지로 하여 구할 수 있다.
도 94로 되돌아가, 상관 계수 산출 회로(957)는, 상술된 바와 같이 하여, 가산 회로(954)가 행하는 가산 연산의 결과를 이용하여, DCT 계수와, 양자화 DCT 계수 사이의 상관값을 구한다. 그리고, 패턴 선택 회로(958)는, 그 상관값을 크게 하는 위치 관계에 있는 양자화 DCT 계수의 위치 패턴을 구하여 패턴 정보로 한다.
다음에, 도 96은 도 78의 계수 변환 회로(832)의 다른 구성예를 나타내고 있다. 또, 도 96 중, 도 80, 도 89 또는 도 92에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 96에 도시한 계수 변환 회로(832D)는 도 89에서의 경우와 마찬가지로, 역양자화 회로(871)가 새롭게 설치되며, 또한 도 92에서의 경우와 마찬가지로, 역 DCT 회로(901)가 새롭게 설치되어 있는 것 외에는 도 80에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 96의 계수 변환 회로(832D)에서는, 예측 탭 추출 회로(841)와 클래스 탭 추출 회로(842)에서는 양자화 DCT 계수가 아니라, DCT 계수를 대상으로 하여, 예측 탭과 클래스 탭이 각각 구성된다. 또한, 도 96의 계수 변환 회로(832D)에서는, 곱의 합 연산 회로(845)는 예측 탭 추출 회로(841)가 출력하는 예측 탭을 구성하는 DCT 계수와, 계수 테이블 기억부(844)에 기억된 탭 계수를 이용한 곱의 합 연산을 행함으로써, 양자화 오차를 저감한 DCT 계수를 얻어 역 DCT 회로(901)에 출력한다.
다음에, 도 97은 도 96의 계수 테이블 기억부(844)에 기억시키는 탭 계수의 학습 처리를 행하는 탭 계수 학습 장치(860D)의 구성예를 나타내고 있다. 또, 도 97 중, 도 84, 도 90 또는 도 93에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 97에 도시한 탭 계수 학습 장치(860D)는 도 90에서의 경우와 마찬가지로, 역양자화 회로(881)가 새롭게 설치되고, 또한 도 93에서의 경우와 마찬가지로, 정규 방정식 가산 회로(867)에 대하여, 교사 데이터로서 학습용 화상의 화소값이 아니라, DCT 회로(862)가 출력하는 학습용 화상을 DCT 처리한 DCT 계수가 주어지게 되어 있는 것 외에는 도 84에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 97의 탭 계수 학습 장치(860D)에서는 정규 방정식 가산 회로(867)가, DCT 회로(862)가 출력하는 DCT 계수를 교사 데이터로 함과 함께, 예측 탭 구성 회로(864)가 출력하는 예측 탭을 구성하는 DCT 계수(양자화되고, 역양자화된 것)를 학생 데이터로서, 상술한 가산을 행한다. 그리고, 탭 계수 결정 회로(868)는 그와 같은 가산에 의해 얻어지는 정규 방정식을 푸는 것에 의해, 탭 계수를 구한다. 그 결과, 도 97의 탭 계수 학습 장치(860D)에서는, 양자화되고 또한 역양자화된 DCT 계수를, 그 양자화 및 역양자화에 의한 양자화 오차를 저감한 DCT 계수로 변환하는 탭 계수가 구해지게 된다.
다음에, 도 98은 도 96의 패턴 테이블 기억부(846) 및 도 97의 패턴 테이블 기억부(870)에 기억시키는 패턴 정보의 학습 처리를 행하는 패턴 학습 장치(950D)의 구성예를 나타내고 있다. 또, 도 98 중, 도 86, 도 91 또는 도 94에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙이고, 이하에서는 그 설명을 적절하게 생략한다. 즉, 도 98에 도시한 패턴 학습 장치(950D)는 도 91에서의 경우와 마찬가지로, 역양자화 회로(891)가 새롭게 설치되어 있음과 함께, 도 94에서의 경우와 마찬가지로, 가산 회로(954)에 대하여, 블록화 회로(951)가 출력하는 학습용 화상의 화소가 아니라, DCT 회로(952)가 출력하는 DCT 계수가 공급되도록 되어 있는 것 외에는 도 86에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 98의 패턴 학습 장치(950D)에서는, 가산 회로(954)는 블록화 회로(951)에서 얻어진 화소 블록이 아니라, 그 화소 블록을 DCT 회로(952)에서 DCT 처리한 DCT 계수의 블록을 순차 주목 블록으로 하고, 그 주목 블록의 DCT 계수 중, 래스터 스캔순으로 아직 주목 DCT 계수로 되어 있지 않은 DCT 계수를 주목 DCT 계수로 하여, 클래스 분류 회로(956)가 출력하는 주목 DCT 계수의 클래스 코드마다, 그 주목 DCT 계수와, 역양자화 회로(891)가 출력하는, 양자화되고, 또한 역양자화된 DCT 계수와의 사이의 상관값(상호 상관값)을 구하기 위한 가산 연산을 행한다. 그리고, 상관 계수 산출 회로(957)는 가산 회로(954)가 행하는 가산 연산의 결과를 이용하여, DCT 계수와 양자화되고 역양자화된 DCT 계수와의 사이의 상관값을 구하고, 패턴 선택 회로(958)는 그 상관값을 크게 하는 위치 관계에 있는 양자화되고 역양자화된 DCT 계수의 위치 패턴을 구하여 패턴 정보로 한다.
다음에, 도 99는 도 78의 계수 변환 회로(832)의 다른 구성예를 나타내고 있다. 또, 도 99 중, 도 80에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서 그 설명을 적절하게 생략한다. 즉, 도 99에 도시한 계수 변환 회로(832E)는 클래스 탭 추출 회로(842) 및 클래스 분류 회로(843)가 설치되어 있지 않은 것 외에는 기본적으로, 도 80에서의 경우와 마찬가지로 구성되어 있다.
따라서, 도 99의 계수 변환 회로(832E)에서는 클래스라는 개념이 없지만, 이 것은 클래스가 하나라고 상정되므로, 계수 테이블 기억부(844)에는 1 클래스의 탭 계수만이 기억되고 있고, 이것을 이용하여 처리가 행해진다.
따라서, 도 99의 계수 변환 회로(832E)에서는 계수 테이블 기억부(844)에 기억되어 있는 탭 계수는 도 80에서의 경우와 다르게 되어 있다.
그래서, 도 100은 도 99의 계수 테이블 기억부(844)에 기억시키는 탭 계수의 학습 처리를 행하는 탭 계수 학습 장치(860E)의 구성예를 나타내고 있다. 또, 도 100 중, 도 84에서의 경우와 대응하는 부분에 대해서는, 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 100에 도시한 탭 계수 학습 장치(860E)는 클래스 탭 추출 회로(865) 및 클래스 분류 회로(866)가 설치되어 있지 않은 것 외에는 도 84에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 100의 탭 계수 학습 장치(860E)에서는 정규 방정식 가산 회로(867)에 있어서, 상술한 가산이 클래스에는 무관하게, 화소 위치 모드별로 행해진다. 그리고, 탭 계수 결정 회로(868)에 있어서, 화소 위치 모드마다 생성된 정규 방정식을 푸는 것에 의해, 탭 계수가 구해진다.
다음에, 도 99에 도시한 계수 변환 회로(832E) 및 도 100에 도시한 탭 계수 학습 장치(860E)에서는 상술한 바와 같이 클래스가 하나뿐이기 때문에(클래스가 없음), 도 99의 패턴 테이블 기억부(846) 및 도 100의 패턴 테이블 기억부(870)에는 1클래스의 패턴 정보만이 기억되어 있다.
그에 따라, 도 101은 도 99의 패턴 테이블 기억부(846) 및 도 100의 패턴 테이블 기억부(870)에 기억시키는 패턴 정보의 학습 처리를 행하는 패턴 학습 장치(960E)의 구성예를 나타내고 있다. 또, 도 101 중, 도 86에서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙여서, 그 설명을 적절하게 생략한다. 즉, 도 101에 도시한 패턴 학습 장치(960E)는 클래스 탭 추출 회로(955) 및 클래스 분류 회로(956)가 설치되어 있지 않은 것 외에는, 도 86에서의 경우와 기본적으로 마찬가지로 구성되어 있다.
따라서, 도 101의 패턴 학습 장치(960E)에서는 가산 회로(954)에 있어서, 상술한 가산 연산이 클래스에는 무관하게, 화소 위치 모드별로 행해진다. 그리고, 상관 계수 산출 회로(957)에서도, 클래스에 무관하게 화소 위치 모드마다 상관값이 구해진다. 또한, 패턴 선택 회로(958)에서도, 상관 계수 산출 회로(957)에서 얻어진 상관값에 기초하여, 클래스에 무관하게, 화소 위치 모드마다 패턴 정보가 구해진다.
또, 예를 들면 도 80의 계수 변환 회로(832A)에서는 패턴 테이블 기억부(846)에 클래스마다의 패턴 정보를 기억시켜두고, 클래스 분류 회로(843)가 출력하는 클래스 코드에 대응하는 클래스의 패턴 정보를 이용하여, 예측 탭을 구성 하도록 하였지만, 도 80의 패턴 테이블 기억부(846)에는 도 101의 패턴 학습 장치(960E)에서 얻어지는 1 클래스의 패턴 정보를 기억시켜두고, 그 패턴 정보를 이용하여, 클래스에 무관하게, 예측 탭을 구성하도록 하는 것도 가능하다.
다음에, 상술한 일련의 처리는 하드웨어에 의해 행할 수도 있고, 소프트웨어에 의해 행할 수도 있다. 일련의 처리를 소프트웨어에 의해 행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이 범용의 컴퓨터 등에 인스톨된다.
그에 따라, 도 102는 상술한 일련의 처리를 실행하는 프로그램이 인스톨되는 컴퓨터(1000)의 구성예를 나타내고 있다.
프로그램은 컴퓨터(1000)에 내장되어 있는 기록 매체로서의 하드 디스크(1205)나 ROM(1203)에 사전에 기록해 둘 수 있다.
혹은 또한, 프로그램은 플로피 디스크, CD-ROM(Compact Disc Read Only Memory), MO(Magneto optical) 디스크, DVD(Digital Versatile Disc), 자기 디스크, 반도체 메모리 등의 소거 가능한 기록 매체(1211)에 일시적 혹은 영구적으로 저장(기록)해 둘 수 있다. 이러한 소거 가능한 기록 매체(1211)는, 소위 패키지 소프트웨어로서 제공할 수 있다.
또, 프로그램은 상술한 바와 같은 소거 가능한 기록 매체(1211)로부터 컴퓨터에 인스톨하는 것 외에, 다운로드 사이트로부터 디지털 위성 방송용 인공위성을 통해, 컴퓨터에 무선으로 전송하거나, LAN(Local Area Network), 인터넷과 같은 네트워크를 통해, 컴퓨터에 유선으로 전송하고, 컴퓨터에서는 그와 같이 하여 전송되어 오는 프로그램을 통신부(1208)에서 수신하고, 내장하는 하드 디스크(1205)에 인 스톨할 수 있다.
컴퓨터(1000)는 CPU(Central Processing Unit: 1202)를 내장하고 있다. CPU(1202)에는 버스(1201)를 통해 입출력 인터페이스(1210)가 접속되어 있다. CPU(1202)는 입출력 인터페이스(1210)를 통해, 사용자에 의해서 키보드나, 마우스, 마이크 등으로 구성되는 입력부(1207)의 조작 등으로써 지령이 입력되면, 그에 따라서, ROM(Read Only Memory: 1203)에 저장되어 있는 프로그램을 실행한다. 혹은, 또한, CPU(1202)는 하드 디스크(1205)에 저장되어 있는 프로그램, 위성 혹은 네트워크로부터 전송되어, 통신부(1208)에서 수신되어 하드 디스크(1205)에 인스톨된 프로그램, 또는 드라이브(1209)에 장착된 소거 가능한 기록 매체(211)로부터 판독되어 하드 디스크(1205)에 인스톨된 프로그램을 RAM(Random Access Memory: 1204)에 로드하여 실행한다. 이에 따라, CPU(1202)는 상술한 흐름도에 따른 처리, 혹은 상술한 블록도의 구성에 의해 행해지는 처리를 행한다. 그리고, CPU(1202)는 그 처리 결과를 필요에 따라, 예를 들면 입출력 인터페이스(1210)를 통해, LCD(Liquid Crystal Display)나 스피커 등으로 구성되는 출력부(1206)로부터 출력, 혹은 통신부(1208)로부터 송신, 게다가, 하드 디스크(1205)에 기록시킨다.
여기서, 본 명세서에 있어서, 컴퓨터에게 각종 처리를 행하게 하기 위한 프로그램을 기술하는 처리 단계는, 반드시 흐름도로서 기재된 순서를 따라 시계열로 처리할 필요는 없고, 병렬 혹은 개별로 실행되는 처리, 예를 들면 병렬 처리 혹은 오브젝트에 의한 처리도 포함하는 것이다.
또한, 프로그램은 하나의 컴퓨터에 의해 처리되는 것이어도 되며, 복수의 컴 퓨터에 의해서 분산 처리되는 것이어도 된다. 또한, 프로그램은 멀리 떨어져 있는 컴퓨터로 전송되어 실행되는 것이어도 된다.
또한, 상술한 각 실시예에서는, 화상 데이터를 대상으로 하였지만, 본 발명은 그 외에, 예를 들면 음성 데이터에도 적용 가능하다.
또한, 본 실시예에서는 정지 화상을 압축 부호화하는 JPEG 부호화된 화상을 대상으로 하였지만, 본 발명은 동화상을 압축 부호화하는, 예를 들면 MPEG 부호화된 화상을 대상으로 하는 것도 가능하다.
또한, 적어도, DCT 처리를 행하는 JPEG 부호화된 부호화 데이터의 복호를 행하도록 하였지만, 본 발명은 그 밖의 직교 변환 또는 주파수 변환에 의해서, 블록 단위(임의의 소정의 단위)로 변환된 데이터의 복호나 변환에도 적용 가능하다. 즉, 본 발명은, 예를 들면 서브 대역 부호화된 데이터나, 푸리에 변환된 데이터 등을 복호하거나 이들의 양자화 오차 등을 저감한 데이터로 변환하는 경우에도 적용 가능하다.
또한, 본 실시예에서는, 디코더(22)에 있어서, 복호에 이용하는 탭 계수를 사전에 기억해 두도록 하였지만, 탭 계수는 부호화 데이터에 포함시키고, 디코더(22)에 제공하도록 하는 것이 가능하다. 패턴 정보에 대해서도 마찬가지이다.
또한, 탭 계수를 이용한 선형 1차 예측 연산에 의해서, 복호나 변환을 행하도록 하였지만, 복호 및 변환은, 그 외에 2차 이상의 고차의 예측 연산에 의해 행하는 것도 가능하다.
또한, 예측 탭을, 주목 화소 블록에 대응하는 DCT 블록과, 그 주변의 DCT 블록의 양자화 DCT 계수로 구성하도록 하였지만, 클래스 탭도 마찬가지로 구성하는 것이 가능하다.
이상과 같이, 본 발명에 따르면, 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 변환 데이터를 적어도 그 주목 데이터 블록 이외의 데이터 블록에 대응하는 변환 블록으로부터 추출하고, 예측 탭으로 한다. 그리고, 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써, 변환 데이터를 원래의 데이터로 효율적으로 복호할 수 있다.
또한, 본 발명에 따르면, 교사가 되는 교사 데이터를 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하고, 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 학생 데이터를 적어도 그 주목 교사 블록 이외의 교사 블록에 대응하는 학생 블록으로부터 추출하고, 예측 탭으로 한다. 그리고, 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하고, 탭 계수를 구한다. 이와 같이 하여 구해진 탭 계수를 이용함으로써, 직교 변환 또는 주파수 변환된 데이터를 효율적으로 복호하는 것이 가능해진다.
또한, 본 발명에 따르면, 추출 패턴의 학습용 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 제2 데이터에 대하여 소정의 위치 관계에 있는 제1 데이터와 소정의 위치에 있는 제2 데이터와의 상관을 소정의 위치 관계마다 구하 고, 그 상관에 기초하여 제2 데이터를 얻기 위한 예측 연산에 이용하는 예측 탭으로 하는 제1 데이터의 추출 패턴을 설정한다. 그리고, 그 추출 패턴에 따라 추출한 제1 데이터를 이용하여 예측 연산을 행함으로써, 예를 들면 제1 데이터를 효율적으로 제2 데이터로 변환 등을 하는 것이 가능해진다.

Claims (132)

  1. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리 장치에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과,
    상기 탭 계수 및 변환 데이터를 이용하여, 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  2. 제1항에 있어서,
    상기 복호 수단은 상기 탭 계수 및 변환 데이터를 이용하여, 선형 1차 예측 연산을 행함으로써, 상기 변환 데이터를 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  3. 제1항에 있어서,
    상기 탭 계수를 기억하고 있는 기억 수단을 더 포함하고,
    상기 취득 수단은 상기 기억 수단으로부터, 상기 탭 계수를 취득하는 것을 특징으로 하는 데이터 처리 장치.
  4. 제1항에 있어서,
    상기 변환 데이터는 상기 원래의 데이터를, 직교 변환 또는 주파수 변환하고, 더 양자화함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  5. 제4항에 있어서,
    상기 변환 데이터를, 역양자화하는 역양자화 수단을 더 포함하고,
    상기 복호 수단은 역양자화된 상기 변환 데이터를 상기 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  6. 제1항에 있어서,
    상기 변환 데이터는 상기 원래의 데이터를, 적어도, 이산 코사인 변환한 것인 것을 특징으로 하는 데이터 처리 장치.
  7. 제1항에 있어서, 상기 원래의 데이터 중의, 주목하고 있는 주목 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 변환 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고,
    상기 복호 수단은, 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  8. 제7항에 있어서,
    상기 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이 용하는 상기 변환 데이터를 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 복호 수단은, 상기 예측 탭 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  9. 제1항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를 소정의 단위마다 적어도, 직교 변환 처리 또는 주파수 변환한 것이며,
    상기 복호 수단은 상기 소정의 단위마다 상기 변환 데이터를 상기 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  10. 제1항에 있어서,
    상기 탭 계수는 상기 탭 계수 및 변환 데이터를 이용하여, 소정의 예측 연산을 행함으로써 얻어지는 상기 원래의 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록, 학습을 행함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  11. 제1항에 있어서,
    상기 원래의 데이터는 동화상 또는 정지 화상의 데이터인 것을 특징으로 하는 데이터 처리 장치.
  12. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리 방법에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  13. 적어도 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  14. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변 환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 장치에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  15. 제14항에 있어서,
    상기 학습 수단은 상기 탭 계수 및 학생 데이터를 이용하여 선형 1차 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  16. 제14항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 직교 변환 또는 주파수 변환하고, 또한 양자화함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  17. 제14항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 직교 변환 또는 주파수 변환하여 양자화하고, 또한 역양자화함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  18. 제14항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 적어도, 이산 코사인 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  19. 제14항에 있어서,
    상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 학생 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고,
    상기 학습 수단은, 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  20. 제19항에 있어서,
    상기 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 학습 수단은, 상기 예측 탭 및 상기 주목 교사 데이터의 클래스에 대응하는 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 상기 탭 계수를 구하는 것을 특징으로 하는 데이터 처리 장치.
  21. 제14항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 소정의 단위마다, 적어도, 직교 변환 처리 또는 주파수 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  22. 제14항에 있어서,
    상기 교사 데이터는, 동화상 또는 정지 화상의 데이터인 것을 특징으로 하는 데이터 처리 장치.
  23. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 방법에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  24. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  25. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리 장치에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과,
    상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하고, 또한, 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  26. 제25항에 있어서,
    상기 연산 수단은 상기 탭 계수 및 변환 데이터를 이용하여 선형 1차 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  27. 제25항에 있어서,
    상기 탭 계수를 기억하고 있는 기억 수단을 더 포함하고,
    상기 취득 수단은, 상기 기억 수단으로부터, 상기 탭 계수를 취득하는 것을 특징으로 하는 데이터 처리 장치.
  28. 제25항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를, 직교 변환 또는 주파수 변환하고, 또한 양자화함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  29. 제28항에 있어서,
    상기 변환 데이터를 역양자화하는 역양자화 수단을 더 포함하고,
    상기 연산 수단은, 역양자화된 상기 변환 데이터를 이용하여 예측 연산을 행 하는 것을 특징으로 하는 데이터 처리 장치.
  30. 제25항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를, 적어도, 이산 코사인 변환한 것인 것을 특징으로 하는 데이터 처리 장치.
  31. 제25항에 있어서,
    상기 처리 데이터 중의, 주목하고 있는 주목 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 변환 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고,
    상기 연산 수단은, 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  32. 제31항에 있어서,
    상기 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 연산 수단은 상기 예측 탭 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  33. 제25항에 있어서,
    상기 연산 수단은 상기 소정의 예측 연산을 행함으로써, 상기 원래의 데이터에, 그 품질을 향상시키는 처리를 실시한 상기 처리 데이터를 얻는 것을 특징으로 하는 데이터 처리 장치.
  34. 제25항에 있어서,
    상기 탭 계수는 상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써 얻어지는 상기 처리 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록, 학습을 행함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  35. 제25항에 있어서,
    상기 원래의 데이터는 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  36. 제35항에 있어서,
    상기 연산 수단은, 상기 소정의 예측 연산을 행함으로써, 상기 화상 데이터 에, 그 화질을 향상시키는 처리를 실시한 상기 처리 데이터를 얻는 것을 특징으로 하는 데이터 처리 장치.
  37. 제35항에 있어서,
    상기 연산 수단은 상기 화상 데이터의 시간 또는 공간 방향의 해상도를 향상시킨 상기 처리 데이터를 얻는 것을 특징으로 하는 데이터 처리 장치.
  38. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리 방법에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  39. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 처리하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하고, 또한 그 원래의 데이터에 소정의 처리를 실시한 처리 데이터를 얻는 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  40. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를 복호하고, 또한 그 복호 결과에 소정의 처리를 실시하기 위한 예측 연산에 이용하는 탭 계수를 학습하는 데이터 처리 장치에 있어서,
    교사가 되는 교사 데이터에, 상기 소정의 처리에 기초하는 처리를 실시하고, 준교사 데이터를 얻는 준교사 데이터 생성 수단과,
    상기 준교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 수단과,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  41. 제40항에 있어서,
    상기 학습 수단은 상기 탭 계수 및 학생 데이터를 이용하여 선형 1차 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  42. 제40항에 있어서,
    상기 학생 데이터 생성 수단은, 상기 준교사 데이터를, 직교 변환 또는 주파수 변환하고, 또한 양자화함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  43. 제40항에 있어서,
    상기 학생 데이터 생성 수단은, 상기 준교사 데이터를, 직교 변환 또는 주파수 변환하여 양자화하고, 또한 역양자화함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  44. 제40항에 있어서,
    상기 학생 데이터 생성 수단은, 상기 준교사 데이터를, 적어도, 이산 코사인 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  45. 제40항에 있어서,
    상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 학생 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고,
    상기 학습 수단은, 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  46. 제45항에 있어서,
    상기 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 학습 수단은 상기 예측 탭 및 상기 주목 교사 데이터의 클래스에 대응하는 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 상기 탭 계수를 구하는 것을 특징으로 하는 데이터 처리 장치.
  47. 제40항에 있어서,
    상기 학생 데이터 생성 수단은 상기 준교사 데이터를 소정의 단위마다, 적어도, 직교 변환 처리 또는 주파수 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  48. 제40항에 있어서,
    상기 준교사 데이터 생성 수단은, 상기 교사 데이터에, 그 품질을 열화시키는 처리를 실시함으로써, 상기 준교사 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  49. 제40항에 있어서,
    상기 교사 데이터는 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  50. 제49항에 있어서,
    상기 준교사 데이터 생성 수단은, 상기 화상 데이터에, 그 화질을 열화시키는 처리를 실시함으로써, 상기 준교사 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  51. 제49항에 있어서,
    상기 준교사 데이터 생성 수단은, 상기 화상 데이터의 시간 또는 공간 방향의 해상도를 열화시킨 상기 준교사 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  52. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변 환 데이터를 복호하여, 또한 그 복호 결과에 소정의 처리를 실시하기 위한 예측 연산에 이용하는 탭 계수를 학습하는 데이터 처리 방법에 있어서,
    교사가 되는 교사 데이터에, 상기 소정의 처리에 기초하는 처리를 실시하여, 준교사 데이터를 얻는 준교사 데이터 생성 단계와,
    상기 준교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 단계와,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하고, 상기 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  53. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어진 변환 데이터를 복호하고, 또한 그 복호 결과에 소정의 처리를 실시하기 위한 예측 연산에 이용하는 탭 계수를 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    교사가 되는 교사 데이터에 상기 소정의 처리에 기초하는 처리를 실시하여, 준교사 데이터를 얻는 준교사 데이터 생성 단계와,
    상기 준교사 데이터를, 적어도 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 학생 데이터 생성 단계와,
    상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  54. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터와, 소정의 부가 정보를 포함하는 부호화 데이터를 처리하고, 상기 변환 데이터를 원래의 데이터로 복호하는 데이터 처리 장치에 있어서,
    상기 부가 정보에 기초하여, 상기 원래의 데이터 중의, 주목하고 있는 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 수단과,
    학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중, 상기 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 취득 수단과,
    상기 변환 데이터 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  55. 제54항에 있어서,
    상기 복호 수단은 상기 변환 데이터 및 탭 계수를 이용하고, 선형 1차 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  56. 제54항에 있어서,
    상기 클래스마다의 탭 계수를 기억하고 있는 기억 수단을 더 포함하고,
    상기 취득 수단은 상기 기억 수단으로부터, 상기 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 것을 특징으로 하는 데이터 처리 장치.
  57. 제54항에 있어서,
    상기 변환 데이터는 상기 원래의 데이터를, 직교 변환 또는 주파수 변환하고, 더 양자화함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  58. 제57항에 있어서,
    상기 변환 데이터를, 역양자화하는 역양자화 수단을 더 포함하고,
    상기 복호 수단은, 역양자화된 상기 변환 데이터를, 상기 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  59. 제57항에 있어서,
    상기 부가 정보는 상기 원래의 데이터의 양자화에 이용된 양자화 테이블인 것을 특징으로 하는 데이터 처리 장치.
  60. 제54항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를, 적어도 이산 코사인 변환한 것 인 것을 특징으로 하는 데이터 처리 장치.
  61. 제54항에 있어서,
    상기 주목 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 변환 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고, 상기 복호 수단은, 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  62. 제54항에 있어서,
    상기 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단을 더 포함하고,
    상기 클래스 분류 수단은 상기 부가 정보 및 클래스 탭에 기초하여, 상기 주목 데이터의 클래스를 구하는 것을 특징으로 하는 데이터 처리 장치.
  63. 제54항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를, 소정의 단위마다, 적어도, 직교 변환 처리 또는 주파수 변환한 것이며,
    상기 복호 수단은 상기 소정의 단위마다, 상기 변환 데이터를, 상기 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  64. 제54항에 있어서,
    상기 탭 계수는 상기 탭 계수 및 변환 데이터를 이용하여, 소정의 예측 연산을 행함으로써 얻어지는 상기 원래의 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  65. 제54항에 있어서,
    상기 원래의 데이터는 동화상 또는 정지 화상의 데이터인 것을 특징으로 하는 데이터 처리 장치.
  66. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터와, 소정의 부가 정보를 포함하는 부호화 데이터를 처리하여, 상기 변환 데이터를 원래의 데이터로 복호하는 데이터 처리 방법에 있어서,
    상기 부가 정보에 기초하여, 상기 원래의 데이터 중의 주목하고 있는 주목 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와,
    학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중, 상기 주목 데이터의 클래스에 대응하는 탭 계수를 취득하는 취득 단계와,
    상기 변환 데이터 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  67. 적어도 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터와, 소정의 부가 정보를 포함하는 부호화 데이터를 처리하고, 상기 변환 데이터를 원래의 데이터로 복호하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 부가 정보에 기초하여, 상기 원래의 데이터 중의, 주목하고 있는 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와,
    학습을 행함으로써 구해진 소정의 클래스마다의 탭 계수 중, 상기 주목 데이터에 대응하는 탭 계수를 취득하는 취득 단계와,
    상기 변환 데이터 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 복호 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  68. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 장치에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과,
    상기 생성 수단에 있어서 상기 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 수단과,
    상기 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 상기 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  69. 제68항에 있어서,
    상기 학습 수단은 상기 탭 계수 및 학생 데이터를 이용하여 선형 1차 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  70. 제68항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 직교 변환 또는 주파수 변환하고, 또한 양자화함으로써 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  71. 제70항에 있어서,
    상기 부가 정보는, 상기 교사 데이터의 양자화에 이용된 양자화 테이블인 것 을 특징으로 하는 데이터 처리 장치.
  72. 제68항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 직교 변환 또는 주파수 변환하여 양자화하고, 또한 역양자화함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  73. 제68항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 적어도, 이산 코사인 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  74. 제68항에 있어서,
    상기 주목 교사 데이터를 예측하는데 상기 탭 계수와 함께 이용하는 상기 학생 데이터를 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단을 더 포함하고,
    상기 학습 수단은 상기 예측 탭 및 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  75. 제68항에 있어서,
    상기 주목 교사 데이터를 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를 추출하고, 클래스 탭으로서 출력하는 클래스 탭 추출 수단을 더 포함하고,
    상기 클래스 분류 수단은, 상기 부가 정보 및 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 것을 특징으로 하는 데이터 처리 장치.
  76. 제68항에 있어서,
    상기 생성 수단은 상기 교사 데이터를, 소정의 단위마다, 적어도, 직교 변환 처리 또는 주파수 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  77. 제68항에 있어서,
    상기 교사 데이터는 동화상 또는 정지 화상의 데이터인 것을 특징으로 하는 데이터 처리 장치.
  78. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어지는 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 방법에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 생성 단계에 있어서 상기 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와,
    상기 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 상기 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  79. 적어도, 직교 변환 처리 또는 주파수 변환 처리를 실시함으로써 얻어진 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 생성 단계에 있어서 상기 학생 데이터를 생성할 때에 이용되는 소정의 부가 정보에 기초하여, 상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는 클래스 분류 단계와,
    상기 주목 교사 데이터의 클래스에 대응하는 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 클래스마다의 상기 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  80. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터의 예측값을 구하는 데이터 처리 장치에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과,
    주목하고 있는 처리 데이터인 주목 처리 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를, 적어도, 상기 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단과,
    상기 주목 처리 데이터의 클래스의 상기 탭 계수 및 변환 데이터를 이용하여, 소정의 예측 연산을 행함으로써 상기 주목 처리 데이터의 예측값을 구하는 연산 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  81. 제80항에 있어서,
    상기 연산 수단은 상기 탭 계수 및 변환 데이터를 이용하여, 선형 1차 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장치.
  82. 제80항에 있어서,
    상기 탭 계수를 기억하고 있는 기억 수단을 더 포함하고,
    상기 취득 수단은 상기 기억 수단으로부터, 상기 탭 계수를 취득하는 것을 특징으로 하는 데이터 처리 장치.
  83. 제80항에 있어서,
    상기 변환 데이터는, 상기 데이터를, 적어도, 이산 코사인 변환한 것인 것을 특징으로 하는 데이터 처리 장치.
  84. 제83항에 있어서,
    상기 클래스 분류 수단은, 상기 클래스 탭으로 되어 있는 변환 데이터인 이산 코사인 변환된 데이터의 직류 성분 또는 교류 성분의 전력에 기초하여, 상기 주목 처리 데이터의 클래스를 구하는 것을 특징으로 하는 데이터 처리 장치.
  85. 제80항에 있어서,
    상기 클래스 탭 추출 수단은, 주목 처리 데이터에 대응하는 블록의 주변의 블록으로부터, 상기 클래스 탭으로 하는 상기 변환 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  86. 제80항에 있어서,
    상기 클래스 탭 추출 수단은, 주목 처리 데이터에 대응하는 블록으로부터도, 상기 클래스 탭으로 하는 상기 변환 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  87. 제80항에 있어서,
    상기 탭 계수는 상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써 얻어지는 상기 처리 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록, 학습을 행함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  88. 제80항에 있어서,
    상기 데이터는, 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  89. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터의 예측값을 구하는 데이터 처리 방법에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    주목하고 있는 처리 데이터인 주목 처리 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를, 적어도, 상기 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와,
    상기 클래스 탭에 기초하여, 상기 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와,
    상기 주목 처리 데이터의 클래스의 상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써, 상기 주목 처리 데이터의 예측값을 구하는 연산 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  90. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터의 예측값을 구하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    주목하고 있는 처리 데이터인 주목 처리 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를, 적어도, 상기 주목 처리 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와,
    상기 클래스 탭에 기초하여, 상기 주목 처리 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와,
    상기 주목 처리 데이터의 클래스의 상기 탭 계수 및 변환 데이터를 이용하 여, 소정의 예측 연산을 행함으로써, 상기 주목 처리 데이터의 예측값을 구하는 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  91. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 예측 연산에 의해서, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터를 구하는데 이용하는 탭 계수를 학습하는 데이터 처리 장치에 있어서,
    상기 블록 단위의 변환 데이터를, 학습 시의 학생이 되는 학생 데이터로서 생성하는 생성 수단과,
    상기 처리 데이터를, 학습 시의 교사가 되는 교사 데이터로서, 주목하고 있는 교사 데이터인 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를, 적어도, 상기 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단과,
    상기 클래스마다의 상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를, 클래스마다 구하는 학습 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  92. 제91항에 있어서,
    상기 학습 수단은 상기 탭 계수 및 학생 데이터를 이용하여 선형 1차 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  93. 제91항에 있어서,
    상기 생성 수단은 상기 데이터를, 적어도, 이산 코사인 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  94. 제93항에 있어서,
    상기 클래스 분류 수단은, 상기 클래스 탭으로 되어 있는 학생 데이터인 이산 코사인 변환된 데이터의 직류 성분 또는 교류 성분의 전력에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 것을 특징으로 하는 데이터 처리 장치.
  95. 제91항에 있어서,
    상기 클래스 탭 추출 수단은, 주목 교사 데이터에 대응하는 블록의 주변의 블록으로부터, 상기 클래스 탭으로 하는 상기 학생 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  96. 제91항에 있어서,
    상기 클래스 탭 추출 수단은, 주목 교사 데이터에 대응하는 블록으로부터도, 상기 클래스 탭으로 하는 상기 학생 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  97. 제91항에 있어서,
    상기 데이터는, 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  98. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 예측 연산에 의해서, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터를 구하는데 이용하는 탭 계수를 학습하는 데이터 처리 방법에 있어서,
    상기 블록 단위의 변환 데이터를, 학습 시의 학생이 되는 학생 데이터로서 생성하는 생성 단계와,
    상기 처리 데이터를, 학습 시의 교사가 되는 교사 데이터로서, 주목하고 있는 교사 데이터인 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를, 적어도, 상기 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 단계와,
    상기 클래스마다의 상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를, 클래스마다 구하는 학습 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  99. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터로부터, 예측 연산에 의해서, 상기 변환 데이터에 원하는 처리를 실시한 처리 데이터를 구하는데 이용하는 탭 계수를 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 블록 단위의 변환 데이터를, 학습 시의 학생이 되는 학생 데이터로서 생성하는 생성 단계와,
    상기 처리 데이터를, 학습 시의 교사가 되는 교사 데이터로서, 주목하고 있는 교사 데이터인 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를, 적어도, 상기 주목 교사 데이터에 대응하는 블록 이외의 블록으로부터 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 단계와,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래 스 분류를 행하는 클래스 분류 단계와,
    상기 클래스마다의 상기 탭 계수 및 학생 데이터를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하고, 상기 탭 계수를, 클래스마다 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  100. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를 처리하는 데이터 처리 장치에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 수단과,
    상기 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 상기 변환 데이터를, 적어도, 그 주목 데이터 블록 이외의 데이터 블록에 대응하는, 상기 변환 데이터의 블록인 변환 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단과,
    상기 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 연산 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  101. 제100항에 있어서,
    상기 연산 수단은, 상기 탭 계수 및 예측 탭을 이용하여, 선형 1차 예측 연 산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 것을 특징으로 하는 데이터 처리 장치.
  102. 제100항에 있어서,
    상기 탭 계수를 기억하고 있는 기억 수단을 더 포함하고,
    상기 취득 수단은, 상기 기억 수단으로부터, 상기 탭 계수를 취득하는 것을 특징으로 하는 데이터 처리 장치.
  103. 제100항에 있어서,
    상기 변환 데이터는, 상기 원래의 데이터를, 적어도, 이산 코사인 변환한 것인 것을 특징으로 하는 데이터 처리 장치.
  104. 제100항에 있어서,
    상기 주목 데이터 블록의 데이터 중의, 주목하고 있는 주목 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 변환 데이터를 추출하고, . 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 연산 수단은 상기 예측 탭 및 상기 주목 데이터의 클래스에 대응하는 상기 탭 계수를 이용하여 예측 연산을 행하는 것을 특징으로 하는 데이터 처리 장 치.
  105. 제100항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 데이터 블록의 주변의 데이터 블록에 대응하는 상기 변환 블록으로부터, 상기 예측 탭으로 하는 상기 변환 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  106. 제100항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 데이터 블록에 대응하는 상기 변환 블록과, 주목 데이터 블록 이외의 데이터 블록에 대응하는 상기 변환 블록으로부터, 상기 예측 탭으로 하는 상기 변환 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  107. 제100항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 데이터 블록의 데이터 중의, 주목하고 있는 주목 데이터와의 상관이 큰 위치 관계에 있는 상기 변환 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  108. 제107항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 데이터와의 상관이 소정의 임계치 이 상이 되는 위치 관계에 있는 상기 변환 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  109. 제107항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 데이터와의 상관이 소정의 순위 이내가 되는 위치 관계에 있는 상기 변환 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  110. 제100항에 있어서,
    상기 탭 계수는, 상기 탭 계수 및 변환 데이터를 이용하여 소정의 예측 연산을 행함으로써 얻어지는 상기 원래의 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록, 학습을 행함으로써 얻어진 것인 것을 특징으로 하는 데이터 처리 장치.
  111. 제100항에 있어서,
    상기 원래의 데이터는, 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  112. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를 처리하는 데이터 처리 방법에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 상기 변환 데이터를, 적어도, 그 주목 데이터 블록 이외의 데이터 블록에 대응하는, 상기 변환 데이터의 블록인 변환 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 단계와,
    상기 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 연산 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  113. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를 처리하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    학습을 행함으로써 구해진 탭 계수를 취득하는 취득 단계와,
    상기 데이터의 블록인 데이터 블록 중 주목하고 있는 주목 데이터 블록의 데이터를 복호하기 위한 예측 연산에 이용하는 상기 변환 데이터를, 적어도, 그 주목 데이터 블록 이외의 데이터 블록에 대응하는, 상기 변환 데이터의 블록인 변환 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 단계와,
    상기 탭 계수 및 예측 탭을 이용하여, 소정의 예측 연산을 행함으로써, 상기 변환 데이터를, 원래의 데이터로 복호하는 연산 단계를 포함하는 프로그램이 기록 되어 있는 것을 특징으로 하는 기록 매체.
  114. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 장치에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 수단과,
    상기 교사 데이터의 블록인 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 상기 학생 데이터를, 적어도, 그 주목 교사 블록 이외의 교사 블록에 대응하는, 상기 학생 데이터의 블록인 학생 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 수단과,
    상기 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  115. 제114항에 있어서,
    상기 학습 수단은, 상기 탭 계수 및 학생 데이터를 이용하여 선형 1차 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하는 것을 특징으로 하는 데이터 처리 장치.
  116. 제114항에 있어서,
    상기 생성 수단은, 상기 교사 데이터를, 적어도, 이산 코사인 변환함으로써, 상기 학생 데이터를 생성하는 것을 특징으로 하는 데이터 처리 장치.
  117. 상기 주목 교사 블록의 상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터를, 몇 개의 클래스 중 어느 하나로 클래스 분류하는데 이용하는 상기 학생 데이터를 추출하여, 클래스 탭으로서 출력하는 클래스 탭 추출 수단과,
    상기 클래스 탭에 기초하여, 상기 주목 교사 데이터의 클래스를 구하는 클래스 분류를 행하는 클래스 분류 수단을 더 포함하고,
    상기 학습 수단은, 상기 예측 탭 및 상기 주목 교사 데이터의 클래스에 대응하는 탭 계수를 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하고, 클래스마다의 상기 탭 계수를 구하는 것을 특징으로 하는 데이터 처리 장치.
  118. 제114항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 교사 블록의 주변의 교사 블록에 대응하는 상기 학생 블록으로부터, 상기 예측 탭으로 하는 상기 학생 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  119. 제114항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 교사 블록에 대응하는 상기 학생 블록과, 주목 교사 블록 이외의 교사 블록에 대응하는 상기 학생 블록으로부터 상기 예측 탭으로 하는 상기 학생 데이터를 추출하는 것을 특징으로 하는 데이터 처리 장치.
  120. 제114항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 교사 블록의 상기 교사 데이터 중의, 주목하고 있는 주목 교사 데이터와의 상관이 큰 위치 관계에 있는 상기 학생 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  121. 제120항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 교사 데이터와의 상관이 소정의 임계치 이상이 되는 위치 관계에 있는 상기 학생 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  122. 제120항에 있어서,
    상기 예측 탭 추출 수단은, 상기 주목 교사 데이터와의 상관이 소정의 순위 이내가 되는 위치 관계에 있는 상기 학생 데이터를, 상기 예측 탭으로서 추출하는 것을 특징으로 하는 데이터 처리 장치.
  123. 제114항에 있어서,
    상기 교사 데이터는, 동화상 또는 정지 화상의 화상 데이터인 것을 특징으로 하는 데이터 처리 장치.
  124. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를, 예측 연산에 의해서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리 방법에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 교사 데이터의 블록인 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 상기 학생 데이터를, 적어도, 그 주목 교사 블록 이외의 교사 블록에 대응하는, 상기 학생 데이터의 블록인 학생 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 단계와,
    상기 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  125. 데이터에 대하여, 적어도, 직교 변환 처리 또는 주파수 변환 처리를 소정의 블록 단위로 실시함으로써 얻어지는 블록 단위의 변환 데이터를, 예측 연산에 의해 서 복호하는데 이용하는 탭 계수를 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    교사가 되는 교사 데이터를, 적어도, 직교 변환 또는 주파수 변환함으로써, 학생이 되는 학생 데이터를 생성하는 생성 단계와,
    상기 교사 데이터의 블록인 교사 블록 중 주목하고 있는 주목 교사 블록의 교사 데이터를 복호하기 위한 예측 연산에 이용하는 상기 학생 데이터를, 적어도, 그 주목 교사 블록 이외의 교사 블록에 대응하는, 상기 학생 데이터의 블록인 학생 블록으로부터 추출하여, 예측 탭으로서 출력하는 예측 탭 추출 단계와,
    상기 탭 계수 및 예측 탭을 이용하여 예측 연산을 행함으로써 얻어지는 상기 교사 데이터의 예측값의 예측 오차가, 통계적으로 최소가 되도록 학습을 행하여, 상기 탭 계수를 구하는 학습 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
  126. 제1 데이터로부터 추출한 예측 탭과 소정의 탭 계수를 이용하여 예측 연산을 행함으로써 제2 데이터를 얻을 때의, 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 학습하는 데이터 처리 장치에 있어서,
    상기 추출 패턴의 학습용 상기 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 상기 제2 데이터에 대하여 소정의 위치 관계에 있는 상기 제1 데이터와, 상기 소정의 위치에 있는 상기 제2 데이터와의 상관을, 상기 소정의 위치 관계마다 구하는 상관 연산 수단과,
    상기 상관에 기초하여, 상기 제2 데이터를 얻기 위한 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 설정하는 설정 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  127. 제126항에 있어서,
    상기 상관 연산 수단은, 소정의 위치에 있는 상기 제2 데이터와 소정의 위치 관계에 있는 상기 제1 데이터와, 상기 소정의 위치에 있는 상기 제2 데이터와의 통계적 상관을 구하는 것을 특징으로 하는 데이터 처리 장치.
  128. 제126항에 있어서,
    상기 설정 수단은 상기 상관이 큰 위치 관계에 있는 상기 제1 데이터의 위치 패턴을, 상기 추출 패턴으로서 설정하는 것을 특징으로 하는 데이터 처리 장치.
  129. 제126항에 있어서,
    상기 설정 수단은, 상기 상관이 소정의 임계치 이상이 되는 위치 관계에 있는 상기 제1 데이터의 위치 패턴을, 상기 추출 패턴으로서 설정하는 것을 특징으로 하는 데이터 처리 장치.
  130. 제126항에 있어서,
    상기 설정 수단은, 상기 상관이 소정의 순위 이내가 되는 위치 관계에 있는 상기 제1 데이터의 위치 데이터를, 상기 추출 패턴으로서 설정하는 것을 특징으로 하는 데이터 처리 장치.
  131. 제1 데이터로부터 추출한 예측 탭과 소정의 탭 계수를 이용하여 예측 연산을 행함으로써 제2 데이터를 얻을 때의, 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 학습하는 데이터 처리 방법에 있어서,
    상기 추출 패턴의 학습용 상기 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 상기 제2 데이터에 대하여 소정의 위치 관계에 있는 상기 제1 데이터와, 상기 소정의 위치에 있는 상기 제2 데이터와의 상관을, 상기 소정의 위치 관계마다 구하는 상관 연산 단계와,
    상기 상관에 기초하여, 상기 제2 데이터를 얻기 위한 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 설정하는 설정 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  132. 제1 데이터로부터 추출한 예측 탭과 소정의 탭 계수를 이용하여 예측 연산을 행함으로써 제2 데이터를 얻을 때의, 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 학습하는 데이터 처리를, 컴퓨터에게 행하게 하는 프로그램이 기록되어 있는 기록 매체에 있어서,
    상기 추출 패턴의 학습용 상기 제1 데이터 및 제2 데이터를 이용하여, 소정의 위치에 있는 상기 제2 데이터에 대하여 소정의 위치 관계에 있는 상기 제1 데이 터와, 상기 소정의 위치에 있는 상기 제2 데이터와의 상관을, 상기 소정의 위치 관계마다 구하는 상관 연산 단계와,
    상기 상관에 기초하여, 제2 데이터를 얻기 위한 상기 예측 연산에 이용하는 상기 예측 탭으로 하는 상기 제1 데이터의 추출 패턴을 설정하는 설정 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는 기록 매체.
KR1020027000250A 2000-05-09 2001-05-09 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체 KR100731708B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000135357A JP4752088B2 (ja) 2000-05-09 2000-05-09 データ処理装置およびデータ処理方法、並びに記録媒体
JP2000135356A JP4517448B2 (ja) 2000-05-09 2000-05-09 データ処理装置およびデータ処理方法、並びに記録媒体
JPJP-P-2000-00135356 2000-05-09
JPJP-P-2000-00135357 2000-05-09

Publications (2)

Publication Number Publication Date
KR20020030078A KR20020030078A (ko) 2002-04-22
KR100731708B1 true KR100731708B1 (ko) 2007-06-25

Family

ID=26591513

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027000250A KR100731708B1 (ko) 2000-05-09 2001-05-09 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체

Country Status (5)

Country Link
US (5) US7035471B2 (ko)
EP (1) EP1282236B1 (ko)
KR (1) KR100731708B1 (ko)
CN (3) CN1169303C (ko)
WO (1) WO2001086820A1 (ko)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1169303C (zh) * 2000-05-09 2004-09-29 索尼公司 数据处理装置和方法以及记录介质
US7283961B2 (en) 2000-08-09 2007-10-16 Sony Corporation High-quality speech synthesis device and method by classification and prediction processing of synthesized sound
WO2002013183A1 (fr) * 2000-08-09 2002-02-14 Sony Corporation Procede et dispositif de traitement de donnees vocales
CN100502510C (zh) * 2002-01-07 2009-06-17 英国电讯有限公司 用于提取像素值的方法和装置
EP2894856A1 (en) 2002-01-31 2015-07-15 Samsung Electronics Co., Ltd Filtering method and apparatus for reducing block artifacts or ringing noise
JP4462823B2 (ja) 2002-11-20 2010-05-12 ソニー株式会社 画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラム
US7302107B2 (en) * 2003-12-23 2007-11-27 Lexmark International, Inc. JPEG encoding for document images using pixel classification
US7574055B2 (en) * 2004-09-07 2009-08-11 Lexmark International, Inc. Encoding documents using pixel classification-based preprocessing and JPEG encoding
JP4725127B2 (ja) * 2005-02-16 2011-07-13 ソニー株式会社 復号装置および方法、記録媒体、並びにプログラム
JP4775756B2 (ja) * 2005-03-18 2011-09-21 富士ゼロックス株式会社 復号化装置及びそのプログラム
JP2007195117A (ja) * 2006-01-23 2007-08-02 Toshiba Corp 動画像復号装置
JP4123299B1 (ja) * 2007-02-21 2008-07-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8594176B2 (en) * 2007-03-06 2013-11-26 Microsoft Corporation Streaming media codec with transform coefficient bounding
TWI389039B (zh) * 2007-12-14 2013-03-11 Mstar Semiconductor Inc 解調變模組、使用此解調變模組的射頻識別處理模組以及相關方法
JP4656452B2 (ja) * 2008-05-20 2011-03-23 ソニー株式会社 画像信号処理装置および画像信号処理方法、予測係数生成装置および予測係数生成処理方法、並びに各方法をコンピュータに実行させるためのプログラム
US9746923B2 (en) 2009-03-12 2017-08-29 Immersion Corporation Systems and methods for providing features in a friction display wherein a haptic effect is configured to vary the coefficient of friction
US10007340B2 (en) 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
US20120114036A1 (en) * 2010-11-10 2012-05-10 Hong Kong Applied Science and Technology Research Institute Company Limited Method and Apparatus for Multiview Video Coding
JP5741076B2 (ja) 2010-12-09 2015-07-01 ソニー株式会社 画像処理装置及び画像処理方法
US10735755B2 (en) 2015-04-21 2020-08-04 Arris Enterprises Llc Adaptive perceptual mapping and signaling for video coding
KR102174777B1 (ko) * 2018-01-23 2020-11-06 주식회사 날비컴퍼니 이미지의 품질 향상을 위하여 이미지를 처리하는 방법 및 장치
CN114731455A (zh) * 2019-11-20 2022-07-08 三星电子株式会社 使用与图像质量相关的ai元数据的设备和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03104439A (ja) * 1989-09-19 1991-05-01 Nec Corp データ伝送方式
JPH08307835A (ja) * 1995-05-10 1996-11-22 Sony Corp クラス分類適応処理装置および方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104439B2 (ja) 1992-11-13 2000-10-30 ソニー株式会社 高能率符号化及び/又は復号化装置
US5829007A (en) * 1993-06-24 1998-10-27 Discovision Associates Technique for implementing a swing buffer in a memory array
JP3627291B2 (ja) 1995-05-25 2005-03-09 ソニー株式会社 ブロック歪み除去装置および方法
JP3912558B2 (ja) * 1996-07-17 2007-05-09 ソニー株式会社 画像符号化装置および画像符号化方法、並びに記録媒体
JP3864400B2 (ja) * 1996-10-04 2006-12-27 ソニー株式会社 画像処理装置および画像処理方法
CN1163076C (zh) * 1996-12-26 2004-08-18 索尼株式会社 图像编码装置和图像编码方法及图像解码装置和图像解码方法
JP2856185B2 (ja) * 1997-01-21 1999-02-10 日本電気株式会社 音声符号化復号化システム
JPH10336668A (ja) * 1997-06-02 1998-12-18 Sharp Corp 動きベクトル検出装置
IL128423A (en) * 1997-06-16 2003-07-31 Sony Corp Image processing device and method, and transmission medium, tramsmission method and image format
JP3787823B2 (ja) * 1997-07-31 2006-06-21 ソニー株式会社 画像処理装置および画像処理方法
WO2000016260A1 (fr) * 1998-09-11 2000-03-23 Sony Corporation Processeur de donnees et procede de conversion de sequences de donnees
DE69931597T2 (de) * 1998-09-18 2007-05-24 Sony Corp. Vorrichtung und verfahren zur datenumsetzung sowie entsprechender aufzeichnungsträger
JP4143877B2 (ja) * 1998-10-20 2008-09-03 ソニー株式会社 画像データ変換装置及び画像データ変換方法
US6658155B1 (en) * 1999-03-25 2003-12-02 Sony Corporation Encoding apparatus
JP4224748B2 (ja) * 1999-09-13 2009-02-18 ソニー株式会社 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置
CN1169303C (zh) * 2000-05-09 2004-09-29 索尼公司 数据处理装置和方法以及记录介质
US7082220B2 (en) * 2001-01-25 2006-07-25 Sony Corporation Data processing apparatus
WO2002078355A1 (en) * 2001-03-23 2002-10-03 Nokia Corporation Variable length coding
MXPA04006814A (es) * 2002-01-14 2004-12-06 Nokia Corp Filtros dinamicos de codificacion.
US20040076333A1 (en) * 2002-10-22 2004-04-22 Huipin Zhang Adaptive interpolation filter system for motion compensated predictive video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03104439A (ja) * 1989-09-19 1991-05-01 Nec Corp データ伝送方式
JPH08307835A (ja) * 1995-05-10 1996-11-22 Sony Corp クラス分類適応処理装置および方法

Also Published As

Publication number Publication date
US20070036450A1 (en) 2007-02-15
US7283678B2 (en) 2007-10-16
CN100568739C (zh) 2009-12-09
WO2001086820A1 (en) 2001-11-15
CN1389019A (zh) 2003-01-01
US20070036449A1 (en) 2007-02-15
CN1578158A (zh) 2005-02-09
US20020186888A1 (en) 2002-12-12
US7289671B2 (en) 2007-10-30
US7206452B2 (en) 2007-04-17
US20060126953A1 (en) 2006-06-15
KR20020030078A (ko) 2002-04-22
EP1282236A4 (en) 2009-07-08
CN1578159A (zh) 2005-02-09
EP1282236B1 (en) 2012-10-03
US20070058873A1 (en) 2007-03-15
EP1282236A1 (en) 2003-02-05
US7336829B2 (en) 2008-02-26
CN1578159B (zh) 2010-05-26
CN1169303C (zh) 2004-09-29
US7035471B2 (en) 2006-04-25

Similar Documents

Publication Publication Date Title
KR100731708B1 (ko) 데이터 처리 장치와 데이터 처리 방법, 및 기록 매체
JP5957559B2 (ja) 大きいサイズの変換単位を用いた映像符号化、復号化方法及び装置
WO2012042646A1 (ja) 動画像符号化装置、動画像符号化方法、動画像符号化用コンピュータプログラム、動画像復号装置及び動画像復号方法ならびに動画像復号用コンピュータプログラム
KR20050083896A (ko) 화상 신호의 처리 장치 및 처리 방법, 그에 사용되는 계수데이터의 생성 장치 및 생성 방법, 및 각 방법을 실행하기위한 프로그램 및 그 프로그램을 기록한 컴퓨터 판독가능한 매체
JP4517448B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4752088B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538699B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4538698B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4419287B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP4678454B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
WO2019198519A1 (ja) データ処理装置及びデータ処理方法
JP4147789B2 (ja) 画像処理装置および画像処理方法、並びにプログラムおよび記録媒体
JP4081745B2 (ja) 復号装置および復号方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JPH10191353A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録媒体
JP4534951B2 (ja) 画像符号化装置および画像符号化方法、画像処理システムおよび画像処理方法、伝送方法、並びに記録媒体
JP2001345707A (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP4154647B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4649770B2 (ja) 画像データ処理装置および方法、記録媒体、並びにプログラム
JPH1093980A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、伝送方法、並びに記録媒体
JP4491701B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP2001285648A (ja) 画像処理装置および画像処理方法、並びに記録媒体
CN111800633A (zh) 图像处理方法及装置
JPH1084549A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、伝送方法、並びに記録媒体
Yang et al. Efficient color image reconstruction by color multiplexing and vector quantization in the wavelet domain

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130607

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140610

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee