KR20040058129A - 데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체 - Google Patents

데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체 Download PDF

Info

Publication number
KR20040058129A
KR20040058129A KR20040039048A KR20040039048A KR20040058129A KR 20040058129 A KR20040058129 A KR 20040058129A KR 20040039048 A KR20040039048 A KR 20040039048A KR 20040039048 A KR20040039048 A KR 20040039048A KR 20040058129 A KR20040058129 A KR 20040058129A
Authority
KR
Grant status
Application
Patent type
Prior art keywords
processing
data
circuit
image
output
Prior art date
Application number
KR20040039048A
Other languages
English (en)
Other versions
KR100597920B1 (ko )
Inventor
곤도데쯔지로
나까야히데오
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/13Digital output to plotter ; Cooperation and interconnection of the plotter with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • G09G2320/0276Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping for the purpose of adaptation to the characteristics of a display device, i.e. gamma correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/02Graphics controller able to handle multiple formats, e.g. input or output formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2044Display of intermediate tones using dithering
    • G09G3/2051Display of intermediate tones using dithering with use of a spatial dither pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Abstract

본 발명의 종합 처리 박스는, 복수의 입력 디바이스, 복수의 출력 디바이스, 또는 복수의 저장 디바이스에 대해 공통적으로 처리를 수행한다. 예를 들면, 이 종합 처리 박스는, 입력 디바이스 혹은 저장 디바이스로부터 수신된 데이터, 또는 출력 디바이스 또는 저장 디바이스로 공급된 데이터에 대해 노이즈 감소 처리를 수행한다. 이 종합 처리 박스는 또한, 예를 들어 시공간 처리 또는 계조 처리, 각 입력 디바이스 유형, 각 출력 디바이스 유형, 또는 각 저장 디바이스 유형에 따라 가변적으로 처리를 행한다. 이에 따라, 예를 들어 입력 디바이스가 비디오 카메라일 경우, 비디오 카메라는, CCD와, 샘플 및 홀드 회로로부터의 출력의 이득을 조정하기 위한 AGC 회로와, AGC 회로의 아날로그 출력을 디지털 출력으로 변환하기 위한 A/D 변환 회로만으로 구성된다. 즉, CCD의 픽셀에 대한 결함 보정, γ보정, 칼라 매트릭스 변환의 수행을 차단하지 않고 비디오 카메라를 구성하는 것이 가능하다.

Description

데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록 매체{DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND RECORDING MEDIUM THEREFOR}

본 발명은 일반적으로, 데이터 처리 장치, 데이터 처리 방법, 및 기록 매체에 관한 것이다. 특히, 본 발명은 여러 입력 디바이스로부터 수신된 데이터, 여러 출력 디바이스에 제공될 데이터, 및 여러 저장 디바이스로부터 혹은 이들로 수신되고 제공되어질 데이터에 대하여 적합한 처리를 행하기 위한 데이터 처리 장치 및 데이터 처리 방법에 관한 것이다. 본 발명은 또한, 상술된 방법을 구현하기 위한 기록 매체에 관한 것이다.

이미지를 출력(표시)하기 위한 출력 디바이스로서, 캐소드 레이 튜브(CRT) 모니터, 액정 표시 모니터 등이 공지되어 있다.

종래에, PAL 텔레비젼 프로그램을 시청하기 위해, 예를 들어, NTSC CRT 모니터만을 갖는 사용자는 PAL CRT 모니터를 구매해야만 한다.

즉, PAL CRT 모니터에 도입된 스캐닝 방법만이 NTSC CRT 모니터에 도입된 방법과 상이할 뿐, 다른 기능들은 동일하다 하더라도, 사용자는 PAL CRT 모니터를 구매할 필요가 있다.

일반적으로, CRT 모니터와 같은 디바이스는 디바이스에서 고유한 부분(이후로는 "고유한 부분"이라 함), 어떤 디바이스들에 공통으로 처리를 행하는 부분(이후로는, "공통 처리"로 부르기로 함), 및 개별적인 다바이스 유형에 따라 가변 처리를 행하는 부분(이후로는, "가변 처리"로 부르기로 함)과 같이 3개의 부분으로 나뉘어진다.

디바이스에서 고유한 부분은 디바이스에 물리적으로 필수적인 부분이다. 예를 들어, CRT 디바이스에 관련하여, CRT 및 휘도 회로는 고유한 부분이고, 액정 표시 모니터에 관련해보면, 액정 패널이 고유한 부분이다. 예를 들어, NTSC CRT 모니터 및 액정 패널 모니터에서, 공통 처리를 행하는 부분은 NTSC 텔레비젼 방송 신호를 레드(R), 그린(G), 및 블루(B) 성분으로 변환하기 위한 부분, 즉 NTSC 디코딩 처리를 행하는 부분에 해당한다. 예를 들어, CRT 모니터에서, 가변 처리를 행하는 부분은 CRT 모니터의 CRT에 연관된 주파수 특성으로 이미지 신호를 조정하는 부분에 해당한다. 액정 표시 모니터에서, 가변 처리를 행하는 부분은 액정 모니터의 액정 패널에 연관된 주파수 특성으로 이미지 신호를 조정하는 부분에 해당한다.

따라서, 공통 처리는 디바이스와는 무관하게 행해질 수 있다. 한편, 가변 처리는 디바이스에 따라 다르며, 처리 내용은 디바이스에 따라 상이하다.

상기에서 논의된 바와 같이, 종래에는 CRT 모니터는 스캐닝 방법에 따라 선택되어야만 한다. 따라서, 고유한 부분만을 갖는 디바이스가 공통 처리 및 가변 처리를 행하는 데이터 처리 장치와 분리되어 판매되어질 것으로 앞으로 예상된다. 그러나, 만일 상이한 데이터 처리 장치가 각 디바이스에 대해 필요하다면 불편할 것이다.

따라서, 여러 유형의 디바이스에 적합한 처리를 행하는 것이 본 발명의 목적이다.

상기 목적을 달성하기 위해, 본 발명의 일 양태에 따르면, 복수 유형의 입력 디바이스로부터 정보 데이터를 선택적으로 수신하기 위한 데이터 처리 장치가 제공된다. 데이터 처리 장치는 입력 디바이스와의 인터페이스로서 입력 인터페이스 기능을 포함한다. 입력 공통 처리부는 입력 인터페이스를 통해 입력 디바이스로부터 수신된 정보 데이터에 대해, 입력 디바이스에 공통으로 처리를 행한다. 입력 가변 처리부는 입력 인터페이스를 통해 입력 디바이스로부터 수신된 정보 데이터에 대해, 복수 유형의 입력 디바이스로부터 선택된 입력 디바이스의 타입에 따라 다양한 처리를 행한다.

상술된 데이터 처리 장치는, 입력 인터페이스를 통해 정보 데이터가 수신되는 입력 디바이스의 유형을 검출하는 입력 디바이스 검출기를 더 포함할 수 있다. 이 경우, 입력 공통 처리부 및 입력 가변 처리부는 입력 디바이스 검출기로부터 얻어진 검출 결과에 기초하여 처리를 행할 수 있다.

입력 인터페이스는 입력 디바이스들 중 적어도 2개 각각과의 인터페이스로 기능할 수 있다.

상술된 데이터 처리 장치는, 복수 유형의 출력 디바이스와의 인터페이스로서 기능하는 출력 인터페이스, 출력 인터페이스를 통해 출력 디바이스에 제공될 정보 데이터에 대해, 출력 디바이스에 공통으로 처리를 행하는 출력 공통 처리부, 및 출력 인터페이스를 통해 출력 디바이스로 제공될 정보 데이터에 대해 복수의 출력 디바이스로부터 선택된 출력 디바이스의 유형에 따라 다양한 처리를 행하는 출력 가변 처리부를 더 포함할 수 있다.

상술된 데이터 처리 장치는, 정보 데이터가 출력 인터페이스를 통해 제공될 출력 디바이스의 유형을 검출하는 출력 디바이스 검출기를 더 포함할 수 있다. 이 경우, 출력 공통 처리부 및 출력 가변 처리부는 출력 디바이스 검출기로부터 얻어진 검출 결과에 기초하여 처리를 행할 수 있다.

출력 인터페이스는 출력 디바이스들 중 적어도 2개의 출력 디바이스 각각과의 인터페이스로서 기능할 수 있다.

입력 인터페이스 및 출력 인터페이스는 하나의 인터페이스로 일체화될 수 있다.

상술한 데이터 처리 장치는, 복수 유형의 저장 디바이스와의 인터페이스로서 기능하는 저장 인터페이스; 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스에 공급된 정보 데이터에 대해, 저장 디바이스들에 공통인 처리를 행하기 위한 저장 공통 처리부; 및 저장인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스에 공급된 정보 데이터에 대해, 저장 디바이스로부터 선택된 저장 디바이스의 유형에 따라 가변적으로 처리를 행하기 위한 저장 가변 처리부를 더 포함할 수 있다.

상술한 데이터 처리 장치는, 정보 인터페이스를 통해 정보 데이터가 수신 또는 공급되는 저장 디바이스의 유형을 검출하기 위한 저장 디바이스 검출기를 더 포함할 수 있다. 이 경우, 저장 공통 처리부 및 저장 가변 처리부는 저장 디바이스 검출기로부터 얻어진 검출 결과에 기초하여 처리를 행할 수 있다.

저장 인터페이스는 저장 디바이스들 중 적어도 2개의 저장 디바이스 각각과의 인터페이스로서 기능할 수 있다.

입력 인터페이스 및 저장 인터페이스는 하나의 인터페이스로 일체화될 수 있다.

입력 인터페이스, 출력 인터페이스 및 저장 인터페이스는 하나의 인터페이스로 일체화될 수 있다.

본 발명의 다른 양태에 따르면, 복수 유형의 입력 디바이스 중에서 정보 데이터를 선택적으로 수신하기 위한 데이터 처리 장치에서 이용되는 데이터 처리 방법이 제공된다. 데이터 처리 방법은, 입력 디바이스들과의 인터페이스로 기능하는 입력 인터페이스를 통해 입력 디바이스들로부터 수신된 정보 데이터에 대해, 입력 디바이스들에 공통인 처리를 행하기 위한 입력 공통 처리 단계; 및 입력 인터페이스를 통해 입력 디바이스들로부터 수신된 정보 데이터에 대해, 복수 유형의 입력디바이스 중에서 선택된 입력 디바이스에 따라 가변적으로 처리를 행하는 입력 가변 처리 단계를 포함한다.

본 발명의 또 다른 양태에 따르면, 컴퓨터가 복수 유형의 입력 디바이스로부터 수신된 정보 데이터를 처리하기 위한 데이터 처리를 행하도록 하는 프로그램을 저장하는 기록 매체가 제공된다. 프로그램은, 입력 디바이스들과의 인터페이스로 기능하는 입력 인터페이스를 통해 입력 디바이스들로부터 수신된 정보 데이터에 대해, 입력 디바이스들에 공통인 처리를 행하기 위한 입력 공통 처리 단계; 및 입력 인터페이스를 통해 입력 디바이스들로부터 수신된 정보 데이터에 대해, 복수 유형의 입력 디바이스 중에서 선택된 입력 디바이스에 따라 가변적으로 처리를 행하는 입력 가변 처리 단계를 포함한다.

이러한 구성에서는, 입력 인터페이스를 통해 복수 유형의 입력 디바이스로부터 수신된 정보 데이터에 대해 공통 처리가 행해지고, 입력 디바이스의 유형에 따라 정보 데이터에 대해 가변 처리가 행해진다. 따라서, 다양한 입력 디바이스의 유형에 대해 적합한 처리가 행해질 수 있다.

본 발명의 다른 양태에 따르면, 복수 유형의 출력 디바이스에 정보 데이터를 선택적으로 공급하기 위한 데이터 처리 장치가 제공된다. 데이터 처리 장치는, 출력 디바이스들과의 인터페이스로서 기능하는 출력 인터페이스를 포함한다. 출력 공통 처리부는 출력 인터페이스를 통해 출력 디바이스들에 공급될 정보 데이터에 대해, 출력 디바이스들에 공통인 처리를 행한다. 출력 가변 처리부는 출력 인터페이스를 통해 출력 디바이스에 공급될 정보 데이터에 대해, 복수 유형의 출력 디바이스 중에서 선택된 출력 디바이스의 유형에 따라 가변적으로 처리를 행한다.

상술한 데이터 처리 장치는 출력 인터페이스를 통해 정보 데이터가 공급되는 출력 디바이스의 유형을 검출하는 출력 디바이스 검출기를 더 포함할 수 있다. 이 경우, 출력 공통 처리부 및 출력 가변 처리부는 출력 디바이스 검출기로부터 얻어진 검출 결과에 기초하여 처리를 행할 수 있다.

상술한 데이터 처리 장치에서, 출력 인터페이스는 출력 디바이스들 중 적어도 2개의 출력 디바이스 각각과의 인터페이스로서 기능할 수 있다.

상술한 데이터 처리 장치는, 복수 유형의 저장 디바이스와의 인터페이스로서 기능하는 저장 인터페이스; 저장 인터페이스를 통해 저장 디바이스로부터 수신되는 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스에 공급되는 정보 데이터에 대해, 저장 디바이스들에 공통인 처리를 행하는 저장 공통 처리부; 및 저장 인터페이스를 통해 저장 디바이스로부터 수신되는 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스에 공급되는 정보 데이터에 대해, 복수 유형의 저장 디바이스 중에서 선택된 저장 디바이스의 유형에 따라 가변적으로 처리를 행하는 저장 가변 처리부를 포함할 수 있다.

상술한 데이터 처리 장치는, 저장 인터페이스를 통해 정보 데이터가 수신 또는 공급되는 저장 디바이스의 유형을 검출하는 저장 디바이스 검출기를 더 포함할 수 있다. 이 경우, 저장 공통 처리부 및 저장 가변 처리부는 저장 디바이스 검출기로부터 얻어진 검출 결과에 기초하여 처리를 행할 수 있다.

저장 인터페이스는 저장 디바이스들 중 적어도 2개의 저장 디바이스 각각과의 인터페이스로서 기능할 수 있다.

출력 인터페이스 및 저장 인터페이스는 하나의 인터페이스로 일체화될 수 있다.

본 발명의 또 다른 양태에 따르면, 복수 유형의 출력 디바이스에 정보 데이터를 선택적으로 공급하기 위한 데이터 처리 장치에서 이용되는 데이터 처리 방법이 제공된다. 데이터 처리 방법은 출력 디바이스와의 인터페이스 기능을 하는 출력 인터페이스를 통해 출력 디바이스에 공급될 정보 데이터에 대해 출력 디바이스에 공통적으로 처리를 수행하는 출력 공통 처리 단계와, 출력 인터페이스를 통해 출력 디바이스로 공급될 정보 데이터에 대해 복수 유형의 출력 디바이스로부터 선택된 출력 디바이스의 유형에 따라 가변적으로 처리를 수행하는 출력 가변 처리 단계를 포함한다.

본 발명의 다른 양태에 있어서, 컴퓨터가 복수 유형의 출력 디바이스에 공급될 정보 데이터를 처리하기 위한 데이터 처리를 수행하게 하는 프로그램을 저장하기 위한 기록 매체를 제공한다. 이 프로그램은 출력 디바이스와의 인터페이스 기능을 하는 출력 인터페이스를 통해 출력 디바이스에 공급될 정보 데이터에 대해 출력 디바이스에 공통적으로 처리를 수행하는 출력 공통 처리 단계와, 출력 인터페이스를 통해 출력 디바이스로 공급될 정보 데이터에 대해 복수 유형의 출력 디바이스로부터 선택된 출력 디바이스의 유형에 따라 가변적으로 처리를 수행하는 출력 가변 처리 단계를 포함한다.

이러한 장치를 이용하여, 출력 인터페이스를 통해 복수 유형의 출력 디바이스에 공급될 정보 데이터에 대해 공통 처리가 수행되고, 출력 디바이스의 유형에 따라 정보 데이터에 대해 가변 처리도 수행된다. 그러므로, 다양한 유형의 출력 디바이스에 대해 적절한 처리가 수행될 수 있다.

본 발명의 다른 양태에 있어서, 복수 유형의 저장 디바이스와 정보를 선택적으로 주고 받기 위한 데이터 처리 장치가 제공된다. 이 데이터 처리 장치는 복수 유형의 저장 디바이스와의 인터페이스 기능을 하는 저장 인터페이스를 포함한다. 저장 공통 처리부는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터에 대해 저장 디바이스에 공통적으로 처리를 수행한다. 저장 가변 처리부는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터 및 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터에 대해 복수 유형의 저장 디바이스로부터 선택된 저장 디바이스의 유형에 따라 가변적으로 처리를 수행한다.

전술한 데이터 처리 장치는 저장 인터페이스를 통해 정보 데이터를 주고 받는 저장 디바이스의 유형를 검출하기 위한 저장 디바이스 검출기를 더 포함할 수 있다. 이 경우에, 저장 공통 처리부 및 저장 가변 처리부는 저장 디바이스 검출기로부터 얻은 검출 결과에 기초하여 처리를 수행할 수 있다.

저장 인터페이스는 최소한 2개의 저장 디바이스 각각과의 인터페이스 기능을 할 수 있다.

본 발명의 다른 양태에 따르면, 복수 유형의 저장 디바이스와 정보 데이터를 선택적으로 주고 받기 위한 데이터 처리 장치에서 사용하기 위한 데이터 처리 방법을 제공한다. 데이터 처리 방법은 저장 디바이스와의 인터페이스 기능을 하는 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터에 대해 저장 디바이스에 공통적으로 처리를 수행하는 저장 공통 처리 단계와, 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터에 대해 복수 유형의 저장 디바이스로부터 선택된 저장 디바이스의 유형에 따라 가변적으로 처리를 수행하는 저장 가변 처리 단계를 포함한다.

본 발명의 다른 양태에 따르면, 컴퓨터가 복수 유형의 저장 디바이스와 주고 받는 정보 데이터를 처리하기 위한 데이터 처리를 수행하게 하는 프로그램을 저장하기 위한 기록 매체를 제공한다. 이 프로그램은 저장 디바이스와의 인터페이스 기능을 하는 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터에 대해 저장 디바이스에 공통적으로 처리를 수행하는 저장 공통 처리 단계와, 저장 인터페이스를 통해 저장 디바이스에 공급될 정보 데이터 또는 저장 인터페이스를 통해 저장 디바이스로부터 수신된 정보 데이터에 대해 복수 유형의 저장 디바이스로부터 선택된 저장 디바이스의 유형에 따라 가변적으로 처리를 수행하는 저장 가변 처리 단계를 포함한다.

이러한 구성의 경우, 저장 인터페이스를 통해 복수 유형의 저장 디바이스와 주고 받는 저장 데이터에 대해 공통 처리가 수행되고, 저장 디바이스의 유형에 따라 정보 데이터에 대해 가변 처리도 수행한다. 따라서, 다양한 유형의 저장 디바이스에 대해 적절하게 처리를 수행할 수 있다.

도 1은 본 발명의 일실시예에 따른 데이터 처리 시스템의 구성예를 도시하는 블록도.

도 2는 도 1에 도시된 종합 처리 박스(1)의 구성예를 도시하는 블록도.

도 3 내지 5는 공통 처리를 도시하는 도면.

도 6 내지 8은 가변 처리를 도시하는 도면.

도 9는 가변 처리 그룹(28)을 형성하는 가변 처리부의 구성예를 도시하는 블록도.

도 10은 표준 선명(SD: standard definition) 영상 및 고선명(HD: high definition) 영상간의 관계를 도시하는 도면.

도 11은 분류 회로(214)의 구성예를 도시하는 블록도.

도 12는 가변 처리부에 의해 수행된 시간/공간적 처리를 도시하는 흐름도.

도 13은 예측 계수를 결정하기 위해 학습 처리를 수행하기 위한 학습 장치의 구성예를 도시하는 블록도.

도 14는 도 13의 학습 장치에 의해 수행된 학습 처리를 도시하는 흐름도.

도 15는 일반적인 장치인 비디오 카메라의 구성예를 도시하는 블록도.

도 16은 고유 장치인 비디오 카메라의 구성예를 도시하는 블록도.

도 17은 사각형의 장치인 비디오 카메라(40A)에 의해 행해지는 처리와 공통 처리 및 가변 처리와의 관계를 도시하는 도면.

도 18은 사각형의 장치인 CRT 모니터의 구성의 일례를 도시하는 블럭도.

도 19는 고유 장치인 CRT 모니터의 구성의 일례를 도시하는 블럭도.

도 20은 사각형의 장치인 모니터 CRT(60A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 21은 둘다 고유 장치인, 비디오 카메라(40B)와 CRT 모니터(60B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 22는 사각형의 장치인 액정 모니터의 구성의 일례를 도시하는 블럭도.

도 23은 고유 장치인 액정 모니터의 구성의 일례를 도시하는 블럭도.

도 24는 사각형의 장치인 액정 모니터(80A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 25는 둘다 고유 장치인 비디오 카메라(40B) 및 액정 모니터(80B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 26은 사각형의 장치인 프로젝터(91A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 27은 둘 다 고유 장치인 비디오 카메라(40B) 및 프로젝터(91B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 28은 사각형의 장치인 디지탈 카메라(92A) 또는 프린터(93A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 29는 프린터(93A)의 구성의 일례를 도시하는 블럭도.

도 30은 둘 다 고유 장치인, 디지탈 카메라(92B) 및 프린터(93B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 31은 프린터(93B)의 구성의 일례를 도시하는 블럭도.

도 32는 사각형의 장치인 이미지 스캐너(94A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 33은 둘 다 고유의 장치인, 이미지 스캐너(94B)와 프린터(93B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 34는 사각형의 장치인 VCR(95AA)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 35는 VCR(95A)의 구성의 일례를 도시하는 블럭도.

도 36은 둘 다 고유의 장치인, VCR(95B) 및 CRT 모니터(60B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 37은 VCR(95B)의 구성의 일례를 도시하는 블럭도.

도 38은 사각형의 장치인 DVD 플레이어(96A)에 의해 행해지는 처리와 공통 처리 및 가변 처리 간의 관계를 도시하는 도면.

도 39는 DVD 플레이어(96A)의 구성의 일례를 도시하는 블럭도.

도 40은 둘 다 고유의 장치인, DVD 플레이어(96B) 및 액정 모니터(80B)에 접속된 종합 처리 박스(1)에 의해 행해지는 처리를 도시하는 도면.

도 41은 DVD 플레이어(96B)의 구성의 일례를 도시하는 블럭도.

도 42는 본 발명이 적용되는 컴퓨터의 구성의 일례를 도시하는 블럭도.

<도면의 주요 부분에 대한 부호의 설명>

1 : 종합 처리 박스

5 : 원격 조종 장치

21 : 선택기

22 : 입력 검출 수단

24 : 출력 검출 수단

도 1은 본 발명의 제1 실시예에 따른 데이터 처리 시스템을 설명하는 도면이다. 본 명세서에서는, 시스템은 복수의 장치의 논리 그룹이고, 동일한 하우징 내에 서로 다른 장치가 반드시 있어야 하는 것은 아니다.

종합 처리 박스(1)는 복수의 입력 디바이스(111내지 11K)에 각각 접속 가능한 복수의 단자(21내지 2K)(K는 도 1에 도시된 실시예에 있음), 복수의 출력 디바이스(121내지 12M)에 접속 가능한 복수의 단자(31내지 3M)(M은 도 1에 도시된 실시예에 있음), 및 복수의 기억 장치(131내지 13N)에 접속 가능한 복수의 단자(41내지 4N)(N은 도 1에 도시된 실시예에 있음)를 포함한다.

종합 처리 박스(1)는 입력 디바이스(11k)(k = 1, 2, ..., k)로부터 수신된 데이터, 출력 디바이스(12m)(m = 1, 2, ...., M)로 출력될 데이터, 기억 장치(13n)(n = 1, 2, ..., N)에 기록될 데이터, 및 기억 장치(13n)로부터 판독되는 데이터에 대한 공통 처리 및 가변 처리를 행한다.

입력 디바이스(11k)는 데이터를 수신하기 위한 장치, 예를 들면, 디지탈 카메라, 이미지 스캐너 등이다. 출력 디바이스(12m)는 사람이 인지할 수 있는 유형로 데이터를 출력하기 위한 장치, 예를 들면, CRT 모니터, 액정 표시 모니터, 프로젝터, 프린터 등이다. 기억 장치(13n)는 데이터를 기억하기 위한 장치, 예를 들면, 디지털 버서타일 디스크(DVD) 플레이어, 비디오 카셋트 레코더(VCR) 등이다.

상술한 바와 같이, 종래의 장치는 크게 고유부, 공통 처리를 행하는 부분, 및 가변 처리를 행하는 부분으로 나뉘어질 수 있다. 이 세 부분에 의해 행해지는 처리중에, 종합 처리 박스(1)는 공통 처리 및 가변 처리를 행한다. 따라서, 종합 처리 박스(1)에 접속된 입력 디바이스(11k), 출력 디바이스(12m), 및 기억 장치(13n)의 공통 처리 및 가변 처리를 행하는 부품을 제공할 필요가 없다. 즉, 종합 처리 박스(1)에 접속된 입력 디바이스(11k), 출력 디바이스(12m), 기억 장치(13n) 필요한 고유 부품만 있으면 된다.

그러나, 입력 디바이스(11k), 출력 디바이스(12m), 및 기억 장치(13n)는, 종래의 장치에서와 같이, 3개의 부분, 즉, 고유부, 공통 처리를 행하는 부분, 가변 처리를 행하는 부분을 갖는 경우가 있다. 환언하면, 고유부만을 갖는 장치 뿐만 아니라, 종래의 장치도 종합 처리 박스(1)에 접속될 수 있다는 것이다.

고유부만으로 형성된 장치는 여기서는 고유 장치라고 하고, 종래의 장치와 같이, 3개의 부분, 즉, 고유부, 공통 처리를 행하는 부분, 및 가변 처리를 행하는 부분을 갖는 장치는 보통 디바이스라고 한다.

사용자는 원격 제어기(5)를 작동시켜 종합 처리 박스(1)에 다양한 명령을 제공한다. 원격 제어기(5)는 사용자의 동작에 응답하여 동작 신호, 예를 들어 적외선 신호를 방출하고, 종합 처리 박스(1)는 사용자의 명령을 인식하도록 적외선 신호를 수신한다.

도 1에 도시된 실시예에 있어서, 입력 디바이스(11k), 출력 디바이스(12m), 및 기억 장치(13n)가 모두 케이블에 의해 종합 처리 박스(1)에 접속되어 있음에도 불구하고, 그 장치들은 예를 들어 전자파 혹은 적외선 빔을 이용하여, 종합 처리 박스(1)와 무선으로 데이타 통신을 개별적으로 수행할 수 있다.

간단함을 위하여, 종합 처리 박스(1)에 의해 처리되어질 데이타는 이미지 데이타로 결정된다.

도 2는 도 1에 도시된 종합 처리 박스(1)의 구성의 예를 도시한다.

입력 디바이스(11k)와의 인터페이스로서 기능하는 선택기(21)는 단자들(21내지 2k)에 각각 접속된 입력 디바이스들(111내지 11k)로부터 이미지 데이타를 수신하고, 제어기(30)의 제어하에 타깃(target) 이미지 데이타를 선택하고, 그 타깃 이미지 데이타를 종합 처리기(27)로 공급한다. 선택기(21)는 단자들(21내지 2k) 각각에 접속된 입력 디바이스들(111내지 11k)의 유형을 검지하기 위하여 부착된 입력 검지기(22)를 가지며, 장치의 검지된 유형을 나타내는 정보를 제어기(30)에 공급한다.

입력 검지기(22)는 단자(2k)에 접속된 입력 디바이스(11k)와 통신을 수행함으로써 단자(2k)에 접속된 입력 디바이스(11k)의 유형을 검지할 수 있다. 대안으로, 단자들(21내지 2k)에 접속가능한 입력 디바이스는 미리 설정될 수 있기 때문에, 단자(2k)에 접속된 입력 디바이스(11k)의 유형을 검지하는 것이 가능하다. 대안으로, 사용자는 원격 제어기(5)를 동작시킴으로써 단자(2k)에 접속된 입력 디바이스(11k)의 유형을 입력할 수 있다. 유사하게, 이후에 설명되는 출력 검지기(24) 및 기억 검지기(26)는 단자(3m)에 접속된 출력 디바이스(12m)의 유형 및 단자(4n)에 접속된 기억 장치(13n)의 유형을 각각 검지한다.

출력 디바이스(12m)와의 인터페이스로서 기능하는 선택기(23)는 제어기(30)의 제어하에서 단자들(31내지 3M)에 각각 접속된 출력 디바이스들(121내지 12M) 중의 하나를 선택하여, 종합 처리기(27)로부터 수신된 이미지 데이타를 선택된 출력 디바이스로 공급한다. 선택기(23)는 단자들(31내지 3M)에 각각 접속된 출력 디바이스들(121내지 12M)의 유형을 검지하기 위한 부착된 출력 검지기(24)를 가지고, 출력 디바이스의 검지된 유형을 나타내는 정보를 제어기(30)로 공급한다.

기억 장치(13n)와의 인터페이스로서 기능하는 선택기(25)는 제어기(30)로부터의 제어 신호에 따라 단자들(41내지 4N)에 각각 접속된 기억 장치들(131내지 13N) 중의 하나를 선택하여, 종합 처리기(27)로부터 수신된 이미지 데이타를 선택된 기억 장치로 공급한다. 선택기는 단자들(41내지 4N)에 각각 접속된 기억장치들(131내지 13N)의 유형을 검지하기 위한 부착된 기억 검지기(26)를 가지며, 기억 장치의 유형을 나타내는 정보를 제어기(30)로 공급한다.

도 2에 도시된 실시예에 있어서, 입력 디바이스(11k)와의 인터페이스로서 기능하는 선택기(21), 출력 디바이스(12m)와의 인터페이스로서 기능하는 선택기(23), 및 기억 장치(13n)와의 인터페이스로서 기능하는 선택기(25)가 개별적으로 제공된다. 그러나, 입력 디바이스(11k), 출력 디바이스(12m), 및 기억 장치(13n) 모두를 위하여 오직 하나의 선택기만이 제공될 수 있다. 즉, 3개의 선택기들(21, 23, 및 25)을 제공하는 것 대신에, 오직 단일 선택기만이 제공되어, 입력 디바이스(11k), 출력 디바이스(12m), 및 기억 장치(13n)는 모두 단일 선택기에 접속 가능하다.

종합 처리기(27)는, 가변 처리를 수행하기 위한 적어도 하나의 가변 처리부으로 구성된 가변 처리 그룹(28), 및 공통 처리를 수행하기 위한 적어도 하나의 공통 처리부으로 구성된 공통 처리 그룹(29)으로 형성된다. 가변 처리 그룹(28)은 선택기(21과 25)로부터 공급된 이미지 데이타, 및 선택기(23과 25)로 출력되어질 이미지 데이타 상의 가변 처리를 제어기(30)의 제어하에서 수행한다. 공통 처리 그룹(29)은 선택기(21과 25)로부터 공급되는 이미지 데이타, 및 선택기로(23과 25) 출력되어질 이미지 데이타 상의 공통 처리를 제어기(30)의 제어하에서 수행한다.

제어기(30)는 선택기(21, 23, 및 25), 및 입력 검지기(22)로부터 수신된 입력 디바이스(111내지 11K)의 검지된 유형에 대한 정보, 출력 검지기(24)로부터 수신된 출력 디바이스(121내지 12m)의 검지된 유형에 대한 정보, 기억 검지기(26)로부터 수신된 기억 장치들(131내지 13N)의 검지된 유형에 대한 정보, 및 원격 제어기로부터의 신호에 기초하여 종합 처리기(27)를 제어한다. 제어기(30)는 인터넷과 같은 소정의 네트워크를 통하여 통신 유닛(31)으로부터 송신된 데이타를 수신하여, 소정의 처리를 수행한다.

통신 유닛(31)은 예를 들어 모뎀, 단말기 어댑터, 네트워크 인터페이스 카드 등으로 형성되며, 네트워크를 통하여 서버(도시되지 않음)로부터 송신된 데이타를 수신하고 그 데이타를 제어기(30)로 공급한다. 즉, 통신 유닛(31)은 네트워크를 통하여 서버에게 제어기의 제어하에서 종합 처리기(27)에서 수행되어질 처리를 위해 필요한 데이타(예를 들어, 아래에서 설명될 예측 계수(prediction coefficient))를 전송하라고 요구한다. 서버는 요구된 데이타를 가지면, 그 데이타를 네트워크를 통하여 통신 유닛(31)으로 공급한다. 통신 유닛(31)은 서버로부터 데이타를 수신하여 그 데이타를 제어기(30)로 공급한다.

상술한 바와 같이, 통신 유닛(31)으로부터 데이타를 수신하면, 제어기(30)는 필요한 경우 이전 데이타를 수신된 데이타로 갱신할 수도 있다.

종합 처리기(27)에 의해 수행되는 가변 처리 및 공통 처리는 다음과 같다.

상기에 기재된 바와 같이, 공통 처리는 장치 독립적인 처리이며, 복수개의 장치들에 대해 공통으로 수행될 수 있다. 예를 들어, 이미지 데이터를 수신하는 입력 디바이스의 경우에는, 도 3에 도시된 바와 같이, 공통 처리는 잡음 감소(NR)처리, NTSC 인코딩 처리 및 동이미지 표준화 그룹(MPEG) 인코딩 처리에 대응한다.

이미지 데이터를 출력하는 출력 디바이스의 경우에는, 도 4에 도시된 바와 같이, 공통 처리는 NR 처리, NTSC 디코딩 처리 및 MPEG 디코딩 처리에 대응한다. 이미지 데이터를 저장하는 저장 디바이스의 경우에는, 도 5에 도시된 바와 같이, 공통 처리는 압축/디코딩 처리 및 이산 코사인 변환(DCT)/ 역 DCT 처리에서 사용되는 허프만-코딩/디코딩 처리에 대응한다.

반대로, 가변 처리는 디바이스-의존 처리, 즉 디바이스의 종류에 따라 콘텐츠가 상이한 처리이다. 예를 들어, 이미지 데이터를 수신하는 입력 디바이스에 대하여, 도 6에 도시된 바와 같이, 가변 처리는 주파수 볼륨 처리, 시간/공간적 처리, 픽셀 변환 처리 등에 대응한다. 이미지 데이터를 출력하는 출력 디바이스에 대하여, 도 7에 도시된 바와 같이, 가변 처리는 주파수 볼륨 처리, 시간/공간적 처리 및 픽셀 변환 처리에 대응한다.

주파수 볼륨 처리에서, 이미지의 주파수 특성을 조정함으로써 선명도(해상도)가 변화된다. "볼륨"은 주파수 특성이 조정될 수 있다는 것을 의미한다. 즉, 주파수 볼륨 처리는 이미지의 주파수 특성을 결정한다. 시간/공간적 처리에 따라, 시간 도메인 또는 공간 도메인내의 픽셀 수가 변화된다. 픽셀 변환 처리에 따라, 픽셀의 종횡비가 변화된다.

출력 디바이스로서 기능하는 CRT 또는 액정 패널상에 이미지가 표시되면, 이미지의 주파수 특성이 출력 디바이스, 즉 CRT 또는 액정 패널의 특성과 일치하는 것이 바람직하다. CRT상에 이미지가 표시되면, 이미지의 프레임(필드) 레이트는CRT의 타입, 즉 NTSC 타입 또는 PAL 타입에 따라 변화되어야 한다. CRT가 NTSC 타입인지 컴퓨터용으로 사용되는지에 따라 픽셀의 종횡비를 변화시킬 필요가 있다. 따라서, 주파수 특성을 변화시키기 위한 주파수 볼륨 처리, 시간 또는 공간 도메인에서의 선명도(해상도)를 변화시키기 위한 시간/공간적 처리 및 픽셀의 종횡비를 변화시키기 위한 픽셀 변환 처리는 디바이스 의존이며 가변 처리에 대응한다.

이미지를 저장하기 위한 저장 디바이스의 경우에, 예를 들어, 도 8에 도시된 바와 같이, 압축/디코딩 처리에 사용되는 양자화/역양자화 처리, 양자화 잡음을 억제하기 위해 양자화 처리 이전 또는 이후에 수행되는 사전-처리 또는 사후-처리에 대응한다. 특히, 대량의 저장 용량을 갖는 저장 디바이스의 경우에, 이미지 품질을 개선하기 위한 보다 소규모의 양자화 단계를 갖는 양자화 처리가 수행되는 것이 바람직하다. 반대로, 소량의 저장 용량을 갖는 저장 디바이스의 경우에, 이미지 품질 대신에 전체 이미지가 저장될 수 있도록 보다 대규모의 양자화 단계를 갖는 양자화 처리가 수행되는 것이 바람직하다. 따라서, 양자화/역양자화 처리는 디바이스 의존형이며 가변 처리에 대응한다.

상술된 바와 같이, 도 2에 도시된 가변 처리 그룹(28)은 주파수 볼륨 처리, 픽셀 변환 처리 및 시간/공간적 처리와 같은 가변 처리를 수행한다. 이러한 가변 처리는 본 출원의 양수인이 이미 제안한 분류 적응 처리에 의해 수행될 수 있다. 분류 적응 처리는 후술될 것이다.

분류 적응 처리는 또한 분류 처리 및 적응 처리로 분할된다. 분류 처리를 수행함으로써 데이터가 특성에 따라 분류되며, 각 종류의 데이터 항목들은 적응 처리에 따라 적응된다. 적응 처리의 상세한 설명은 후술될 것이다.

적응 처리에 따르면, 표준-선명도 또는 저 선명도의 이미지(SD 이미지)을 형성하는 픽셀(이러한 픽셀은 이하 "SD" 픽셀이라 칭함)은 소정의 예상 계수와 선형으로 결합된다. 그 결과, SD 이미지보다 선명도가 높은 이미지(HD 이미지)을 형성하는 픽셀의 예상값이 결정될 수 있다. 예상값에 기초하여, SD 이미지보다 선명도가 높은 이미지가 얻어질 수 있다.

보다 상세히 기술하자면, 예를 들어, 소정의 HD 이미지는 감시자 데이타로 설정되고, HD 이미지보다 선명도가 낮은 SD 이미지는 학습자 데이타로 설정된다. 현재는, HD 이미지를 형성하는 픽셀(이들 픽셀을 이하에서는 "HD 픽셀"로 기술하기로 함)의 참 픽셀값 y의 추정치 E[y]는 일부 SD 픽셀 중 한 셋트이 픽셀값 x1, x2등과 소정의 추정 계수 w1, w2, 등을 선형으로 조합시켜 정의된 선형으로 조합된 모델에 의해 결정되는 것으로 여겨진다. 이 경우, 추정치 E[y]는 다음식으로 표현될 수 있다.

수학식 1을 일반식으로 표현하기 위해, 한 셋트의 추정 계수 wj로 구성되는 매트릭스 W, 학습자 데이타 xij로 구성되는 매트릭스 X, 및 한 셋트의 추정치 E[yj]로 구성되는 매트릭스 Y'가 아래 수학식 2

로 정의되면,

다음식이 적용된다.

여기서, 매트릭스 X의 성분 xij는 i번째 셋트의 학습자 데이타(i번째 셋트의 학습자 데이타는 i번째 감시자 데이타의 항목 yi를 추정하는 데 사용됨)의 j번째 항목을 나타내고, 매트릭스 W의 성분 wj는 i번째 셋트의 학습자 데이타의 j번째 항목이 곱해진 추정 계수를 나타내고, yi는 감시자 데이타의 i번째 항목을 나타내어, E[yi]는 감시자 데이타의 i번째 항목의 추정치를 나타낸다. 수학식 1의 좌변의 변수 y는 부지수 i가 없는 매트릭스 Y의 성분 yi에 대응한다. 수학식 1의 우변에서의 변수 x1, x2등은 부지수i가 없는 매트릭스 X의 xij에 대응한다.

현재, HD 픽셀의 픽셀값 y에 근접 치한 추정치 E[y]는 수학식 3에 최소 제곱법을 적용시켜 정해지는 것으로 여겨진다. 이 경우, 감시자 데이타로서 기능하는 HD 픽셀의 한 셋트의 참 픽셀값 y로 구성되는 매트릭스 Y, 및 추정치 E[y]와 HD 픽셀의 픽셀값 y 간의 한 셋트의 잔차로 구성되는 매트릭스 E가 다음식

으로 정의되면,

다음식이 적용된다.

이 경우, HD 픽셀의 픽셀값 y에 근접 위치된 추정치 E[y]를 결정하기 위한 추정 계수 wj는 제곱 오차를 최소화시킴으로써 수학식 6으로 정해질 수 있다.

따라서, 추정 계수 wj에 대해 상기 제곱 오차를 미분시켜 구한 값이 0인 경우, 아래의 수학식 7을 만족시키는 추정 계수 wj는 HD 픽셀의 픽셀값 y에 근사한 추정치 E[y]를 결정하기 위한 최적의 값이다.

이와 같이, 추정 계수 wj에 대해 수학식 5를 미분시킴으로써, 아래 수학식 8이 적용된다.

수학식 7 및 수학식 8로부터, 아래 수학식 9를 얻을 수 있다.

학습자 데이타 xij, 추정 계수 wj, 감시자 데이타 yi, 및 수학식 5에서의 잔차 ei간의 관계를 고려함으로써, 수학식 9로부터 아래 수학식 10을 구할 수 있다.

매트릭스(공분산 매트릭스) A 및 벡터 v가 아래의 수학식 11로 정의되며,

벡터 W가 수학식 2로 정의되면, 아래의 수학식 10은 다음과 같이 표현될 수 있다.

수학식 10에 따르면, 소정 셋트수의 학습자 데이타 xij와 감시자 데이타 yi를 준비함으로써, 정해질 추정 계수 wj의 j 개수와 동일한 수의 수학식을 얻을 수 있다. 따라서, 벡터 W(수학식 12에서의 매트릭스 A는 수학식 12의 해를 구하기 위한 정규 매트릭스임에 주목해야 함)의 해를 구함으로써, 최적의 추정 계수 wj를 얻을 수 있다. 수학식 12의 해는 예를 들어, 가우스-조단 제거법에 따라 구해질 수 있다.

최적의 추정 계수 wj는 상술된 바와 같이 구해진다. 이로써, 추정 계수 wj를 이용하여, 수학식 1에 따라 HD 픽셀의 픽셀값 y에 근사한 추정치 E[y]가 정해진다.

적응성 처리는 상술된 바와 같이 수행된다.

적응성 처리에 따르면, SD 이미지에 포함되지 않지만 HD 이미지에 포함되는 성분이 재구성된다. 이 특징 면에서, 적응성 처리는 예를 들어 내삽 처리와 다르다. 더 상세하게는, 적응성 처리는 등식(1)의 관점에서 내삽 필터를 이용하는 내삽 처리와 유사하게 나타난다. 그러나, 내삽 필터에서 이용되는 탭 계수와 등가인 예측 계수 w는 관리자 데이터를 이용하여, 즉 학습함으로써 획득되어, HD 이미지에 포함된 성분을 재구성하는 것을 가능하게 한다. 결과적으로, 적응성 처리는 이미지-생성(정의-작성) 함수이다.

이 예에서, 적응성 처리가 정의를 개선시키도록 수행되지만, 예측치를 결정하는데 이용되는 관리자 데이터와 학습자 데이터를 변경함으로써 신호 대 잡음(S/N)비 및 이미지 품질(예를 들어, 블러링)을 개선하도록 수행될 수 있다.

그 외에도, 상술된 예에서, 적응성 처리가 SD 이미지를 공간 도메인에서 더 많은 픽셀을 갖는 HD 이미지로 변환하도록 수행된다. 그러나, 예측 계수를 결정하는데 이용되는 관리자 데이터 및 학습자 데이터를 변경함으로써, 임시 도메인에서 픽셀의 수, 즉 프레임 레이트(필드 레이트) 또는 픽셀 측면비(aspect ratio)가 변경될 수 있다.

다시 말해, 적응성 처리에 따르면, 다양한 예측 계수가 관리자 데이터 및 학습자 데이터를 변경함으로써 획득될 수 있다. 그러면, 다양한 타입의 처리가 이미지에 수행될 수 있다.

도 9는 적응성 처리를 수행하는, 더 상세하게는 분류 적응성 처리에 따라 개선된 정의를 갖는 HD 이미지의 예측치를 결정하는 시간/공간 처리를 수행하는 가변적 처리 유닛의 구조의 예를 도시한다.

도 9에 도시된 가변적 처리 유닛에서, 입력 디바이스(11k)에서 출력 디바이스(12m)로 SD 이미지가 공급될 때, 정의를 적절히 개선하는 가변적 처리가 입력 디바이스(11k) 및 출력 디바이스(12m)의 타입에 따라 수행된다.

단순한 표시로서, 525i 이미지(525 수평선을 갖는 인터레이스 이미지) 또는 262p 이미지(262 수평선을 갖는 프로그레시브 이미지)이 SD 이미지로서 입력되고, 525p 이미지(525 수평선을 갖는 프로그레시브 이미지)이 HD 이미지로서 출력된다. 262p SD 이미지의 프레임 레이트, 525i SD 이미지의 필드 레이트 및 525p HD 이미지의 프레임 레이트는 예를 들어 60㎐로 동일하다. 따라서, 525i SD 이미지의 프레임 레이트는 30㎐이다.

그러면, 262p SD 이미지의 한 프레임은 HD 이미지의 한 프레임에 대응하고, 525i SD 이미지의 한 필드는 HD 이미지의 한 프레임에 대응한다. 262p 또는 525i SD 이미지의 수평선에서의 픽셀의 수 대 525p HD 이미지의 수평선에서의 픽셀의 수의 비율은 1 : 2이다. 따라서, 도 10에 도시된 바와 같이 262p SD 이미지과 525iHD 이미지 둘 다는 수직 픽셀 및 수평 픽셀을 두 배로 함으로써 개선된 정의를 갖는 525p HD 이미지로 변환된다.

525i 이미지의 전형적인 예는 텔레비젼 방속국으로부터 송출되는 텔레비젼 방송 프로그램을 형성하는 NTSC 이미지(이하, "텔레비젼 이미지")이다. 252p 이미지의 전형적인 예는 게임 머신으로부터 판독되는 게임 이미지이다.

도 9를 참조하면, 정의가 개선될 SD 이미지가 예를 들어 프레임 또는 필드 단위로 프레임 메모리(211)에 공급되며, 선정된 기간으로 저장된다.

프레임 메모리(211)는 SD 이미지의 복수의 프레임 또는 필드를 동시에 저장하도록 복수의 뱅크를 포함한다.

예측 탭 형성 회로(212)는 프레임 메모리(211)에 저장된 SD 이미지보다 더 높은 정의를 갖는 HD 이미지를 형성하여 주어진 픽셀이 되는 선정된 픽셀을 순차적으로 설정한다. HD 이미지는 가변적 처리 유닛에 실제 존재하지 않기 때문에 가상 이미지이다. 예측 탭 형성 유닛(212)은 그러면 프레임 메모리(211)에 저장된 SD 이미지로부터 HD 이미지의 주어진 픽셀에 공간적으로 또는 임시적으로 가깝게 위치된 일부의 SD 픽셀을 선택함으로써 예측 계수로 누산되도록 예측 탭을 형성한다.

예측 탭 형성 회로(212)는 또한 레지스터(218b)에 설정된 정보(이하, "예측 탭 정보")를 토대로 예측 탭으로서 이용되도록 SD 픽셀의 선택 패턴을 설정한다.

더 상세하게는, 예측 탭 형성 정보를 토대로, 예측 탭 형성 회로(212)는 도 10에 도시된 바와 같이 주어진 픽셀(도 10에 두 개의 픽셀 즉, P33및 P34, P33은 이예에서 선택된 것이다)에 가장 가깝게 위치된 SD 이미지의 픽셀, 4개의 가장 가까운 SD 픽셀 즉, P33의 상, 하, 좌, 우에 위치된 P23, P43, P32및 P34및 P33에 대응하는 이전 프레임의 SD 픽셀 및 P33에 대응하는 후속적인 프레임의 SD 픽셀 즉, 전체 7개의 픽셀을 선택한다. 예측 탭 형성 회로(212)는 예측 탭으로서 이용될 SD 픽셀의 선택 패턴으로서 7개 픽셀을 설정한다.

이와 달리, 예측 탭 형성 정보에 따르면, 도 10에 도시된 바와 같이, 예측 탭 형성 회로(212)는 소정의 픽셀에 가장 가까운 SD 이미지의 픽셀(P33)와, 이 픽셀 (P33)의 위, 아래, 좌측, 우측에 위치한 4개의 최근접 SD 픽셀(P23, P43, P32, P34)와, P33에 대응하는 이전 필드의 SD 픽셀와, P33에 대응하는 연속 필드의 SD 픽셀 즉, 예측 탭으로 사용될 SD 픽셀의 선택 패턴으로서의 7개의 전체 픽셀을 선택한다.

대안적으로, 예측 탭 형성 정보에 따르면, 도 10에 도시된 바와 같이, 예측 탭 형성 회로(212)는 소정의 픽셀에 가장 가까운 SD 이미지의 픽셀(P33)와, 이 픽셀 (P33)의 위, 아래, 좌측, 우측에 위치한 4개의 다음 근접(next-but-one) SD 픽셀(P13, P53, P31, P35)와, 픽셀(P33) 이전의 SD 픽셀의 2 프레임(혹은 2 필드)과, 픽셀(P33) 이후의 SD 픽셀의 2 프레임(혹은 2 필드) 즉, 예측탭으로 사용될 SD 픽셀의 선택 패턴으로서의 전체 7개의 픽셀을 선택한다.

상술한 바와 같이, 예측 탭 형성 회로(212)는 예측 탭 형성 정보에 기초하여 선택 패턴을 설정하고, 프레임 메모리(211) 내에 저장된 SD 이미지로부터의 소정의픽셀에 대한 예측 탭으로 사용될 SD 픽셀을 선택한다. 다음에, SD 픽셀들을 형성하는 선택된 예측 탭들은 예측 계산 회로(216)에 출력된다.

예측 탭으로서 선택된 SD 픽셀들은 상술한 선택 패턴으로 국한되는 것은 아니다. 더욱이, 비록 상술한 예에서 예측 탭들은 7개의 SD 픽셀들로 형성되고 있지만, 예측탭을 형성하기 위한 SD 픽셀의 수는 예측 탭 형성 정보에 기초하여 적절히 선택될 수도 있다.

클래스 탭 형성 회로(213)는 프레임 메모리(211)에 저장된 SD 이미지로부터의 소정의 픽셀에 공간적으로 혹은 일시 근접하여 위치하는 몇몇 SD 픽셀들을 선택하여, 소정의 픽셀들을 클래스 내로 분류하기 위한 클래스 탭을 형성한다.

클래스 탭 형성 회로(213)는 레지스터(218C)내에 설정된 정보(이하, "클래스 탭 형성 정보"라 함)에 기초하여 클래스 탭으로 사용될 SD 픽셀의 선택 패턴을 설정한다.

보다 구체적으로는, 클래스 탭 형성 정보에 기초하여, 도 10에 도시한 바와 같이, 클래스 탭 형성 회로(213)는 소정의 픽셀에 가장 근접한 픽셀(P33)와, 이 픽셀(P33)의 위, 아래, 좌측, 우측, 상단 좌측, 하단 좌측, 상단 우측, 하단 우측에 위치한 8개의 최근접 SD 픽셀(P23, P43, P32, P34, P22, P42, P24, P44)와, 이전 프레임의 SD 픽셀와, 연속 프레임의 SD 픽셀 즉, 클래스 탭으로 사용될 SD 픽셀의 선택 패턴으로서의 전체 7개의 픽셀들을 선택한다.

이와 달리, 클래스 탭 형성 정보에 따르면, 도 10에 도시한 바와 같이, 클래스 탭 형성 회로(213)는 소정의 픽셀에 가장 근접하여 위치한 픽셀(P33)와, 이 픽셀 (P33)의 위, 아래, 좌측, 우측, 상단 좌측, 하단 좌측, 상단 우측, 하단 우측에 위치한 8개의 최근접 SD 픽셀(P23, P43, P32, P34, P22, P42, P24, P44)와, 이전 필드의 SD 픽셀와, 연속 필드의 SD 픽셀 즉, 클래스 탭으로 사용될 SD 픽셀의 선택 패턴으로서의 전체 7개의 픽셀들을 선택한다.

대안적으로, 클래스 탭 형성 정보에 따르면, 도 10에 도시한 바와 같이, 클래스 탭 형성 회로(213)는 소정의 픽셀에 가장 근접한 SD 이미지의 픽셀(P33)와, 이 픽셀 (P33)의 위, 아래, 좌측, 우측, 상단 좌측, 하단 좌측, 상단 우측, 하단 우측에 위치한 다음 근접(next-but-one) SD 픽셀(P13, P53, P31, P35, P11, P51, P15, P55)와, 픽셀(P33) 이전의 SD 픽셀의 2 프레임(혹은 2 필드)과, 픽셀(P33) 이후의 SD 픽셀의 2 프레임(혹은 2 필드) 즉, 예측탭으로 사용될 SD 픽셀의 선택 패턴으로서 전체 11개의 픽셀을 선택한다.

상술한 바와 같이, 클래스 탭 형성 회로(213)는 클래스 탭 형성 정보에 기초하여 선택 패턴을 설정하고, 이 선택 패턴에 따라 프레임 메모리(211) 내에 저장된 SD 이미지로부터 소정의 픽셀에 대한 클래스 탭으로 사용될 SD 픽셀을 선택한다. 다음에 클래스 탭은 분류 회로(214)에 출력된다.

클래스 탭으로 선택된 SD 픽셀들은 상술한 선택 패턴으로 한정되는 것은 아니다. 더욱이, 비록 상술한 예에서 클래스 탭들은 11개의 SD 픽셀들로 형성되고 있지만, 클래스 탭을 형성하기 위한 SD 픽셀의 수는 클래스 탭 형성 정보에 기초하여 적절히 선택될 수도 있다.

분류 회로(214)는 소정의 픽셀을 분류하고, 그 결과적인 클래스에 대응하는클래스 코드는 어드레스로서 계수 메모리(215)에 공급된다.

도 11은 도 9에 도시한 분류 회로(214)의 구성에 대한 예를 나타내고 있다.

클래스 탭은 동작 분류 회로(221)와 시간/공간 분류 회로(222)에 공급된다.

동작 분류 회로(221)는 임시 영역에서 클래스 탭을 형성하는 SD 픽셀의 배치에 따른 이미지의 동작에 의하여 소정의 픽셀을 분류한다. 즉, 동작 분류 회로(221)는 도 10에 도시한 바와 같이, 모두 3개의 픽셀, 즉 소정의 픽셀에 가장 근접한 픽셀(P33)과, 이전 필드 혹은 프레임의 SD 픽셀(혹은 픽셀 P33 이전의 SD 픽셀의 2 필드 혹은 2 프레임)와, 연속 필드 혹은 프레임의 SD 픽셀(혹은 픽셀 P33 이후의 SD 픽셀의 2 필드 혹은 2 프레임)를 사용하여 소정의 픽셀을 분류한다.

보다 구체적으로는, 동작 분류 회로(221)는 3개의 SD 픽셀 중 일시 인접하는 SD 픽셀들간의 절대차의 합을 계산하여 이 합과 소정의 임계치를 비교한다. 다음에, 동작 분류 회로(221)는 이 비교결과에 기초하여 클래스 코드 즉, 0 또는 1을 합성 회로(223)에 출력한다.

이하, 동작 분류 회로(221)로부터 출력된 클래스 코드는 "동작 분류 코드"라 한다.

시간/공간 분류 회로(222)는 클래스 탭을 형성하는 모든 SD 픽셀을 사용함으로써 이미지의 공간 영역 혹은 임시 영역내 레벨 분포에 따라 소정의 픽셀을 분류한다.

시간/공간 분류 회로(222)에 채택되고 있는 분류 방법으로서, ADRC(adaptive dynamic range coding)법이 이용될 수도 있다.

ADRC 법에 따르면, 클래스 탭을 형성하는 SD 픽셀들은 ADRC 처리되며, 소정의 픽셀들은 이 결과적인 ADRC 코드에 따라 분류된다.

K비트 ADRC 법에서, 클래스 탭을 형성하는 SD 픽셀의 최대 픽셀값 MAX와 최저 픽셀값 MIN이 발견되고, DR = MAX-MIN은 로컬 다이나믹 레인지 DR일 것으로 판정된다. 즉, 최저 픽셀값 MIN은 클래스 탭을 형성하는 각 SD 픽셀의 픽셀값으로부터 감산되며, 이 감산된 값은 DR/2K로 나누어진다(양자화됨). 다음에, 소정의 순서로 배열된 K비트 픽셀값의 비트열은 ADRC 코드로서 출력된다. 따라서, 예를들어, 1비트 ADRC 처리에 따르면, 최저 픽셀값 MIN은 클래스 탭을 형성하는 각 SD 픽셀의 픽셀값으로부터 감산되고, 그 결과적인 값은 최대 픽셀값 MAX와 최저 픽셀값 MIN 간의 평균값으로 나누어진다. 그 결과, 각 픽셀의 값은 1 비트 유형로 양자화된다. 다음에, 소정의 순서로 배치된 1비트 픽셀값의 비트열이 ADRC 코드로서 출력된다.

시간/공간 분류 회로(222)는 클래스 탭을 클래스 코드로서 형성하는 SD 픽셀의 레벨 분포 패턴을 바로 출력할 수도 있다. 그러나, 만일 클래스 탭이 N개의 SD 픽셀로 형성되고, K비트가 각 SD 픽셀에 할당되면, 클래스 코드의 개수는 (2N)K가 되어, 비트 K의 수에 지수적으로 비례하는 커다란 수가 되어 버린다.

따라서, 시간/공간 분류 회로(222)가 픽셀값의 비트 수에 대해 ADRC 처리와 같은 압축 처리를 수행한 후 소정의 픽셀을 분류하는 것이 바람직하다. ADRC 처리의 다른 유형으로는, 예를 들어 벡터 양자화 처리가 수행될 수 있다.

시간/공간 분류 회로(222)로부터 출력된 클래스 코드는 "시간/공간 클래스 코드"로서 이하 지칭된다.

합성 회로(223)는 움직임 분류 회로(221)로부터 출력된 움직임 클래스 코드(본 실시예에서는 1-비트 클래스 코드)를 나타내는 비트 스트림, 및 시간/공간 분류 회로(222)로부터 출력된 시간/공간 클래스 코드를 1-비트 스트림으로서 나타내는 비트 스트림을 배치(조합)하여, 소정 픽셀의 최종 클래스 코드를 발생시키고 그것을 계수 메모리(215)에 출력한다.

도 11에 도시된 실시예에서, 레지스터(218C)에 설정된 클래스 탭 형성 정보가 움직임 분류 회로(221), 시간/공간 분류 회로(222), 및 합성 회로(223)에 제공된다. 이는 SD 픽셀의 선택 패턴의 변화를 클래스 탭 형성 회로(213)에 형성된 클래스 탭으로서 취급하는 것이다.

움직임 분류 회로(221)에서 얻어진 움직임 클래스 코드는 도 11에 도시된 일점 쇄선으로 가리켜진 바와 같이, 시간/공간 분류 회로(222)에 제공될 수 있고, 시간/공간 분류 회로(222)는 움직임 클래스 코드에 따라 SD 픽셀을 변경시킬 수 있다.

이 경우에, 11개의 SD 픽셀로 형성된 클래스 탭은 클래스 탭 형성 회로(213)(도 9)로부터 시간/공간 분류 회로(222)에 제공된다. 다음, 시간/공간 분류 회로(222)는 다음과 같이 분류를 수행할 수 있다. 움직임 클래스 코드가 0일 때, 11개의 SD 픽셀중 10개의 선정된 SD 픽셀이 사용될 수 있다. 움직임 클래스 코드가 1일 때, 상기 기술된 10개의 SD 픽셀중 선정된 픽셀은 움직임 코드가 0일때 선택되지 않는 나머지 픽셀로 대체된다.

시간/공간 분류 회로(222)가 1비트 ADRC 처리에 따라 분류를 수행할 때, 만약 11개 SD 픽셀이 모두 사용되면 시간/공간 클래스 코드의 수는 (211)1이 된다.

반면에, 만약 단지 10개의 SD 픽셀이 상술한 바와 같이 움직임 클래스 코드에 따라 사용되면, 시간/공간 클래스 코드의 최종 수는 (210)1이 된다. 따라서, 시간/공간 클래스 코드의 수는 11개 SD 픽셀 모두를 사용하여 분류를 수행함으로써 얻어진 것보다 분명히 작다.

그러나 이 경우에, SD 픽셀이 분류에 있어서 생략되는 것을 나타내는 1-비트 정보가 필요하다. 따라서, 시간/공간 클래스 코드의 수는 (210)1×21, 즉 (211)1이 된다. 이는 정확히 11개 SD 픽셀 모두를 사용하여 분류를 수행함으로써 얻어진 수와 동일하다.

도 9를 다시 참조하면, 계수 메모리(215)는 이하 상술되는 학습 처리를 수행함으로써 얻어진 복수의 예측 계수를 저장한다. 즉, 계수 메모리(215)는 복수 유형의 뱅크로 형성되고, 각 뱅크는 대응하는 유형의 예측 계수를 저장한다. 계수 메모리(215)는 레지스터(218D)에 설정된 정보(이하, "계수 정보"라 지칭됨)에 기초하여 사용되도록 뱅크를 설정한다. 계수 메모리(215)는 다음 분류 회로(214)로부터 제공된 클래스 코드에 대응하는 뱅크의 어드레스에 저장된 예측 계수를 판독하고, 이러한 예측 계수를 예측 계산 회로(216)에 제공한다.

다음, 예측 계산 회로(216)는 예측 탭 형성 회로(212)로부터 제공된 예측 탭및 계수 메모리(215)로부터 제공된 예측 계수를 이용함으로써 수학식 (1)로 표현된 선형 예측 계산(적합 계산 ; product sum calculation)을 수행한다. 최종 픽셀 값은 다음 SD 이미지에 비해 개선된 선명도를 갖는 HD 이미지의 예측 값으로서 이미지 재구성 회로(217)에 출력된다.

이미지 재구성 회로(217)는 예측 계산 회로(216)로부터 제공된 예측 값으로부터 522p HD 이미지의 각 프레임을 순차 형성하고 그것을 출력한다.

상술한 바와 같이, 262p SD 이미지는 각 프레임의 라인 수가 두배가 되는 HD 이미지로 변환된다. 525i SD 이미지는 각 필드의 라인 수가 두배가 되는 HD 이미지로 변환된다. 따라서, HD 이미지의 수평 동기 주파수는 SD 이미지의 것보다 두배 높다. 수평 동기 주파수의 변환은 또한 이미지 재구성 회로(217)에서 수행된다.

비록 본 실시예에서 SD 이미지가 525p HD 이미지로 변환되지만, 1050i HD 이미지(1050 수평선을 갖는 인터레이스 이미지) 또는 1050p HD 이미지(1050 수평선을 갖는 프로그레시브 이미지)와 같은 또 다른 포맷의 HD 이미지로 변환될 수 있다. 이미지 재구성 회로(217)로부터 출력될 HD 이미지의 포맷은 레지스터(218A)에 저장된 정보(이하 "HD 이미지 포맷 정보"라 칭함)에 기초하여 설정된다.

레지스터 그룹(218)은 예측 탭 형성 회로(212), 클래스 탭 형성 회로(213), 계수 메모리(215) 및 이미지 재구성 회로(217)의 펑션을 설정하기 위한 정보를 저장한다.

즉, 레지스터 그룹(218)은 도 9에 도시된 바와 같이 네개의 레지스터(218A내지 218D)로 형성된다. 상술한 바와 같이, 대응 제어 신호에 따라 HD 이미지 포맷 정보는 레지스터(218A)에 설정되고, 예측 탭 형성 정보는 레지스터(218B)에 설정되고, 클래스 탭 형성 정보는 레지스터(218C)에 설정되고, 계수 정보는 레지스터(218D)에 설정된다. 따라서, 제어 신호는 HD 이미지 포맷 정보, 예측 탭 형성 정보, 클래스 탭 형성 정보, 및 계수 정보를 포함한다. 제어 신호는 제어기(30)(도 2)에서 발생된다.

특히, 제어기(30)는 선택기(23)를 통해 이미지 데이터를 제공하기 위한 출력 디바이스(12m)의 유형에 기초하여 HD 이미지 포맷 정보를 결정한다. 제어기(30)는 또한 선정된 처리가 입력 디바이스(11k) 및 출력 디바이스(12m)에 대해 수행될 수 있도록, 선택기(21)를 통해 이미지 데이터의 제공하기 위한 입력 디바이스(11k)의 유형(본 실시예에서는, 입력 디바이스(11k)의 유형은 입력 디바이스(11k)가 525i 이미지 또는 262p 이미지를 출력하는 지를 가리킨다) 및 선택기(23)를 통해 이미지 데이터를 제공하기 위한 출력 디바이스(12m)의 유형에 기초하여 예측 탭 형성 정보, 클래스 탭 형성 정보, 및 계수 정보를 결정한다.

도 9에 도시된 가변 처리 장치에 수행되는 SD 이미지의 선명도 개선하기 위한 시간/공간 처리에 대해, 도 12의 순서도를 참조하여 이제 설명된다.

사용자가 원격 제어기(5)(도 1)를 작동시키으로써 이미지를 입력하기 위한 입력 디바이스(11k) 및 이미지를 출력하기 위한 출력 디바이스(12m)를 지정할 때,제어기(30)는 선택기(21 및 23)를 제어하여 지정된 입력 디바이스(11k)에 접속된 단자(2k) 및 지정된 출력 디바이스(12m)에 접속된 단자(3m)을 각각 선택한다. 다음, 입력 디바이스(11k)로부터 출력된 이미지 데이터는 선택기(21)에 의해 선택되고 도 2에 도시된 종합 처리기(27)(가변 처리 그룹(28) 및 공통 처리 그룹(29))에 제공되며, 종합 처리기(27)로부터 출력된 이미지 데이터는 선택기(23)에 의해 선택되어 출력 디바이스(12m)에 제공된다.

본 실시예에서, 입력 디바이스(11k) 및 출력 디바이스(12m)는 사용자 지시에 의해 선택된다. 대안적으로, 해당 입력 디바이스(11k) 및 해당 출력 디바이스(12m)는 선택기(21)의 단자 2k및 선택기(23)의 단자 3m에 미리 설정될 수 있다. 또는, 콘트롤러(30)는 셀렉터(21)에 접속된 입력 디바이스의 유형 및 셀렉터(23)에 접속된 출력 디바이스의 유형에 근거하여 최적의 입력 디바이스 및 최적의 출력 디바이스의 조합을 선택할 수 있다.

셀렉터(21)에 의해 선택된 입력 디바이스(11k)로부터 수신된 SD 이미지는 순차적으로 프레임 또는 필드 단위로 프레임 메모리(211)에 공급되어 저장된다.

그 동안에, 콘트롤러(30, 도 1)는 입력 디바이스(11k)의 유형 및 출력 디바이스(12m)의 유형에 근거하여 해당 제어 신호를 발생하여 레지스터 그룹(218)에 공급한다. 따라서, HD 이미지 포맷 정보, 예측 탭 형성 정보, 클래스 탭 형성 정보및 계수 정보는 제어 신호에 따라 레지스터 그룹(218)의 레지스터 218A, 218B, 218C 및 218D에 각각 설정되어 있다.

이 실시예에서, 525i 또는 262p SD 이미지는 525p HD 이미지로 변환된다. 이와 같이, 525p 이미지는 HD 이미지 포맷 정보내에 설정된다. 예측 탭 형성 정보에는, 525i 또는 262p SD 이미지를 525p HD 이미지로 변환하기 위한 최적 예측 탭을 형성하기 위한 선택 패턴이 설정되어 있다. 클래스 탭 형성 정보에는, 525i 또는 262p SD 이미지를 525p HD 이미지로 변환하기 위한 최적 클래스 탭을 형성하기 위한 선택 패턴이 설정되어 있다. 계수 정보에는, 525i 또는 262p SD 이미지를 525p HD 이미지로 변환하기 위한 최적 예측 계수를 저장하기 위한 계수 메모리(215)의 뱅크를 가리키는 정보가 설정되어 있다.

그 다음에, 단계 S1에서, 주어진 픽셀은 프레임 메모리(211)에 저장된 SD 이미지에 비해 고품위의 HD 이미지를 형성하는 픽셀 중에서 설정된다. 전술한 바와 같이, HD 이미지는 변수 처리 유닛에 실제로 존재하지 않기 때문에 가상 이미지이다. 형성 회로(212)는 프레임 메모리(211)에 저장된 SD 이미지의 픽셀을 사용하여 주어진 픽셀에 대한 예측 탭을 형성한다. 또한, 단계 S1에서, 클래스 탭 형성 유닛(213)은 프레임 메모리(211)에 저장된 SD 이미지의 픽셀을 사용하여 주어진 픽셀에 대한 클래스 탭을 형성한다. 그 다음에, 예측 탭은 예측 계산 회로(216)에 공급되고, 클래스 탭은 분류 회로(214)에 공급된다.

예측 탭 형성 회로(212)는 레지스터(218B)에 설정된 예측 탭 형성 정보에 따라 예측 탭으로 사용될 SD 픽셀의 선택 패턴을 설정하고 선택 패턴에 따라 SD 픽셀을 선택함으로써 예측 탭을 형성하게 된다. 클래스 탭 형성 회로(213)는 레지스터(218C)에 설정된 클래스 탭 형성 정보에 따라 클래스 탭으로 사용될 SD 픽셀의 선택 패턴을 설정하고 선택 패턴에 따라 SD 픽셀을 선택함으로써 클래스 탭을 형성하게 된다.

뒤이어서, 단계 S2에서, 분류 회로(214)는 클래스 탭 형성 회로(213)로부터 공급된 클래스 탭에 기초하여 주어진 픽셀들을 분류하고, 결과 클래스에 대응하는 클래스 코드를 계수 메모리(215)에 어드레스로서 공급한다.

그 다음에, 단계 S3에서, 계수 메모리(215)는 분류 회로(214)로부터 공급된 클래스 코드로 표현된 어드레스에 기억된 예측 계수를 판독하고 이 예측 계수를 예측 계산 회로(216)에 공급한다.

계수 메모리(215)는 레지스터(218D)에 설정된 계수 정보에 해당하는 뱅크를 선택하여 분류 회로(214)로부터 공급된 선택된 뱅크의 어드레스에 저장된 예측 계수를 판독한다.

단계 S4에서, 예측 계산 회로(216)는 예측 탭 형성 회로(212)로부터 공급된 예측 탭 및 계수 메모리(215)로부터 공급된 예측 계수를 사용하여 수학식 (1)로 표현된 선형 예측 계산을 수행하고, 그 결과의 픽셀 값을 이미지 재구성 회로(217)에 주어진 픽셀에 대한 예측 값으로서 공급한다.

그 후에, 단계 S5에서, 이미지 재구성 회로(217)는 예를 들면 한 프레임의 예측 값이 예측 계산 회로(216)로부터 얻어졌는지 여부를 판정한다. 단계 S5의 출력이 '아니오'인 경우에는, 프로세스는 단계 S1으로 돌아가고, HD 이미지의 해당프레임을 형성하는 픽셀 중에서 새로운 주어진 픽셀을 설정하고 단계 S1 내지 S5에서의 처리를 반복한다.

단계 S5에서, 한 프레임의 예측 값들이 얻어진 경우에는, 프로세스는 단계 S6으로 진행하여 이미지 재구성 회로(217)는 예측 값들의 프레임에 대응하는 한 프레임의 HD 이미지(525p HD 이미지)을 재구성한다. 그 다음에 프로세스는 단계 S1으로 되돌아가서 HD 이미지의 후속 프레임에 대해 단계 S1부터의 처리를 마찬가지로 반복하게 된다.

도 13은 도 9에 도시한 변수 처리 유닛의 계수 메모리(215)에 저장된 예측 계수를 결정하기 위해 학습 처리를 수행하기 위한 학습 장치의 구성의 일례를 도시한 것이다.

관리자 데이터의 역할을 하는 HD 이미지(이후부터는, "관리자 이미지"이라 함)은 예를 들면 프레임 단위로 프레임 메모리(231)에 공급되고, 프레임 메모리(231)는 순차적으로 관리자 이미지를 저장한다.

이 실시예에서는, 도 9에 도시한 변수 처리 유닛에서 얻게 되는 HD 이미지가 525p 이미지가기 때문에, 525p 이미지는 관리자 이미지로 사용된다.

데시메이션 필터(232)는 예를 들면 프레임 단위로 프레임 메모리(231)에 저장된 관리자 이미지를 판독한다. 데시메이션 필터(232)는 그 다음에 관리자 이미지의 대역폭을 감축시키고 또한 픽셀의 수를 감축시키기 위해 저역 통과 필터링(LPF)를 수행한다. 따라서, 데시메이션 필터(232)는 학습자 데이터의 역할을 하는 SD 이미지(이후부터는, "학습자 이미지"이라 함)을 생성하기 위해 관리자이미지의 품위를 떨어뜨리고, 이 SD 이미지를 프레임 메모리(233)에 공급한다.

즉, 이 실시예에서는, 도 9에 도시한 변수 처리 유닛에서, 525i 또는 262p SD 이미지로부터 525p HD 이미지가 얻어진다. 또한, 525p HD 이미지의 픽셀 수는 수직 및 수평 방향으로 525i 또는 262p SD 이미지의 픽셀 수를 2배로 만든다.

이와 같이, 관리자 이미지(525p HD 이미지)으로부터 학습자 이미지(525i 또는 262p SD 이미지)을 생성하기 위해, 데시메이션 필터(232)는 먼저 LPF 처리(이 경우, 반대역 필터링)를 수행하여 주파수 대역을 1/2로 감축시킨다.

데시메이션 필터(232)는 또한 LPF 처리된 이미지의 수평 방향으로 배열된 픽셀을 하나 걸러 데시메이트함으로써 픽셀의 수를 1/2로 감축시킨다. 그 다음에 데시메이션 필터(232)는 관리자 이미지의 각 프레임의 수평 라인을 하나 걸러 데시메이트함으로써 수평 라인의 수를 1/2로 감축시킨다. 그 결과, 262p SD 이미지가 학습자 이미지로서 생성될 수 있다.

그 대신에, 데시메이션 필터(232)는 관리자 이미지의 각 기수 프레임의 우수 라인을 데시메이트하고 또한 각 우수 프레임의 기수 라인을 데시메이트함으로써 수평 라인의 수를 1/2로 감축할 수도 있다. 그 결과, 525i SD 이미지가 학습자 이미지로서 생성될 수 있다.

데시메이션 필터(232)는 레지스터(240A)에 설정된 정보(이후부터는, "학습자 이미지 포맷 정보"라 함)에 따라 이미지의 유형, 즉 252p SD 이미지인지 또는 525i SD 이미지인자를 판정한다.

프레임 메모리(233)는 예를 들면 프레임 또는 필드 단위로 데시메이션필터(232)로부터 출력된 학습자 이미지를 순차적으로 저장한다.

예측 탭 형성 회로(234)는 프레임 메모리(231)에 저장된 관리자 이미지를 형성하는 픽셀(이후부터는, "관리자 픽셀"이라 함)을 주어진 픽셀로서 순차적으로 설정한다. 예측 탭 형성 회로(234)는 그 다음에 공간적으로 또는 시간적으로 프레임 메모리(233)으로부터의 주어진 픽셀에 가까이 위치한 학습자 이미지의 어떤 픽셀들(이후부터는, "학습자 픽셀"이라 함) 을 판독하여 예측 계수와 승산되는 예측 탭을 형성한다.

즉, 도 9에 도시된 예측 탭 형성 회로(212)에서와 같이, 예측 탭 형성 회로(234)는 레지스터(240B)에 설정된 정보(이하, "예측 탭 형성 정보"라 함)에 의거하여 예측 탭으로서 사용될 학습자(learner) 픽셀의 선택 패턴을 설정한다. 그리고나서, 상기 선택 패턴에 따라, 예측 탭 형성 회로(234)는 프레임 메모리(233) 내에 저장된 학습자 이미지로부터의 주어진 픽셀에 대한 예측 탭으로서 사용될 학습자 픽셀을 선택한다. 예측 탭들은 그리고나서 정규 방정식 부가 회로(237)에 출력된다.

한편, 클래스 탭 형성 회로(235)는 프레임 메모리(233)로부터의 주어진 픽셀에 공간적으로 또는 시간적으로 가까이 위치한 몇몇 학습자 픽셀을 판독하고, 분류에 사용될 클래스 탭들을 형성한다.

더 구체적으로, 도 9에 도시된 클래스 탭 형성 회로(213)에서와 같이, 클래스 탭 형성 회로(235)는 레지스터(240C)에 설정된 정보(이하 "클래스 탭 형성 정보"라 함)에 의거하여 클래스 탭으로서 사용될 학습자 픽셀들의 선택 패턴을 설정한다. 그리고나서, 이 선택 패턴에 따라, 클래스 탭 형성 회로(235)는 프레임 메모리(233)에 저장된 학습자 이미지로부터의 주어진 픽셀에 대한 클래스 탭으로서 사용될 학습자 픽셀들을 선택한다. 이 클래스 탭들은 그리고나서 분류 회로(236)에 출력된다.

분류 회로(236)는 도 9에 도시된 분류 회로(214)와 유사하게 구성된다. 분류 회로(236)는 클래스 탭 형성 회로(235)로부터 공급된 클래스 탭들에 의거하여 주어진 픽셀들을 분류하고, 이 결과의 클래스들에 대응하는 클래스 코드들을 정규 방정식 부가 회로(237)에 공급한다.

레지스터(240C)에 설정된 클래스 탭 형성 정보는 분류 회로(236)에 공급된다. 이 이유는 도 9에 도시된 분류 회로(214)를 참조하면서 설명한 것과 동일하다.

정규 방정식 부가 회로(237)는 프레임 메모리(231)로부터의 주어진 픽셀로서 설정된 감시자 픽셀들을 판독하고, 이 감시자 픽셀들과 예측 탭 형성 회로(234)로부터 공급된 예측 탭들을 형성하는 학습자 픽셀들에 대해 계산을 행한다.

더 구체적으로, 정규 방정식 부가 회로(237)는 분류 회로(236)로부터 공급된 클래스 코드에 대응하는 각 클래스의 예측 탭들(학습자 픽셀들)을 사용함으로써 수학식 12의 매트릭스(A)의 각 성분에서 합(Σ)과 학습자 픽셀들의 곱셈(xinxim)을 행한다.

정규 방정식 부가 회로(237)는 또한 분류 회로(236)로부터 공급된 클래스 코드에 대응하는 각 클래스의 예측 탭들(학습자 픽셀들)과 주어진 픽셀들(감시자 픽셀들)을 사용함으로써 수학식 12의 벡터(v)의 각 성분에서 합(Σ)과 학습자 픽셀들과 주어진 픽셀들(감시자 픽셀들)의 곱셈(xinyi)을 행한다.

정규 방정식 부가 회로(237)는 주어진 픽셀로서 프레임 메모리(231) 내에 저장된 모든 감시자 픽셀들을 사용함으로써 상기 계산을 행하고, 이에 의해 수학식 12에 의해 표현된, 각 클래스의 정규 방정식을 공식화한다.

예측 계수 결정 회로(238)는 정규 방정식 부가 회로(237)에서 공식화된 정규 방정식을 풂으로써 각 클래스의 예측 계수를 결정하고 이 예측 계수를 메모리(239)의 각 클래스에 대응하는 어드레스에 공급한다.

감시자 이미지로서 제공된 이미지들의 수(프레임들의 수)나 이미지들의 내용에 따라, 예측 계수를 결정하는데 필요한 정규 방정식이 공식화될 수 없는 몇몇 클래스가 있을 수 있다. 이 경우에, 예측 계수 결정 회로(238)는 상기와 같은 클래스에 대해 디폴트 예측 계수들을 출력한다.

메모리(239)는 예측 계수 결정 회로(238)로부터 공급된 예측 계수들을 저장한다. 즉, 메모리(239)는 다수의 뱅크로 형성되고 각 뱅크에 대응 예측 계수들을 저장한다. 메모리(239)는 레지스터(240D)에 설정된 정보(이하 "계수 정보"라 함)에 의거하여 사용될 뱅크를 설정하고, 분류 회로(214)로부터 공급된 클래스 코드에 대응하는 어드레스에 예측 계수 결정 회로(238)로부터 공급된 예측 계수를 저장한다.

레지스터 그룹(240)은 데시메이션 필터(232), 예측 탭 형성 회로(234), 클래스 탭 형성 회로(235), 및 메모리(239)의 기능들을 설정하기 위한 정보를 저장한다.

더 구체적으로, 도 13에 도시된 실시예에서, 레지스터 그룹(240)은 4개의 레지스터(240A ~ 240D)로 형성된다. 제어기(241)로부터의 제어 신호에 따라, 학습자 이미지 포맷 정보는 레지스터(240A)에 설정되고, 예측 탭 형성 정보는 레지스터(240B)에 설정되고, 클래스 탭 형성 정보는 레지스터(240C)에 설정되고, 계수 정보는 레지스터(240D)에 설정된다. 따라서, 제어 신호들은 학습자 이미지 포맷 정보, 예측 탭 형성 정보, 클래스 탭 형성 정보, 및 계수 정보를 포함한다.

제어기(241)는 예를 들면 시스템 설계자에 의해 조작된다. 설계자의 조작에 따라, 제어기(241)는 레지스터 그룹(240)에 설정될 학습자 이미지 포맷 정보, 예측 탭 형성 정보, 클래스 탭 형성 정보, 및 계수 정보를 결정한다. 그리고나서 제어기(241)는 대응 제어 신호들을 생성하고 이들을 레지스터 그룹(240)에 공급한다.

이제 도 14의 순서도를 참조하여, 도 13에 도시된 학습 장치에 의해 행해진 예측 계수들의 학습 처리를 설명한다.

제어기(241)는 제어 신호들을 생성하고, 이들을 레지스터 그룹(240)에 공급한다. 따라서, 대응 제어 신호들에 의거하여 학습자 이미지 포맷 정보, 예측 탭 형성 정보, 클래스 탭 형성 정보, 및 계수 정보가 레지스터(240A, 240B, 240C, 240D)에 각각 설정된다.

그리고나서, 스텝(S21)에서, 예측 계수들을 학습하기 위해 제공된 감시자 이미지들은 프레임 메모리(231)에 공급되어 저장된다. 스텝(S22)에서, 정규 방정식 부가 회로(237)는 각 클래스의 매트릭스(A)를 저장하기 위한 어레이 변수(A[c])와 수학식 12에 벡터(v)를 저장하기 위한 어레이 변수(v[c])를 0으로 초기화한다.

이어서, 스텝(S23)에서, 데시메이션 필터(232)는 프레임 메모리(231)에 저장된 감시자 이미지를 처리함으로써 레지스터(240A)에 설정된 학습자 이미지 형성 정보에 따른 학습자 이미지로서 525i 또는 262p SD 이미지를 생성한다. 즉, 데시메이션 필터(232)는 프레임 메모리(231)에 저장된 감시자 이미지에 LPF 처리를 행하고 LPF 처리된 감시자 이미지의 픽셀들의 수를 감소시켜, 저화질을 갖는 학습자 이미지를 생성한다. 학습자 이미지들은 순차적으로 프레임 메모리(233)에 공급되고 저장된다.

스텝(S24)에서, 주어진 픽셀은 프레임 메모리(231)에 저장된 감시자 픽셀들 중에서 정해진다. 예측 탭 형성 회로(234)는 레지스터(240B)에 설정된 예측 탭 형성 정보에 대응하는 선택 패턴에 따라 프레임 메모리(233)에 저장된 학습자 픽셀들을 선택하여, 주어진 픽셀에 대한 예측 탭들을 형성한다. 한편, 클래스 탭 형성 회로(235)는 레지스터(240C)에 설정된 클래스 탭 형성 정보에 대응하는 선택 패턴에 따라 프레임 메모리(233)에 저장된 학습자 픽셀들을 선택하여, 주어진 픽셀에 대한 클래스 탭들을 형성한다. 그리고나서, 예측 탭들은 정규 방정식 부가 회로(237)에 공급되는 동시에, 클래스 탭들은 분류 회로(236)에 공급된다.

스텝(S25)에서, 분류 회로(236)는 클래스 탭 형성 회로(235)로부터 공급된 클래스 탭들에 의거하여 주어진 픽셀들을 분류하고, 이 결과의 클래스에 대응하는클래스 코드들을 정규 방정식 부가 회로(237)에 공급한다.

이후, 단계 S26에서, 정규 방정식 부가 회로(237)가 프레임 메모리(231)로부터 감시 픽셀(주어진 픽셀)를 판독하여, 분류 회로(236)로부터 공급된 각 클래스(c)에 따라 어레이 변수 A[c] 및 v[c]를 이용하여 방정식(12)에서 행렬 A의 예측 탭(학습 픽셀)과 벡터 v의 주어진 픽셀(감시 픽셀)에 대한 상기 부가를 행한다.

그 다음, 단계 S27에서 프레임 메모리(231)에 저장된 감시 이미지를 구성하는 모든 감시 픽셀이 주어진 픽셀로서 처리되었는지를 판정한다. 단계 S27의 결과가 부정인 경우, 프로세스는 단계 S24로 복귀한다. 이 경우, 감시 픽셀 중 하나는 새로운 주어진 픽셀로 설정되며, 단계 S24 내지 S27의 처리가 반복된다.

단계 S27에서 모든 감시 픽셀이 주어진 픽셀로서 처리된 것으로, 즉 모든 클래스에 대한 정규 방정식이 정규 방정식 부가 회로(237)에서 형성된 것으로 밝혀진 경우, 프로세스는 단계 S28로 진행된다. 단계 S28에서, 예측 계수 결정 회로(238)는 대응하는 정규 방정식을 풂으로써 각 클래스의 예측 계수를 결정하고, 이들을 메모리(239)의 대응 클래스의 어드레스에 공급한다.

메모리(239)는 레지스터(240D)에 설정된 계수 정보에 대응하는 뱅크를 선택하여 예측 계수 결정 회로(238)로부터 공급된 대응 클래스의 예측 계수를 선택 뱅크의 각 어드레스에 저장한다. 그러면, 학습 과정이 종료된다.

도 14에 도시된 학습 과정은 메모리(239)의 뱅크가 바뀔 때마다 행해진다. 즉, 학습 과정은 예측 계수의 유형에 따라 실시된다.

전술한 실시예에서는 2 종류의 예측 계수, 즉 525i SD 이미지를 525p HD 이미지로 적절히 변환하기 위한 예측 계수(이하 525i 예측 계수라 한다)와, 262 SD 이미지를 525p HD 이미지로 적절히 변환하기 위한 예측 계수(이하 262p 예측 계수라 한다)가 있다.

도 13에 도시된 학습 장치에 따르면, 감시 데이터(감시 이미지) 및 학습 데이터(학습 이미지)을 변경함으로써 525i 예측 계수 및 262p 예측 계수가 얻어진다. 또한, 시간 도메인(프레임 레이트 또는 필드 레이트) 내의 픽셀의 수를 바꾸거나 픽셀의 종횡비를 바꾸기 위한 예측 계수, 또는 잡음을 감소시키기 위한 예측 계수가 얻어질 수도 있다. 525i 예측 계수 및 262p 예측 계수는 공간 도메인 내의 픽셀의 수를 증가시키는 기능과 선명도를 향상시키는 기능을 한다. 따라서, 두가지 기능을 가진 예측 계수를 얻을 수 있게 된다. 즉, 이러한 예측 계수를 사용함으로써 두 종류의 처리가 동시에 행해질 수 있다. 보다 상세하게는, 감시 이미지의 선명도가 먼저 감소된 후, 결과적인 감시 이미지의 픽셀 수가 시간/공간 도메인에서 감소되어, 학습 이미지가 형성된다. 이러한 학습 이미지를 이용하여 학습 과정이 행해진다. 그 결과, 선명도를 향상시키고 시간/공간 도메인 내의 픽셀 수를 증가시키기 위한 예측 계수가 결정된다.

전술한 바와 같이, 각종 감시 데이터 및 학습 데이터의 조합을 이용하여 학습을 행함으로써 각종 가변 처리를 행하기 위한 예측 계수가 얻어질 수 있다. 그 다음, 종합 처리기(27; 도 2)의 가변 처리 그룹(28)은 상기한 예측 계수를 이용하여 각종 가변 처리를 행할 수 있다.

도 2에 도시된 공통 처리 그룹(29)은 전술한 공통 처리를 행한다. 이러한 공통 처리는 분류 적응 처리에 의해서도 행해질 수 있다. 따라서, 공통 처리 그룹(29)의 개별 공통 처리부는 도 9에 도시된 가변 처리부과 유사하게 구성될 수 있다.

가변 처리 및 공통 처리가 모두 분류 적응 처리를 이용하여 행해지는 경우, 도 9에 도시된 가변 처리부는 대응 공통 처리부에 캐스케이드 접속되어, 가변 처리 및 공통 처리를 각각 행할 수 있다. 또한, 도 9에 도시된 처리 유닛은 가변 처리부 및 공통 처리부 모두에 사용될 수 있다. 즉, 가변 처리 및 공통 처리를 한 번에 행하기 위한 예측 계수가 학습되며, 이 예측 계수를 이용하여 가변 처리 및 공통 처리가 동시에 행해진다.

도 1에 도시된 종합 처리 박스(1)에 접속된 입력 디바이스, 출력 디바이스 및 기억 장치에서, 그리고 도 2에 도시된 종합 처리기(27)에서 행해지는 공통 처리 및 가변 처리에 대한 추가적인 설명이 주어진다.

전술한 바와 같이, 종합 처리 박스(1)는 고유 부분만으로 구성된 장치(고유 장치; unique device), 및 통상의 장치에서와 같이 3개 부분, 즉 고유 부분, 공통 처리를 행하는 부분, 및 가변 처리를 행하는 부분으로 구성된 장치(보통 디바이스)에 접속될 수 있다.

도 15는 입력 디바이스의 역할을 하는 비디오 카메라(보통 디바이스)의 구성의 일례를 나타낸다.

전하 결합 소자(CCD; 41)가 피사체로부터의 광을 수신하고 광전 변환하여,수신광의 양을 나타내는 전기 신호를 샘플/홀드(S/H) 회로(42)로 출력한다. S/H 회로(42)는 소정의 타이밍에 CCD(41)로부터 전기 신호를 샘플링하여 유지한 후, 이를 자동 이득 제어(AGC) 회로(43)로 출력한다. AGC 회로(43)는 S/H 회로(42)로부터의 출력의 이득을 조정하고(AGC 처리), 아날로그 이미지를 아날로그/디지탈(A/D) 변환 회로(44)로 공급한다. A/D 변환 회로(44)는 AGC 회로(43)로부터 출력된 아날로그 이미지 신호에 대해 A/D 변환을 행하여, 결과적인 디지탈 이미지를 결합 보정 회로(45)로 출력한다. 결합 보정 회로(45)는 A/D 변환 회로(44)로부터 공급된 이미지 데이터에 대해 결합 보정 처리를 행한다. 비디오 카메라에서, 일부 픽셀은 CCD(41)의 결합으로 인하여 누락될 수 있다. 이러한 보정 처리에서, 그러한 결합이 보정될 수 있다. 이어서, 결과적인 이미지 데이터가 화이트 밸런스(WB) 회로(46)로 출력된다. WB 회로(46)는 결함 보정 회로(45)로부터 출력된 이미지 데이터를 구성하는 레드(R), 그린(G) 및 블루(B) 성분과 같은 개별 성분의 레벨을 조정한다(WB 처리).

그 결과, 개별 소자들의 레벨의 비는 지정된 값이 될 수 있다. 그러면, 귀결되는 이미지는 γ정정 회로(47)로 출력된다. γ정정 회로(47)는 WB 회로(46)로부터 수신된 이미지 데이타에 대해 γ정정을 실행하고, 귀결되는 데이타를 픽셀 내삽 회로(48)로 출력한다. 픽셀 내삽 회로(48)는 γ정정 회로(47)로부터 공급된 이미지 데이타를 형성하는 픽셀 중에서 요구되는 R, G, 및 B 성분을 내삽한다.

즉, 도15에 도시된 실시예에서 비디오 카메라는 단일 소자형이고, 컬러 필터(도시안됨)는 CCD(41) 앞에 배치된다. 따라서, CCD(41)로부터의 이미지 신호를 형성하는 픽셀은 R 성분, G 성분, 및 B 성분 중에서 어느 한 유형의 성분만을 포함한다. 더 특정하게는, R 성분을 구비한 픽셀은 G 및 B 성분을 포함하지 않으며, G성분을 구비한 픽셀은 R 및 B 성분을 포함하지 않고, B 성분을 구비한 픽셀은 R 및 G 성분을 포함하지 않는다. 따라서, 픽셀 내삽 회로(48)는 어느 유형의 성분이 빠졌는지를 결정하고, 빠진 성분을 내삽하고, 귀결되는 이미지 신호를 컬러 매트릭스 변환 회로(49)로 출력시킨다.

만약 비디오 카메라가 세가지 성분의 유형이라면, 픽셀 내삽 회로(48)는 필요하지 않다.

컬러 매트릭스 변환 회로(49)는 이미지 데이타의 R, G 및 B 성분에 대한 컬러 매트릭스 변환 처리를 실행하고, 예를 들어, Y, R-Y, 및 B-Y 이미지 데이타를 출력한다. 기록용 유닛(50)은 컬러 매트릭스 변환 회로(49)로부터 공급된 이미지 데이타를 필요로 하는 비디오 테이프와 같은 기록용 매체 상에 기록한다.

도 16은 입력 디바이스로 기능하는 비디오 카메라(고유 장치)의 구성의 한 예를 예시하였다. 도15에 도시된 것과 동일한 소자들은 유사한 참조 번호로서 표시되었고 그 설명은 생략된다.

도 16에 도시된 비디오 카메라는 공통의 처리 또는 가변 처리를 실행하는, 결함 정정 회로(45), γ정정 회로(47), 픽셀 내삽 회로(48), 및 컬러 매트릭스 변환 회로(49) 없이 형성된다.

따라서, 도16에 도시된 고유 장치인 비디오 카메라에서, 보통의 장치에서 실행되는, 결함 정정 처리, γ정정 처리,픽셀 내삽 처리, 및 컬러 매트릭스 변환 처리가 실행되지 않는다.

즉, 공통 처리와 가변 처리가 종합 처리기(27)에 의해 실행되기 때문에 비디오 카메라(고유 장치)에 대해 공통 처리 또는 가변 처리를 실행하기 위한 블럭을 제공할 필요가 없다.

도17은 비디오 카메라(보통 디바이스)에서 실행되는 처리와 종합 처리기(27)에서 실행되는 공통 처리 및 가변 처리 사이의 관계를 예시한 것이다.

비디오 카메라(40A)(보통 디바이스)에서 AGC 처리, 화이트 밸런스(white balance) 처리, 이미지 데이타의 노이즈 감소를 위한 노이즈 감소 처리, 결함 정정 처리, 픽셀 내삽 처리, 이미지 데이타의 주파수 특성을 정정하기 위한 주파수 특성 정정 처리, γ정정 처리, 컬러 매트릭스 변환 처리, 이미지 데이타를 NTSC 데이타로 변환하기 위한 NTSC 인코딩 처리 등이 실행된다. 도17에서(또한 도 20,24,26,및 38) 비디오 카메라(40A)에서 실행되는 작동이 비디오 카메라(40A) 아래에 도시되었고, 괄호 안의 작동은 필요할 때에 실행된다.

비디오 카메라(40A)에 의해 실행되는 작동 중에서, 노이즈 감소 처리 및 NTSC 인코딩 처리가 일반적으로는 입력 디바이스가 비디오 카메라(40A)인지의 여부에 독립적이고 따라서 이는 공통의 처리에 속한다. 반면에 결함 정정 처리, 픽셀 내삽 처리, 주파수 특성 정정 처리, γ정정 처리, 및 컬러 매트릭스 변환 처리는 입력 디바이스가 비디오 카메라(40A)인지의 여부에 의존하기 때문에 가변 처리에 속한다.

비디오 카메라(40A)로부터의 이미지 데이타 출력을 종합 처리기(27)(도2)로공급하기 위해 비디오 카메라(40A)(보통 디바이스)가 종합 처리 박스 1(도1)에 접속되었을 때, 종합 처리기(27)는 다음의 처리를 실행한다. 가변 처리 그룹(28)은 요구되는 이미지 데이타에 대한 결함 정정 처리, 픽셀 내삽 처리, 주파수 특성 정정 처리, γ정정 처리, 및 컬러 매트릭스 변환 처리를 실행하는 데, 이들은 모두 가변 처리에 속한다. 공통 처리 그룹(29)은 요구되는 노이즈 감소 처리와 NTSC 인코딩 처리를 실행하는 데, 이는 공통 처리에 속한다.

즉, 종합 처리기(27)는 비디오 카메라(40A)에 의해 실행되지 않는 가변 처리 및 공통 처리를 실행한다. 또는, 비디오 카메라(40A)에 의해 실행가능한 가변 처리 또는 공통 처리 중에서라도 종합 처리기(27)가 비디오 카메라(40A)보다 그 처리를 더 효율적으로 실행할 수 있다면 종합 처리기(27)가 상응하는 처리를 실행하기도 한다.

도 18은 출력 디바이스로 기능하는 CRT 모니터(보통 디바이스)의 구성의 한 예를 도시하였다.

튜너(61)는 안테나(도시 안됨)를 통해서 텔레비젼 방송 신호를 수신하고, 지정된 채널의 신호를 선택한다. 튜너(61)는 이후 선택된 신호를 비디오 중간 주파수(VIF) 대역의 신호로 변환하고 이를 VIF 회로(62)로 공급한다. VIF 회로(62)는 요구되는 튜너(61)로부터의 출력을 증폭하고 이를 선택기(SEL)(63)로 공급한다. 선택기(63)는 VIF 회로(62)로부터의 신호 또는 외부 소스로부터의 비디오 입력 신호를 선택하고, 선택된 신호를 A/D 변환 회로(64)로 공급한다. A/D 변환 회로(64)는 선택기(63)으로부터의 출력에 대해 A/D 변환을 실행하고, 이로써 아날로그 이미지 신호를 디지탈 이미지 신호로 변환하고, 이를 Y/C 분리 회로(65)로 공급한다. Y/C 분리 회로(65)는 A/D 변환기(64)로부터의 출력을 휘도(luminance) 신호(Y) 와 크로마(chroma) 신호(C)로 분리한다. 휘도 신호(Y)는 이미지 화질 조정 회로(66)로 공급되고 크로마 신호(C)는 크로마 복조 회로(69)로 공급된다.

이미지 화질 조정 회로(66)는 프리 슈팅 및 오우버 슈팅을 부가함으로써 Y/C 분리 회로(65)로부터의 휘도 신호에 대해 애퍼쳐 정정과 같은 이미지 화질 조정 처리를 실행한다. 그리고, 조정된 휘도 신호를 콘트라스트 조정 회로(67)로 공급한다. 콘트라스트 조정 회로(67)는 화질 조정 회로(66)로부터 출력된 휘도 신호의 콘트라스트를 조정하고, 이렇게 얻어진 휘도 신호를 휘도 보정 회로(68)에 공급한다. 휘도 보정 회로(68)는 콘트라스트 조정 회로(67)로부터 출력된 휘도 신호의 DC 성분 판독과 같은 휘도 보정 처리를 실행하여, 이렇게 얻어진 휘도 신호를 컬러 매트릭스 변환 회로(70)에 공급한다.

한편, 크로마 복조 회로(69)는 Y/C 분리 회로(65)로부터 출력된 크로마 신호(C)로부터 컬러 버스트 신호를 분리하고, 이 컬러 버스트 신호에 기초하여 크로마 신호로부터 R-Y 신호 및 B-Y 신호를 복조한다. 그 다음, 크로마 복조 회로(69)는 R-Y 신호 및 B-Y 신호를 컬러 조정 회로(74)를 통해 컬러 매트릭스 변환 회로(70)에 공급한다. 컬러 조정 회로(74)는 사용자의 조작에 따라 크로마 복조 회로로부터의 출력에 대해 컬러 보정을 실행한다.

컬러 매트릭스 변환 회로(70)는 휘도 보정 회로(68)로부터의 휘도 신호(Y) 및 크로마 복조 회로(69)로부터의 R-Y 신호 및 B-Y 신호에 대해 컬러 매트릭스 변환 처리를 실행하여, 이들을 R, G, B 성분으로 이루어진 이미지 데이터로 변환시킨다. R, G, B 성분은 그 다음에 디지털-아날로그(D/A) 변환기(72)에 공급된다. 컬러 매트릭스 변환 회로(70)는 컬러 매트릭스 변환 처리를 실행하는 동안에 선정된 동기화 신호를 사용하여, 이 동기화 신호를 동기화/편향 처리 회로(71)에 공급한다. 동기화/편향 처리 회로(71)는 수직 편향 신호(V 편향 신호) 및 수평 편향 신호(H 편향 신호)를 발생시켜 컬러 매트릭스 변환 회로(70)로부터의 휘도 신호에 기초하여 CRT(73)를 구동시킨다. V 편향 신호 및 H 편향 신호가 CRT(73)의 편향 코일(도시되지 않음)에 공급됨으로써, CRT(73)를 구동시킨다.

한편, D/A 변환 유닛(72)은 컬러 매트릭스 변환 회로(70)로부터의 디지털 신호의 R, G, B 성분에 대해 D/A 변환을 실행하여, 이렇게 얻어진 아날로그 신호의 R, G, B 성분을 CRT(73)에 공급한다. 그 다음, R, G, B 성분에 대응하는 이미지가 CRT(73) 상에 표시된다.

도 18에서, CRT 모니터(보통 장치)는 A/D 변환 회로(64)와 D/A 컨버터(72) 없이 형성될 수도 있다.

도 19는 출력 디바이스로서 기능하는 CRT 모니터(특정 디바이스)의 한 구성예를 도시한 것이다. 도 18에 도시된 것과 동일한 소자에는 동일한 참조번호를 붙이고, 그 설명은 생략한다.

도 19에 도시된 CRT 모니터는 통상적인 처리 또는 가변적인 처리를 실행하는, 화질 조정 회로(66), 콘트라스트 조정 회로(67), 휘도 보정 회로(68), 컬러 매트릭스 변환 회로(70) 및 컬러 조정 회로(74) 없이 형성된다.

따라서, 도 19에 도시된 CRT 모니터(특정 디바이스)에서는 CRT 모니터(보통 장치)에서 실행되는 화질 조정 처리, 콘트라스트 조정 처리, 휘도 보정 처리, 컬러 매트릭스 변환 처리 및 컬러 보정 처리가 실행되지 않는다.

즉, 상술된 통상적인 처리와 가변적인 처리가 종합 처리기(27)에 의해 실행되기 때문에, CRT 모니터(특정 디바이스)는 이러한 처리를 실행하는 블럭들 없이 형성될 수 있다.

도 20은 CRT 모니터(보통 장치)에 의해 실행된 동작과, 종합 처리기(27)에 의해 실행된 통상적인 처리 및 가변적인 처리 간의 관계를 나타낸 것이다.

CRT 모니터(보통 장치)에서는, AGC 처리, NTSC 이미지 데이터를 R, G, B 성분으로 이루어진 이미지 데이터로 변환하는 NTSC 디코딩 처리, 잡음 저감 처리, 주파수 특성 보정 처리, 픽셀 수를 CRT 모니터(60A)의 선명도에 적절하게 되도록 변환시키는 픽셀 수 변환 처리, 휘도 보정 처리(도 18에 도시된 휘도 보정 회로(68)에 의해 실행된 처리에 대응함), 컬러 매트릭스 변환 처리(도 18에 도시된 컬러 매트릭스 변환 회로(70)에 의해 실행된 처리에 대응함), 및 이미지 데이터의 컬러 성분을 CRT 모니터(60A)에 적절한 특성으로 조정하는 컬러 보정 처리(도 18에 도시된 컬러 보정 회로(74)에 의해 실행된 처리에 대응함)이 실행된다.

도 20에서, CRT 모니터(60A)에 의해 실행된 동작들 중에서, 잡음 저감 처리 및 NTSC 디코딩 처리는 출력 디바이스가 CRT 모니터(60A)인지의 여부에 관계가 없으므로, 통상적인 처리이다. 주파수 특성 보정 처리, 픽셀수 변환 처리, 휘도 보정 처리, 컬러 매트릭스 변환 처리 및 컬러 보정 처리는 출력 디바이스가 CRT 모니터(60A)인지의 여부에 관련이 있으므로, 가변적인 처리이다.

CRT 모니터(60A)가 이미지 데이터를 CRT 모니터(60A)에 공급하기 위해 출력 디바이스로서 종합 처리 박스(1)(도 1)에 접속될 때, 종합 처리기(27)(도 2)는 다음과 같은 처리를 실행한다. 가변적인 처리 그룹(28)은 요구에 따라 주파수 특성 보정 처리, 픽셀 수 변환 처리, 휘도 보정 처리, 컬러 매트릭스 변환 처리 및 컬러 보정 처리를 실행하는데, 이들 처리 모두는 가변적인 처리이다. 통상적인 처리 그룹(29)은 요구에 따라 잡음 저감 처리 및 NTSC 디코딩 처리를 실행하는데, 이들 처리는 통상적인 처리이다.

즉, 종합 처리기(27)는 CRT 모니터(60A)에 의해 실행되지 않는 통상적인 처리 및 가변적인 처리를 실행한다. 또는, CRT 모니터(60A)에 의해 실행가능한 통상적인 처리 및 가변적인 처리 중에서도, 종합 처리기(26)는 CRT 모니터(60A)보다 더욱 효율적으로 실행할 수 있는 것이면 대응하는 처리를 실행할 수도 있다.

도 21은 입력 디바이스로서 선택된 비디오 카메라(고유 디바이스)(40B) 및 종합 처리 박스(1)에 접속된 출력 디바이스로서 선택된 CRT 모니터(고유 디바이스)(60B)를 도시한 것이다. 비디오 카메라(40B)는 도 16에 도시된 바와 같이 형성될 수 있으며, CRT 모니터(60B)는 도 19에 도시된 바와 같이 형성될 수 있다.

비디오 카메라(40B)로부터 출력된 이미지 데이터는 종합 처리기(27)에 공급된다. 종합 처리기(27)의 통상적인 처리 그룹(29)은 이미지 데이터에 대해 잡음 저감 처리를 실행한다. 가변적인 처리 그룹(28)은 비디오 카메라(40B) 및 CRT 모니터(60B)에 적절해지도록 이미지 데이터에 대해, 결함 보정,보정, 휘도 보정, 픽셀 수 변환, 라인 수 변환, 프레임 수 변환, 주파수 특성 변환, 컬러 변환 및 컬러 매트릭스 변환과 같은 가변적인 처리를 실행한다. 이렇게 얻어진 이미지 데이터는 그 다음 CRT 모니터(60B)에 공급된다.

비디오 카메라(40B)로부터의 이미지 출력이 CRT 모니터(60B)상에 적절히 표시될 수 있도록 비디오 카메라(40B)의 CCD의 픽셀수, CRT 모니터(60B)의 주사 방법(예를 들면, NTSC 방법, PAL 방법 또는 프로그레시브 방법인지 여부), 선명도 등에 기초하여 픽셀수 변환 처리, 라인수 변환 처리, 프레임수 변환 처리 및 주파수 특성 변환 처리가 실행된다.

도 21에 도시된 실시예에서, 결함 보정 처리, 픽셀수 변환 처리, 라인수 변환 처리, 및 프레임수 변환 처리가 시간/공간 처리에 포함된다. γ보정 처리 및 휘도 보정 처리는 계조 처리에 포함되는데, 이는 이미지의 계조에 반영된다. 주파수 특성 변환 처리는 주파수 볼륨 처리에 포함된다. 컬러 보정 처리 및 컬러 메트릭스 변환 처리는 이미지 데이터를 형성하는 R, G 및 B 성분을 처리하기 위한 구성 성분간 처리(inter-component processing)에 포함된다. 시간/공간 처리, 계조 처리, 주파수 볼륨 처리, 및 구성 성분간 처리는 모두 상술한 분류 적응 처리(classification adaptive processing)에 의해 실행된다.

따라서, 대응하는 예측 계수를 인지함으로써 결함 보정 처리를 위한 시간/공간 처리, γ보정 처리 및 휘도 보정 처리를 위한 계조 처리, 픽셀수 변환 처리, 라인수 변환 처리, 프레임수 변환 처리를 위한 시간/공간적 처리, 주파수 특성 변환처리를 위한 주파수 볼륨 처리, 및 컬러 보정 처리 및 컬러 메트릭스 변환 처리를 위한 구성 성분간 처리가 개별적으로 실행될 수 있다.

선택적으로는, 모든 처리를 실행하기 위한 예측 계수가 인지되어 상술한 처리들이 한번에 실행될 수 있다.

주파수 볼륨 처리에 따르면, 이미지의 주파수 특성은 분류 적응 처리에 사용된 예측 계수에 따라 조정된다. 이 경우에는, 제어기(30)(도 2)는 예를 들면 원격 제어기(5)(도 1)를 통한 사용자의 조작에 의해 주파수 특성을 결정할 수 있다. 선택적으로, 제어기(30)는 원격 제어기(5)를 통해 실행된 사용자의 조작에 기초하여 주파수 특성을 추측할 수 있고, 그 후, 사용자가 조작할 필요없이 사용자가 원하는 주파수 특성이 얻어질 수 있도록 주파수 볼륨 처리가 자동적으로 실행될 수 있다.

도 21에서, 시간/공간적 처리로서 결함 보정 처리는 도 15에 도시된 결함 보정 회로(45)에 의해 실행되는 처리에 대응하고, 계조 처리로서 γ보정 처리는 도 15에 도시된 γ보정 처리에 의해 실행된 처리에 대응한다. 계조 처리로서 휘도 보정 처리는 도 15에 도시된 WB 회로(46) 및 도 18에 도시된 콘트라스트 조정 회로(47)에 의해 실행된 처리에 대응한다. 구성 성분간 처리로서 컬러 매트릭스 변환 처리는 도 15에 도시된 컬러 매트릭스 변환 처리(49)에 의해 실행되는 처리에 대응한다.

도 21에서, 시간/공간적 처리로서 픽셀수 변환 처리, 라인수 변환 처리 및 프레임수 변환 처리 및 주파수 볼륨 처리로서 주파수 특성 변환 처리는 보통 장치에서 실행되지 않는다. 종합 처리기(27)는 보통 장치에서 실행되지 않는 상술한유형의 처리를 효과적으로 실행한다. 좀 더 구체적으로, 비디오 카메라(40B)가 NTSC 이미지를 출력할 경우 및 CRT 모니터(60B)가 PAL 이미지를 표시할 경우, 종합 처리기(27)는 비디오 카메라로부터의 NTSC 이미지 출력을 CRT 모니터(60B)상에 표시될 PAL 이미지로 변환하도록 시간/공간 처리로서 라인수 변환 처리 및 프레임수 변환 처리를 실행한다. 비디오 카메라(40B)가 SD 이미지를 출력할 경우, 종합 처리기(27)는 비디오 카메라(40B)로부터의 SD 이미지 출력을 CRT 모니터(60B)상에 표시될 HD 이미지로 변환하도록 시간/공간 처리로서 픽셀수 변환 처리 및 라인수 변환 처리를 실행한다.

도 22는 액정 모니터(보통 장치)의 구성을 도시하는데, 이는 출력 디바이스 역할을 한다.

NTSC 복합 이미지 신호(VBS)는 디코더(81)로 공급된다. 디코더(81)는 그 후 NTSC-디코딩을 실행하여 이미지 신호를 R, G, B를 갖는 이미지 신호로 변환한다. A/D 변환 회로(82)는 디코더로부터의 이미지 신호의 A/D 변환을 실행하여 아날로그 신호를 디지털 신호로 변환한다. 그 후, 디지털 신호 이미지 데이터는 수평 레지스터(H 레지스터)(83)로 공급된다. 수평 레지스터(83)는 타이밍 발생기(TG)(89)로부터 공급된 타이밍 신호에 기초하여 A/D 변환 회로(82)로부터 공급된 이미지 데이터의 픽셀 값들의 하나의 수평 라인을 순차적으로 래치한다.

이미지 데이터의 하나의 수평 라인(픽셀 값)이 수평 레지스터(83)에 래치될 경우, 라인 메모리(84)는 수평 레지스터(83)로부터 전체 이미지 데이터를 판독하고 그 내부에 이를 저장한다. 그 후, 레벨 변환 회로(85)는 라인 메모리(84)내에 저장된 이미지 데이터의 하나의 수평 라인을 판독하고 이미지 데이터 레벨을 변환하며(레벨 변환), 이를 멀티-레벨링(계조) 회로(86)로 공급한다. 멀티-레벨링 회로(86)는 레벨 변환 회로(85)로부터의 이미지 데이타 출력에 기초하여 멀티-레벨화된 신호 전압(멀티-레벨 처리)을 발생시키고, 이를 D/A 변환 회로(87)에 공급한다. D/A 변환 회로(87)는 멀티-레벨링 회로(86)로부터의 이미지 데이터 출력에 대응하는 디지털 신호 전압을 아날로그 신호 전압으로 변환하고, 이를 컬러 보정 회로(91)로 공급한다. 컬러 보정 회로(91)는 그 후 D/A 변환 회로(87)로부터의 출력에 대해 컬러 보정을 실시하고 그 결과 신호를 액정 패널(88)로 공급한다.

그 동안에, 타이밍 발생기(89)는 발생된 타이밍 신호를 수평 레지스터(83) 및 스캔 드라이버(90)로 공급한다. 스캔 드라이버(90)는 타이밍 발생기(89)로부터의 타이밍 신호에 따라 액정 패널(88)을 구동시킨다. 결과적으로, D/A 변화 회로(87)로부터 공급된 신호 전압에 대응하는 이미지는 액정 패널(88)상에 표시된다.

도 23은 액정 모니터(고유 디바이스)의 구성의 예를 도시하는데, 이는 출력 디바이스의 역할을 한다. 도 22에 도시된 것과 같은 소자들은 유사한 참조 번호로 표시되고, 따라서 그 설명은 생략된다.

도 23에 도시된 액정 모니터는 디코더(81), 레벨 변환 회로(85), 및 멀티-레벨링 회로(86)없이 형성되는데, 이는 변수 처리 또는 공통 처리를 실행한다.

따라서, 도23에 도시된 액정 모니터에서 액정 모니터(보통의 장치)에서 실행되는 NTSC 디코딩 처리, 레벨 변환 처리, 및 다중 레벨 처리가 실행되지 않는다.

즉, 그런 공통 처리와 가변 처리가 직접 모니터(27)에 의해 실행되기 때문에 액정 모니터는 공통 처리 또는 가변 처리를 실행하는 블럭 없이 실행될 수 있다.

도24는 액정 모니터(보통의 장치)에 의해 실행되는 작동과 직접 처리기(27)에 의해 실행되는 공통 처리 및 가변 처리 사이의 관계를 예시하였다.

액정 모니터(80A)에서 AGC 처리, NTSC 처리, γ정정 처리, 컬러 매트릭스 변환 처리, 컬러 정정 처리, 블랙 레벨 정정 처리,쉐이딩 정정 처리, 픽셀 수 변환 처리, 주파수 특성 정정 처리 등이 실행된다.

도24는 액정 모니터(80A)에 의해 실행되는 동작 중에서도 NTSC 디코딩 처리가 일반적으로 출력 디바이스가 액정 모니터(80A)인지의 여부에 독립적이고 따라서 공통 처리에 속한다. 콘트라스트에 있어서, γ정정 처리, 컬러 매트릭스 변환 처리, 컬러 정정 처리, 블랙 레벨 정정 처리, 쉐이딩 정정 처리, 픽셀 수 변환 처리, 주파수 특성 정정 처리가 출력 디바이스가 액정 모니터(80A)인지의 여부에 의존하고 따라서 가변 처리에 속한다.

이미지 데이타를 액정 모니터(80A)로 공급하기 위하여 액정 모니터(80A)가 출력 디바이스인 종합 처리 박스(1)에 접속되기 때문에, 종합 처리기(27)는 다음의 처리를 실행한다. 가변 처리 그룹(28)은 γ정정, 컬러 매트릭스 변환, 컬러 정정 , 블랙 레벨 정정, 쉐이딩 정정, 픽셀 수 변환, 주파수 특성 정정과 같은 가변 처리를 실행한다. 공통 처리 그룹(29)은 요구되는 NTSC 디코딩 처리를 실행한다.

즉, 종합 처리기(27)는 액정 모니터(80A)에 의해 실행되지 않는 가변 처리및 공통 처리를 실행한다. 또는, 액정 모니터(80A)에 의해 실행되는 가변 처리 및 공통 처리 중에서도 종합 처리기(27)는 액정 모니터(80A)보다 더 효율적으로 이를 실행할 수 있다면 상응하는 처리를 실행할 수 있다.

도25는 입력 디바이스로서 선택된 비디오 카메라(고유 장치)와 종합 처리기 박스(1)에 접속된 출력 디바이스로서 선택된 액정 모니터(고유 장치)를 예시하였다. 비디오 카메라(40B)는 도16에 도시된 것과 같은 식으로 형성되고, 액정 모니터(80B)는 도23에 도시된 것과 같은 식으로 형성된다.

비디오 카메라(40B)로부터 출력된 이미지 데이터는 종합 처리기(27)에 공급된다. 종합 처리기(27)의 통상적인 처리 그룹(29)은 이미지 데이터에 대해 잡음 저감 처리를 실행한다. 가변적인 처리 그룹(28)은 이미지 데이터에 대해 결합 보정,보정, 계조 보정, 블랙 레벨 보정, 셰이딩, 컬러 매트릭스 변환, 컬러 보정, 픽셀수 변환, 라인수 변환 및 주파수 특성 변환과 같은 가변적인 처리를 실행하여 비디오 카메라(40B) 및 액정 모니터(80B)에 적절해지게 한다. 이렇게 얻어진 이미지 데이터는 그 다음 액정 모니터(80B)에 공급된다.

더욱 구체적으로, 픽셀수 변환 처리, 라인수 변환 처리 및 주파수 특성 변환 처리는 비디오 카메라(40B)의 CCD의 픽셀수, 액정 모니터(80B)의 이미지 표준(예를 들어, VGA 또는 SXGA), 및 액정 모니터(80B)의 액정 패널에 사용된 펄스폭 변조(PWM)와 극성 반전법에 기초하여 실행되어, 비디오 카메라(40B)로부터 출력된 이미지가 액정 모니터(80B) 상에 적절하게 표시될 수 있게 한다.

도 25에서, 결합 보정 처리, 픽셀수 변환 처리 및 라인수 변환 처리는 시공간 처리에 포함된다.보정 처리, 계조 보정 처리, 블랙 레벨 보정 처리 및 셰이딩 보정 처리는 계조 처리에 포함된다. 컬러 보정 처리 및 컬러 매트릭스 변환 처리는 컴포넌트간 처리에 포함된다. 주파수 특성 변환 처리는 주파수 볼륨 처리에 포함된다. 상술된 바와 같이, 시/공간 처리, 계조 처리, 주파수 볼륨 처리 및 컴포넌트간 처리는 모두 CAP(classification adaptive processing)에 의해 실행될 수 있다. 따라서, 상술된 처리는 대응하는 예측 계수를 습득함으로써 개별적으로 실행될 수 있다. 대안적으로, 모든 유형의 처리를 실행하기 위한 예측 계수가 습득되고, 처리가 동시에 실행될 수 있다.

도 25에 도시된 실시예에서 액정 모니터가 출력 디바이스로서 사용되었지만, 플라즈마 디스플레이 모니터와 같은 다른 유형의 플랫 디스플레이 모니터가 사용될 수도 있다. 이러한 방식으로, 플랫 디스플레이 모니터 유형의 사용이 확장된 경우, 가변적인 처리의 내용은 플랫 디스플레이 모니터가 액정 모니터인지 플라즈마 디스플레이 모니터인 지에 따라 변한다. 예를 들어, CAP는 서로 다른 예측 계수를 사용하여 실행된다.

도 25에서, 시공간 처리로서의 결함 보정은 도 15에 도시된 결함 보정 회로(45)에 의해 실행된 처리에 대응한다. 계조 처리로서의보정 처리는 도 15에 도시된보정 회로(47)에 의해 실행된 처리에 대응한다. 계조 처리로서의 계조 보정 처리 및 블랙 레벨 보정 처리는 도 22에 도시된 레벨 변환 회로(85) 및 다중 레벨화 회로(86)에 의해 실행된 처리에 대응한다. 컴포넌트간 처리로서의 컬러매트릭스 변환 처리는 도 15에 도시된 컬러 매트릭스 변환 회로(49)에 의해 실행된 처리에 대응한다.

도 21에서와 같이, 도 25에 도시된 실시예에서는, 시/공간 처리로서의 픽셀수 변환 처리 및 라인수 변환 처리, 및 주파수 볼륨 처리로서의 주파수 특성 변환 처리는 보통 장치로 실행되지 않는다. 종합 처리기(27)는 보통 장치로 실행되지 않는 상술된 유형의 처리를 효과적으로 실행한다.

도 26은 출력 디바이스로서 기능하는 프로젝터(보통 장치)에 의해 실행된 동작과, 종합 처리기(27)에 의해 실행된 통상적인 처리 및 가변적인 처리 사이의 관계를 도시한 것이다.

도 24에 도시된 액정 모니터(80A)(보통 장치)에서와 같이, 프로젝터(91A)(보통 장치)에서는, AGC 처리, NTSC 디코딩 처리,보정 처리, 컬러 매트릭스 변환 처리, 컬러 보정 처리, 블랙 레벨 보정 처리, 셰이딩 보정 처리, 픽셀수 변환 처리 및 주파수 특성 보정 처리가 실행된다.

따라서, 도 26에서는 도 24에서와 같이, NTSC 디코딩은 공통의 처리이며, 반면에 γ보정 처리, 컬러 매트릭스 변환 처리, 컬러 보정 처리, 블랙 레벨 보정 처리, 셰이딩 보정 처리, 픽셀수 변환 처리, 및 주파수 특성 보정 처리는 가변 처리이다.

프로젝터(91A)(보통 디바이스)가 종합 박스(1)에 접속되어 이미지 데이터가 프로젝터(91A)에 공급되는 경우, 종합 처리기(27)는 다음의 처리를 이행한다. 가변 처리 그룹(28)은 필요하다면 γ보정, 컬러 매트릭스 변환, 컬러 보정, 블랙 레벨 보정, 셰이딩 보정, 픽셀수 변환, 및 주파수 특성 보정 같은 가변 처리를 이행하는 반면에, 공통 처리 그룹(29)은 필요하다면 NTSC 디코딩 같은 공통 처리를 이행한다.

즉, 종합 처리기(27)는 프로젝터(91A)에 의해 실행되지 않는 가변 처리 및 공통 처리를 이행한다. 또는, 프로젝터(91A)에 의해 실행 가능한 가변 처리 및 공통 처리 중에서도, 종합 처리기(27)는 프로젝터(91A) 보다 더 효과적으로 이행할 수 있다면 상응하는 처리를 이행할 수도 있다.

도 27은 종합 처리 박스(1)에 접속된 입력 디바이스로서 선택된 비디오 카메라(고유 장치)(40B) 및 출력 디바이스로서 선택된 액정 모니터(고유 장치)(91B)를 도시한다.

비디오 카메라(40B)로부터의 이미지 데이터 출력은 종합 처리기(27)에 공급된다. 다음으로 종합 처리기(27)의 공통 처리 그룹(29)은 이미지 데이터에 대한 노이즈 감소 처리를 이행한다. 다음으로 가변 처리 그룹(28)은 비디오 카메라(40B) 및 프로젝터(91B)에 적합할 것 같은 이미지 데이터에 대한 결함 보정, γ보정, 계조 보정, 블랙 레벨 보정, 셰이딩, 컬러 매트릭스 변환, 컬러 보정, 픽셀수 변환, 라인수 변환 및 주파수 특성 변환 같은 가변 처리를 이행한다. 다음으로 결과의 이미지 데이터는 프로젝터(91B)에 공급된다.

보다 구체적으로, 픽셀수 변환 처리, 라인수 변환 처리 및 주파수 특성 변환 처리는 비디오 카메라(40B)의 CCD의 픽셀수, 프로젝터(91B)의 이미지 규격(예를 들어 VGA, SXGA), 프로젝터(91B)의 디스플레이 방법)(예를 들어, CRT 방법, 액정 패널(LCD) 방법 또는 디지털 마이크로미러 장치(DMD)를 사용하는 디지털 광 처리기(DLP) 방법(DMD 및 DLP는 상표명) 및 프로젝터의 PWM 방법에 근거하여 이행되어서, 비디오 카메라(40B)로부터의 이미지 출력이 프로젝터(91B) 상에 적합하게 디스플레이될 수 있다.

도 27에서는, 도 25에서와 같이, 결합 보정 처리, 픽셀수 변환 처리, 및 라인수 변환 처리가 시간적/공간적 처리에 포함되어 있다. γ 보정 처리, 계조 보정 처리, 블랙 레벨 보정 처리, 및 셰이딩 보정 처리는 계조 처리에 포함된다. 컬러 보정 처리 및 컬러 매트릭스 변환 처리는 인터-컴포넌트 처리에 포함된다. 주파수 특성 변환 처리는 주파수 볼륨 처리에 포함된다. 전술한 바와 같이, 시간적/공간적 처리, 계조 처리, 주파수 볼륨 처리, 및 인터-컴포넌트 처리는 모두 분류 적응 처리(classification adaptive processing)에 의해 이행될 수 있다. 따라서, 전술된 처리는 상응하는 예측 계수들을 습득함으로써 개별적으로 이행될 수 있다. 대안으로서, 모든 타입의 처리를 이행하기 위한 예측 계수가 습득되는 동시에 처리가 이행될 수 있다.

도 28은 입력 디바이스로서 선택된 디지털 스틸 카메라(보통 디바이스)에 의해 그리고 출력 디바이스로선 선택된 프린터(보통 디바이스)에 의해 그리고 종합 처리기(27)에 의해 이행되는 공통 처리 및 가변 처리에 의해 이행되는 동작들을 기술한다.

디지털 카메라(92A)(보통 디바이스)에서, AGC 처리, WB 처리, 노이즈 감소 처리, 결합 보정 처리, 픽셀 보간 처리, 주파수 특성 보정 처리, γ 보정 처리, 및컬러 매트릭스 변환 처리가 이행된다. 디지털 카메라(92A)는 기본적으로 도 15에 도시된 비디오 카메라(보통 디바이스)와 유사하게 구성되어 있다.

도 28에서, 디지털 카메라(92A)에 의해 이행되는 동작들 중에서, 노이즈 감소 처리는 일반적으로 입력 디바이스가 디지털 카메라(92A)인지 여부에 무관하고, 따라서 공통 처리이다. 이와 대조적으로, 결합 보정 처리, 픽셀 보간 처리, 주파수 특성 보정 처리, γ 보정 처리, 및 컬러 매트릭스 변환 처리는 입력 디바이스가 디지털 카메라(92A)인지의 여부에 의존하며, 따라서 가변 처리이다.

디지털 카메라(92A)(보통 디바이스)가 종합 처리 박스(1)(도 1)에 접속되어 디지털 카메라(92A)로부터 이미지 데이터를 수신하는 경우, 종합 처리기(27)가 다음의 처리를 이행한다. 가변 처리 그룹(28)은 필요에 따라 이미지 데이터에 대한 결합 보정, 픽셀 보간, 주파수 특성 보정, γ 보정, 및 컬러 매트릭스 변환 같은 가변 처리를 이행한다. 공통 처리 그룹(29)은 필요에 따라 노이즈 감소 같은 공통 처리를 이행한다.

즉, 종합 처리기(27)는 디지털 카메라(92A)에 의해 실행되지 않는 가변 처리 및 공통 처리를 이행한다. 또는, 디지털 카메라(92A)에 의해 실행 가능한 가변 처리 및 공통 처리 중에서도, 종합 처리기(27)는 디지털 카메라(92A) 보다 더 효과적으로 이행할 수 있다면 상응하는 처리를 이행할 수도 있다.

프린터(93A)(보통 디바이스)에서, 컬러 매트릭스 변환 처리, 노이즈 감소에 대한 필터링 처리, γ 보정 처리, 픽셀수 변환 처리, 밀도 변환 처리, 및 디서링 처리가 이행된다.

도 28에서, 프린터(93A)에 의해 이행되는 동작들 중에서, 필터링 처리는 일반적으로 출력 디바이스가 프린터(93A)인지의 여부에 무관하며 따라서 공통 처리이다. 이와 대조적으로, 컬러 매트릭스 변환 처리, γ 보정 처리, 픽셀수 변환 처리, 밀도 변환 처리, 및 디서링 처리는 출력 디바이스가 프린터(93A)인지의 여부에 의존하며 따라서 가변 처리이다.

프린터(93A)(보통 디바이스)가 종합 처리 박스(1)(도 1)에 접속되어 프린터(93A)에 이미지 데이터가 공급되는 경우, 종합 처리기(27)는 다음의 처리를 이행한다. 가변 처리 그룹(28)은 컬러 매트릭스 변환, γ 보정, 픽셀수 변환, 밀도 변환, 및 디서링(dithering) 같은 가변 처리를 이행한다. 공통 처리 그룹(29)은 요구되는 것처럼, 필터링 처리와 같은 공통 처리를 수행한다.

즉, 종합 처리기(27)는 프린터(93a)에 의해 실행되지 않는 가변 처리 및 공통 처리를 수행한다. 또는, 프린터(93a)에 의해 실행될 수 있는 가변 처리 및 공통 처리 중에서도, 종합 처리기(27)가 프린터(93a)보다 효과적으로 수행할 수 있는 처리가라면, 종합 처리기(27)는 그 처리를 수행할 것이다.

도 29는 도 28에 도시된 프린터(93a)의 유형의 한 예를 도시한다.

프린트될 이미지 데이터를 형성하는 R, G, 및 B 구성 성분은 외부에서 프린터(93a)에 공급된다. R 구성 성분, G 구성 성분, 및 B 구성 성분은 R 메모리(101R), G 메모리(101G), B 메모리(101B)내에 각각 저장된다.

컬러 메트릭스 변환 회로(102)는 R 메모리(101R), G 메모리(101G), B 메모리(101B)로부터 각각 R, G, 및 B 구성 성분을 판독한다. 그리고, 컬러 메트릭스 변환 회로(102)는 R, G, 및 B 구성 성분에서 컬러 메트릭스 변환 처리를 수행하고, 이에 따라 R, G, 및 B 구성 성분은 Y, M, 및 C 구성 성분을 포함하는 이미지 데이터로 변환된다. 또한, R, G, 및 B 구성 성분을 포함하는 이미지 데이터는 Y, M, C 및 블랙(K) 구성 성분으로 변환될 수 있다.

그리고, Y, M, 및 C 구성 성분은 필터(103)에 공급된다. 필터(103)는 잡음을 줄이기 위해서 Y, M, 및 C 구성 성분에서 필터링 처리를 수행하고, 이들에게 γ정정(correction) 회로(104)를 제공한다. γ정정 회로(104)는 필터(103)로부터의 이미지 데이터에 대해 γ정정을 수행하고, 픽셀 수 변환 회로(105)에 이것을 공급한다. 픽셀 수 변환 회로(105)는 γ정정 회로(104)로부터 이미지 데이터의 픽셀 수를 프린터(93a)에 적합하도록 변환하고, 이 변환된 이미지 데이터를 계조(grayscale) 변환 회로(106)에 공급한다. 계조 변환 회로(106)는 밀도 변환 처리 및 디서링(dithering) 처리와 같은 계조 변환 처리를 픽셀 수 변환 회로(105)로부터의 이미지 데이터에 대해 수행하고, 그 결과 이미지 데이터를 프린팅 기기(107)에 공급한다. 프린팅 기기(107)는 계조 변환 회로(106)로부터 공급된 이미지 데이터에 따라 선정된 시트상에서 이미지를 프린트한다.

도 30은 종합 처리 박스(1)에 연결되어 있으면서, 입력 디바이스로 선택된 디지털 카메라(고유 장치)(92b)와 출력 디바이스로 선택된 프린터(고유 장치)(93b)를 도시한다.

디지털 카메라(92b)로부터의 이미지 데이터 출력은 종합 처리기(27)에 공급된다. 그리고, 종합 처리기(27)의 공통 처리 그룹(29)은 이미지 데이터에 대해 잡음 감소 처리와 같은 공통 처리를 수행한다. 변동 처리 그룹(28)은 시/공간적 처리로서 결함 정정 및 보간법(interpolation) 필터링, 상호 구성 성분 처리로서 컬러 정정 및 컬러 매트릭스 변환, 시/공간적 처리로서 픽셀 수 변환 및 라인 수 변환, 주파수 용량 처리로서 주파수 특성 변환, 계조 처리로서 밀도 변환 및 디서링 처리와 같은 변동 처리를 디지털 카메라(92b) 및 프린터(93b)에 적합한 이미지 데이터에 대해 수행한다. 그리고, 이 결과 이미지 데이터는 프린터(93b)에 공급된다.

보다 상세하게, 픽셀 수 변환 처리, 라인 수 변환 처리, 및 주파수 특성 변환 처리는 디지털 카메라(92b)의 CCD의 픽셀 수와 디지털 카메라(92b)로부터의 이미지 출력이 프린터(93b)에 의해 적절하게 프린트될 수 있도록하는 프린터(93b)에 사용되는 프린팅 방법(예를 들어, 레이저법, 전화(sublimate)법 또는 잉크-젯법)에 기초해서 수행된다.

도 25에서와 같이 도 30에서, 시/공간적 처리, 계조 처리, 주파수 용량 처리, 및 상호 구성 성분 처리는 모두 분류 적응 처리에 의해 수행될 수 있다. 따라서, 상술된 처리는 상응하는 예상 계수를 알아냄으로써 개별적으로 수행될 수 있다. 또한, 모든 타입의 처리를 수행하기 위한 예상 계수가 알려지고, 처리는 이와 동시에 수행될 수 있다.

도 30에서, 공통 처리로서의 잡음 감소 처리는 도 29에 도시된 필터(103)에 의해 수행되는 처리와 일치한다. 시/공간적 처리로서의 결함 정정 처리는 도 15에 도시된 결함 정정 회로(45)에 의해 수행되는 처리와 일치한다. 시/공간적 처리로서의 보간법 필터링 처리는 도 15에 도시된 픽셀 보간법 회로(48)에 의해 수행되는 처리와 일치한다. 상호 구성 성분 처리로서의 컬러 정정 처리는 도 15에 도시된 WB 회로(46)와 도 29에 도시된 필터(103)에 의해 수행되는 처리와 일치한다. 상호 구성 성분 처리로서의 컬러 매트릭스 변환 처리는 도 15에 도시된 컬러 매트릭스 변환 회로(49)와 도 29에 도시된 컬러 매트릭스 변환 회로(102)에 의해 수행되는 처리와 일치한다. 시/공간적 처리로서의 픽셀 수 변환 처리 및 라인 수 변환 처리 도 29에 도시된 픽셀 수 변환 처리 회로(105)에 의해 수행되는 처리와 일치한다. 계조 처리로서의 밀도 변환 처리는 도 15 및 도 29에 도시된 γ정정 회로(47 및 104)에 의해 수행되는 처리와 각각 일치한다. 계조 처리로서의 디서링 처리는 도 29에 도시된 계조 처리(106)에 의해 수행되는 처리와 일치한다.

도 21에서와 같이 도 30에서, 주파수 용량 처리로서 주파수 특성 변환 처리는 보통 디바이스에서 수행되지 않는다. 종합 처리기(27)는 보통 디바이스에서 수행되지 않는 상술된 처리를 효과적으로 수행한다.

도 31은 도 30에 도시된 프린터(93b) 유형의 한 예를 도시한다. 도 30에 도시된 것과 동일한 소자는 같은 참조 숫자에 의해 표현되고, 그 설명은 생략된다.

종합 처리기(27)가 도 30을 참조로 설명된 처리를 수행한 후에, 이미지 데이터를 형성하는 Y, M, 및 C 구성 성분은 프린터(93b)에 공급된다. Y 구성 성분, M 구성 성분, 및 C 구성 성분은 Y 메모리(108Y), M 메모리(108M), 및 C 메모리(108C) 각각에 저장된다. 그리고, 프린팅 기기(107)는 Y 메모리(108Y), M 메모리(108M), 및 C 메모리(108C) 각각으로부터 Y, M, 및 C 구성 성분을 판독하고, Y, M, 및 C 구성 성분에 따라 선정된 시트상에 상응하는 이미지를 프린트한다.

공통 처리 및 가변 처리는 종합 처리기(27)에 의해 수행되기 때문에, 프린터(93b)는 이런 처리를 수행하는 블록없이 형성될 수 있다. 즉, 프린터(93b)는 도 31에 도시된 바와 같이, 도 29에 도시된 컬러 메트릭스 변환 회로(102), 필터링 회로(103), γ정정 회로(104), 픽셀 수 변환 회로(105), 및 계조 변환 회로(106)없이, 형성될 수 있다.

도 32는 입력 디바이스로 사용되는 이미지 스캐너(보통 디바이스)에 의해 수행되는 동작들 사이의 관계 및 종합 처리기(27)에 의해 수행되는 공통 처리 및 변동 처리를 도시한다.

이미지 스캐너(94a)(보통 디바이스)에서는, AGC 처리, 잡음 감소 처리, 블랙 레벨 정정 처리, 쉐이딩(shading) 처리, 주파수 특성 정정 처리, γ정정 처리, 컬러 메트릭스 변환 처리가 수행된다.

도 32에서, 이미지 스캐너(94a)에 의해 수행되는 동작중에서, 잡음 감소 처리는 일반적으로 입력 디바이스가 이미지 스캐너(94a)이고 공통 처리인지에 관계 없이 독립적이다. 반대로, 블랙 레벨 정정 처리, 쉐이딩 처리, 주파수 특성 정정 처리, γ정정 처리, 컬러 메트릭스 변환 처리는 입력 디바이스가 이미지 스캐너(94a)인지에 의존하고, 따라서 가변 처리에 속한다.

이미지 스캐너(94A; 보통 디바이스)는 종합 처리 박스(1)에 접속되어 이미지 스캐너(94A)로부터 이미지 데이터를 수신하는 경우, 종합 처리기(27)는 다음 처리를 수행한다. 가변 처리 그룹(28)는, 가변 처리로서 흑 레벨 보정 처리, 셰이딩처리, 주파수 특성 보정 처리, γ보정 처리, 및 컬러 매트릭스 변환 처리를 필요에 따라서 실시하고, 공통 처리 그룹(29)은 공통 처리로서 노이즈 제거 처리를 필요에 따라 이미지 데이터에서 실시한다.

즉, 종합 처리기(27)는 이미지 스캐너(94A)에서 행해지지 않는 가변 처리 및 공통 처리를 실시한다. 혹은, 이미지 스캐너(94A)에서 가변 처리 및 공통 처리가 행해질 수 있더라도, 이미지 스캐너(94A)에서 보다 더 효율적으로 행해질 수 있다면, 종합 처리기(27)가 가변 처리를 실시할 수도 있다.

도 33은 종합 처리 박스(1)에 있어서, 입력 디바이스로서 선택된 이미지 스캐너(94B; 고유 디바이스)와, 출력 디바이스로서 선택된 프린터(93B; 고유 디바이스)를 나타내고 있다.

이미지 스캐너(94B)가 출력하는 이미지 데이터는 종합 처리기(27)에 공급된다. 그 때 종합 처리기(27)의 공통 처리 그룹(29)은 이미지 데이터에 대하여 공통 처리로서 노이즈 제거 처리를 실시한다. 그 때 가변 처리 그룹(28)은, 이미지 스캐너(94B) 및 프린터(93B)에 적합하게 하기 위해, 이미지 데이터에 대하여 계조 처리인 γ보정 처리 및 흑 레벨 보정 처리, 성분 사이 처리인 컬러 보정 처리 및 컬러 매트릭스 변환 처리, 시간적/공간적 처리인 픽셀 수 변환 처리 및 라인 수 변환 처리, 주파수 볼륨 처리인 주파수 특성 변환 처리, 및 계조 처리인 셰이딩 처리, 농도 변환 처리, 및 디서링 처리와 같은 가변 처리를 실시한다. 그 결과 얻어진 이미지 데이터는 프린터(93B)에 공급된다.

보다 구체적으로, 픽셀 수 변환 처리, 라인 수 변환 처리, 및 주파수 특성변환 처리는 이미지 스캐너(94B)가 갖는 CCD의 픽셀 수나, 프린터(93B)의 인쇄 방식 등에 기초하여, 이미지 스캐너(94B)가 출력하는 이미지가 프린터(93B)에서 적절한 상태에서 인쇄 되도록 행해진다.

도 33에 있어서도, 도 25에 있어서의 경우와 같이, 시간적/공간적 처리, 계조 처리, 주파수 볼륨 처리, 및 성분 사이 처리 모두는 분류 적응성 처리 (classification adaptive processing)에 의해 실행될 수 있다. 따라서, 상기 처리는 대응하는 예측 계수를 학습함으로써 개별로 행할 수 있다. 또한, 모든 처리를 행하는 예측 계수를 학습하여 동시에 실행하는 것도 가능하다.

도 33에 있어서, 흑 레벨 보정 처리 및 셰이딩 보정 처리는 이미지 스캐너(레귤레 디바이스)에 의해 행해지는 가변 처리에 상당한다.

도 34는 저장 디바이스 및 공통 처리로서 선택된 VCR(보통 디바이스)에 의해 행해지는 동작 및 종합 처리기(27)에 의해 행해지는 가변 처리 사이의 관계를 나타내고 있다.

VCR(95A; 보통 디바이스)에서는, 기록(기입) 동작이 행해질 때, 노이즈 제거 처리, 전 처리(pre-processing; 필터링 처리), MPEG 압축 처리, 오류 정정 부호화 처리, 및 채널 부호화 처리 등이 행해진다. 재생(판독) 동작이 행해 질 때는, 채널 복호 처리, 오류 정정 처리, 신장 처리(예를 들면, MPEG 복호 처리), 및 후 처리(post-processing; 필터링 처리)가 행해진다.

도 34에 있어서, VCR(95A)에 의해 행해지는 동작, 노이즈 제거 처리, 및 MPEG 압축 처리 및 신장 처리는 일반적으로 저장 디바이스가 VCR(95A)인지의 여부에 의존하지 않으므로, 공통 처리이다. 반면, 전 처리, 오류 정정 부호화 처리, 채널 부호화 처리, 채널 복호 처리, 오류 정정 처리, 및 후 처리는 저장 디바이스가 VCR(95A)인지의 여부에 의존하므로, 가변 처리이다.

VCR(95A)가 종합 처리 박스(1)에 접속되어 VCR(95A)에 이미지 데이터가 공급(기록)되는 경우에는, 종합 처리기(27)는 다음 처리를 행한다. 보다 구체적으로, 이미지 데이터가 VCR(95A)에 공급(기록)되는 경우, 가변 처리 그룹(28)은 가변 처리로서 전 처리, 오류 정정 부호화 처리, 및 채널 부호화 처리를 필요에 따라 이미지 데이터에서 실시함과 동시에, 공통 처리 그룹(29)은 공통 처리로서 노이즈 제거 처리, 및 압축 처리를 필요에 따라 이미지 데이터에서 실시한다. VCR(95A)에서 이미지 데이터가 재생(판독)되는 경우에는, 가변 처리 그룹(28)은 가변 처리로서 채널 복호 처리, 오류 정정 처리, 및 후 처리를 필요에 따라 이미지 데이터에서 실시함과 동시에, 공통 처리 그룹(29)은 공통 처리로서 노이즈 제거 처리 및 신장 처리를 필요에 따라 이미지 데이터에서 실시한다.

즉, 종합 처리기(27)는 VCR(95A)에 의해 행해지지 않는 가변 처리 및 공통 처리를 실시한다. 혹은, VCR(95A)에 의해 가변 처리 및 공통 처리가 행해질 수 있더라도, 종합 처리기(27)는 VCR(95A)에서 보다 효과적으로 행해질 수 있다면 가변 처리를 실시한다.

도 35는 도 34에 도시된 VCR(95A)의 구성예를 나타내고 있다.

기록 동작에 있어서, 이미지 데이터는 노이즈 감축 회로(111)에 공급된다. 노이즈 감축 회로(111)는 이미지 데이터에 포함된 노이즈를 제거하고, 그 결과로얻어진 이미지 데이터를 전 처리 회로(112)에 공급한다. 전 처리 회로(112)는 노이즈 감축 회로(111)로부터 공급된 이미지 데이터에 대하여 전 처리를 실시하여 이를 압축 회로(113)에 공급한다. 압축 회로(113)는 전 처리 회로(112)로부터의 이미지 데이터에 대해 MPEG 부호화를 행하고, 압축된 이미지 데이터를 오류 정정 부호화 회로(114)에 공급한다. 오류 정정 부호화 회로(114)는 오류 정정 부호를 연산하고 이를 압축 회로(113)의 출력에 부가하여, 이로써 결과적으로 얻은 데이터를 채널 부호화 회로(115)에 공급한다. 채널 부호화 회로(115)는 오류 정정 부호화 회로(114)의 출력에 대하여 채널 부호화를 행하여, 결과적으로 얻은 출력을 기록 증폭기(116)에 공급한다. 기록 증폭기(116)는 채널 부호화 회로(115)의 출력을 증폭하여, 그것을 기록 신호로서 헤드계(117)에 공급한다. 헤드계(117)는 기록 증폭기(116)로부터의 기록 신호에 따라, 비디오 테이프 등의 기록 매체에 데이터를 기록한다.

재생 동작에 있어서, 헤드계(117)는 비디오 테이프 등의 기록 매체로부터 데이터를 재생하여, 그것을 재생 증폭기(118)에 공급한다. 재생 증폭기(118)는 헤드계(117)로부터 출력된 데이터를 증폭시켜, 그것을 채널 복호 회로(119)에 공급한다. 채널 복호 회로(119)는 재생 증폭기(118)로부터의 데이터를 채널 복호하여, 결과적으로 얻은 데이터를 오류 정정 회로(120)에 공급한다. 오류 정정 회로(120)는 채널 복호된 데이터에 포함된 에러 검출을 행하고, 에러가 있는 경우에는 에러를 정정을 행하여, 결과적으로 얻은 데이터를 신장 회로(121)에 공급한다. 신장 회로(121)는 오류 정정 회로(120)의 출력을 신장하여, 원래의 이미지 데이터로 복호한다. 그 때 원래의 이미지 데이터는 후 처리 회로(122)에 공급된다. 후 처리 회로(122)는 신장 회로(121)로부터 출력된 이미지 데이터에 대하여 후 처리를 실시한다.

도 36은 종합 처리 박스(1)에 접속된 것으로, 저장 디바이스로서 선택된 VCR(95B; 고유 디바이스)와, 출력 디바이스로서 선태된 CRT 모니터(60B; 고유 디바이스)를 나타내고 있다.

VCR(95B)는 예를 들면, 비디오 카메라(고유 디바이스)와 일체적으로 구성되어 있다. 이미지 기록에 있어서, 도 36에 있어서 굵은 화살표로 도시한 바와 같이, 비디오 카메라로 촬영된 이미지 데이터가 종합 처리기(27)에 공급된다. 이러한 경우에 있어서, 공통 처리 그룹(29)은 이미지 데이터에 대하여 노이즈 제거 처리를 실시하고, 또한 가변 처리 그룹(28)은 이미지 데이터에 대하여 VCR(95B)에 적합한 시간적/공간적 처리인 전 처리를 실시한다. 계속해서, 공통 처리 그룹(29)은 이미지 데이터에 대하여 압축 처리를 실시하고, 가변 처리 그룹(28)은 VCR(95B)에 적합한 시간적/공간적 처리인 오류 정정 부호화 처리 및 채널 부호화 처리를 실시한다. 그 때 결과적으로 얻은 이미지 데이터는 VCR(95B)에 공급되어 기록된다.

이미지가 재생된 경우, 도 36에 있어서 가는 화살표로 도시한 바와 같이, VCR(95B)에서 판독된 재생 데이터가 종합 처리기(27)에 공급된다. 보다 구체적으로, 가변 처리 그룹(28)은 재생 데이터에 대하여, VCR(95B)에 적합한 시간적/공간적 처리인 채널 복호 처리 및 오류 정정 처리를 실시하고, 공통 처리 그룹(29)은 오류 정정된 재생 데이터에 대하여, 신장 처리를 실시하여, 이로써 재생 데이터를이미지 데이터로 복호한다. 계속해서, 가변 처리 그룹(28)은 신장된 이미지 데이터에 대하여, VCR(95B)에 적합한 시간적/공간적 처리인 전 처리를 실시하고, 다음에 전 처리된 이미지 데이터에 대해 계조 처리인 γ보정 처리 및 휘도 보정 처리, 시간적/공간적 처리인 픽셀 수 변환 처리, 라인 수 변환 처리, 및 프레임 수 변환 처리, 주파수 볼륨 처리인 주파수 특성 변환 처리, 및 성분 사이 처리인 컬러 보정 처리 및 컬러 매트릭스 변환 처리를 CRT 모니터(60B)에 적합하게 실시한다. 그 결과, 이미지는 CRT 모니터(60B)에 공급되어 표시된다.

도 36에 있어서도, 도 25에 있어서의 경우와 같이, 이미지 재생 동작 동안 행해지는 시간적/공간적 처리, 계조 처리, 주파수 볼륨 처리, 및 성분 사이 처리 모두는 클래스 분류 적응 처리에 의해서 행해질 수 있다. 따라서, 상술된 처리는 대응하는 예측 계수를 학습해 둠으로써 개별로 행해잴 수 있다. 또한, 모든 유형의 처리를 행하는 예측 계수를 학습해 두고, 그 처리를 동시에 행할 수도 있다.

도 36에 있어서, 공통 처리인 노이즈 제거 처리는 도 35에 도시된 노이즈 감축 회로(111)에 의해 행해지는 처리에 대응한다. 시간적/공간적 처리로서의 전 처리는 도 35에 도시된 전 처리 회로(112)에 의해 행해지는 처리에 대응하는 반면, 시간적/공간적 처리로서의 후 처리는 도 35에 도시된 후 처리 회로(122)에 의해 행해지는 처리에 대응한다. 공통 처리로서의 압축 처리는 도 35에 도시된 압축 회로(113)에 의해 행해지는 처리에 대응하는 반면, 공통 처리로서의 신장 처리는 도 35에 도시된 신장 회로(121)에 의해 행해지는 처리에 대응한다. 시간적/공간적 처리로서의 오류 정정 부호화 처리는 도 35에 도시된 에러 정정 부호화 회로(114)에 의해 행해지는 처리에 대응하는 반면, 시간적/공간적 처리로서의 오류 정정 처리는 도 35에 도시된 오류 정정 회로(120)에 의해 행해지는 처리에 대응한다. 시간적/공간적 처리로서의 채널 부호화 처리는 도 35에 도시된 채널 부호화 회로(115)에 의해 행해지는 처리에 대응하는 반면, 시간적/공간적 처리로서의 채널 복호 처리는 도 35에 도시된 채널 복호 회로(119)에 의해 행해지는 처리에 대응한다. 성분 사이 처리로서의 컬러 보정 처리는 도 18에 도시된 컬러 조정 회로(74)에 의해 행해지는 처리에 대응하는 반면, 성분 사이 처리로서의 컬러 매트릭스 변환 처리는 도 18에 도시된 컬러 매트릭스 변환 회로(70)에 의해 행해지는 처리에 대응한다. 계조 처리로서의 γ 보정 처리는 도 18에 도시된 휘도 보정 회로(68)에 의해 행해지는 처리에 대응하는 반면, 계조 처리로서의 휘도 보정 처리는 도 18에 도시된 콘트라스트 조정 회로(67)나 휘도 보정 회로(68)에 의해 행해지는 처리에 대응한다.

도 37은 도 36에 도시된 VCR(95B)의 구성예를 나타내고 있다. 도 35에 도시된 것과 동일한 구성 요소에 대해서는 같은 참조 번호로 나타내고, 그 설명은 생략한다.

공통 처리 및 가변 처리는 종합 처리기(27)에 의해 수행되므로, VCR(95B)은 공통 처리 및 가변 처리를 행하는 블록을 설치하지 않고 구성될 수 있다.

즉, VCR(95B)은 도 37에 도시된 바와 같이, 노이즈 감축 회로(111), 전 처리 회로(112), 압축 회로(113), 오류 정정 부호화 회로(114), 채널 부호화 회로(115), 채널 복호 회로(119), 오류 정정 회로(120), 신장 회로(121), 및 후 처리회로(122)를 설치하지 않고 구성될 수 있다.

도 38은 저장 디바이스로서 선택된 DVD 플레이어(보통 디바이스)에 의해 행해지느 동작들과, 종합 처리기(27)에 의해 행해지는 공통 처리 및 가변 처리와의 관계를 나타내고 있다.

DVD 플레이어(96A; 보통 디바이스)에서는, 채널 복호 처리, 오류 정정 처리, MPEG 복호 처리, 후 처리(필터링 처리), 및 NTSC 인코드 처리 등이 행해진다.

도 38에 있어서, DVD 플레이어(96A)에 의해 행해지는 동작들 중, NTSC 인코드 처리, 및 MPEG 복호 처리는 저장 디바이스가 DVD 플레이어(96A) 인지의 여부에 의존하지 않으므로, 공통 처리이다. 반면에, 채널 복호 처리, 오류 정정 처리, 및 후 처리(필터링 처리)는 저장 디바이스가 DVD 플레이어(96A) 인지의 여부에 의존하므로, 가변 처리이다.

DVD 플레이어(96A)가 종합 처리 박스(1)에 접속된 경우, 및 그 DVD 플레이어(96A)에서 이미지 데이터가 재생되고 종합 처리 박스(1)에 공급되는 경우에, 종합 처리기(27)는 다음 처리를 수행한다. 가변 처리 그룹(28)은 채널 복호 처리, 오류 정정 처리, 및 후 처리를 필요에 따라서 실시하고, 공통 처리 그룹(29)은 복호 처리 및 NTSC 인코드 처리를 필요에 따라서 실시한다.

즉, 종합 처리기(27)는 DVD 플레이어(96A)에 의해 행해지지 않는 가변 처리 및 공통 처리를 행한다. 혹은, DVD 플레이어(96A)에 의해 가변 처리 및 공통 처리가 행해질 수 있더라도, 종합 처리기(27)가 DVD 플레이어(96A)보다 더 효율적으로 그것을 수행할 수 있다면 대응 처리를 실시한다.

도 39는 도 38에 도시된 DVD 플레이어(96A; 보통 디바이스)의 구성예를 나타내고 있다.

DVD(131)는 스핀들 모터(132)에 의해 회전된다. 픽업(134)은 DVD(131)에 빔광을 조사하여, DVD에 의해 반사된 광을 수광한다. 또한, 픽업(134)은 그 수광량에 따른 재생 신호를 서보 회로(133) 및 채널 복호 회로(135)에 공급한다. 서보 회로(133)는 픽업(134)으로부터의 재생 신호에 기초하여 스핀들 모터(132) 및 픽업(134)을 제어한다.

채널 복호 회로(135)는 픽업(134)으로부터의 재생 신호를 채널 복호하여, 그것을 오류 정정 회로(136)에 공급한다. 오류 정정 회로(136)는 채널 복호 회로(135)로 부터 공급된 출력 신호를 그 출력 신호에 포함된 오류 정정 부호에 기초하여 오류 정정하여, 결과적으로 얻은 신호를 복호 회로(137)에 공급한다. 복호 회로(137)는 오류 정정 회로(136)로부터의 출력을 MPEG 복호하여, 그것을 후 처리 회로(138)에 공급한다. 후 처리 회로(138)는 MPEG 복호된 이미지 데이터에 후 처리를 실시하여, 결과적으로 얻은 이미지를 출력한다.

도 40은 종합 처리 박스(1)에 접속된 것으로, 저장 디바이스로서 선택된 DVD 플레이어(96B; 고유 디바이스)와, 출력 디바이스로서 선택된 액정 모니터(80B; 고유 디바이스)를 나타내고 있다.

DVD 플레이어(96B)에 의해 획득된 재생 신호는 종합 처리기(27)에 공급된다. 그 때 가변 처리 그룹(28)은 DVD 플레이어(96B)에 적합한 시간적/공간적 처리인 채널 복호 처리 및 오류 정정 처리를 실시한다. 공통 처리 그룹(29)은 재생 신호에대하여 복호 처리를 실시하여, 그것을 이미지 데이터로 복호한다. 계속해서, 가변 처리 그룹(28)은 복호된 이미지 데이터에 대하여, DVD 플레이어(96B)에 적합한 시간적/공간적 처리인 후 처리를 실시한다. 다음에, 가변 처리 그룹(28)은 액정 모니터(80B)에 적합한, 계조 처리인 γ보정 처리, 계조 보정 처리, 흑 레벨 보정 처리와 셰이딩 처리, 성분 사이 처리인 컬러 보정 처리와 컬러 매트릭스 변환 처리, 시간적/공간적 처리인 픽셀 수 변환 처리와 라인 수 변환 처리, 및 주파수 볼륨 처리인 주파수 특성 변환 처리를 실시한다. 다음에, 결과적으로 얻은 이미지는 액정 모니터(80B)에 공급되고 표시된다.

도 40에 있어서도, 도 25에 있어서의 경우와 같이, 액정 모니터(80B)에 적합한 계조 처리, 성분 사이 처리, 시간적/공간적 처리, 및 주파수 볼륨 처리 모두는 클래스 분류 적응 처리에 의해서 행해 질 수 있다. 상기한 처리는 대응하는 예측 계수를 학습해 둠으로써 개별로 행해 질 수 있다. 또한, 모든 유형의 처리를 행하는 예측 계수를 학습해 두면, 처리가 동시에 행해질 수 있다.

도 40에 있어서, 시간적/공간적 처리로서의 채널 복호 처리는 도 39에 도시된 채널 복호 회로(135)에 의해 행해지는 처리에 대응한다. 시간적/공간적 처리로서의 오류 정정 처리는 도 39에 도시된 오류 정정 회로(136)에 의해 행해지는 처리에 대응한다. 또한, 공통 처리로서의 복호 처리는 도 39에 도시된 복호 회로(137)에 의해 행해지는 처리에 대응한다. 시간적/공간적 처리로서의 후 처리는 도 39에 도시된 후 처리 회로(138)에 의해 행해지는 처리에 대응한다. 계조 처리로서의 γ 보정 처리, 계조 보정 처리, 및 흑 레벨 보정 처리는 도 22에 도시된 레벨 변환 회로(85)나 멀티-레벨링 회로(multi-leveling circuit; 86)에 의해 행해지는 처리에 대응한다.

도 40에 있어서, 성분 사이 처리로서의 컬러 매트릭스 변환 처리에 있어서, DVD 플레이어(96B)로부터 출력된 이미지 데이터가 Y, U, 및 V 성분으로 구성되는 경우에, Y, U, 및 V 성분은 R, G, 및 B 성분으로 변환된다. 그러나, DVD 플레이어(96B)로부터 출력되는 이미지 데이터는 R, G, 및 B 성분으로 구성되는 경우에, 컬러 매트릭스 변환 처리는 행해지지 않는다.

도 41은 도 40에 도시된 DVD 플레이어(96B)의 구성예를 나타내고 있다. 도 39에 도시된 것고 동일한 구성 요소는 같은 참조 번호로 나타낸다.

공통 처리 및 가변 처리는 종합 처리기(27)에 의해 행해지므로, DVD 플레이어(96B)는 공통 처리 및 가변 처리를 행하는 블록을 설치하지 않고 구성될 수 있다. 즉, DVD 플레이어(96B)는 도 41에 도시한 바와 같이, 도 39에 도시된 채널 복호 회로(135), 오류 정정 회로(136), 복호 회로, 및 후 처리 회로(138)를 설치하지 않고 구성될 수 있다.

이상과 같이, 종합 처리 박스(1)에서는, 각종의 디바이스로부터 공급되는 데이터 및 각종의 디바이스에 공급하는 데이터에 대하여 공통 처리가 실시되고, 개별 디바이스에 대한 가변 처리도 실시된다. 따라서, 종합 처리 박스(1)에 접속되는 디바이스는 그 디바이스의 기능을 완수하는 최소한의 부분(고유 부분)만으로 구성할 수 있다. 그 결과, 사용자는 디바이스의 고유 부분만을 대체하면 되므로, 이로써 사용자의 경제적 부담을 저감할 수 있다.

종합 처리 박스(1)에 의해 행해지는 상기 일련의 처리는 하드웨어 혹은 소프트웨어에 의해 수행될 수 있다. 소프트웨어가 사용되면, 대응 소프트웨어 프로그램이 범용의 컴퓨터 등에 인스톨된다.

도 42는 상술한 소프트웨어 프로그램이 인스톨되는 컴퓨터의 일 실시 유형의 구성예를 나타내고 있다.

프로그램은 컴퓨터에 내장된 기록 매체로서의 하드디스크(305) 혹은 ROM(read only memory; 303)에 미리 기록해 둘 수 있다.

또한, 프로그램은 플로피 디스크, CD-ROM(Compact Disc Read Only memory), MO(magneto optical) 디스크, DVD 디스크, 자기 디스크, 및 반도체 메모리 등의 제거 가능한 기록 매체(311)에 일시적 혹은 영속적으로 기억(기록)해 둘 수 있다. 이러한 제거 가능한 기록 매체(311)는 소위 패키지 소프트웨어로서 제공할 수 있다.

제거 가능한 기록 매체(311)로부터 컴퓨터에 프로그램을 인스톨하는 것 외에, 프로그램은 다운로드 사이트에서, 디지털 위성 방송용의 인공위성을 통해 컴퓨터에 무선으로 전송하거나, LAN(Local Area Network) 혹은 인터넷 등의 네트워크를 통해 컴퓨터에 유선으로 전송할 수 있다. 그 때 컴퓨터는 프로그램을 통신 유닛(308)에 의해 수신하고, 그것을 내장된 하드디스크(305)에 인스톨할 수 있다.

컴퓨터는 CPU(Central Processing Unit; 302)를 내장하고 있다. 입/출력 인터페이스(310)는 버스(301)를 통해 CPU(302)에 접속된다. 사용자가 입/출력 인터페이스(310)를 통해, 키보드나, 마우스, 혹은 마이크로폰 등의 입력 유닛(307)을조작함으로써 지령을 입력할 때, CPU(302)는 ROM(303) 내에 기억되 있는 프로그램을 실행한다. 또한, CPU(302)는 하드디스크(305)에 기억되어 있는 프로그램, 위성 혹은 네트워크를 통해 전송되어 통신 유닛(308)에 의해 수신되고 하드디스크(305)에 인스톨된 프로그램, 및 드라이브(309)에 장착된 제거 가능한 기록 매체(311)로부터 판독되어 하드디스크(305)에 인스톨된 프로그램과 같은 댜양한 프로그램을 RAM(Random Access Memory; 304)에 로드하여 실행한다. 이러한 경우에, CPU(302)는 상술한 플로우 차트 혹은 블록도에 의해 지시된 처리를 행한다. 그 때, CPU(302)는 그 처리 결과를 필요에 따라서, 입/출력 인터페이스(310)를 통해, LCD나 스피커 등의 출력 유닛(306)으로부터 처리된 결과를 출력하거나, 혹은 통신 유닛(308)으로부터 처리된 결과를 송신하거나, 혹은 그것을 하드디스크(305)에 기록한다.

본 명세서에 있어서, 컴퓨터가 각종의 처리를 행하게 하기 위한 프로그램을 구성하는 스텝이 반드시 시계열로 처리될 필요는 없다. 또한, 그들은 병렬적 혹은 개별로(예를 들면, 병렬 혹은 오브젝트 처리로 실행될 수도 있음) 실행될 수도 있다.

프로그램은 하나의 컴퓨터에 의해 처리될 수도 있다. 또한, 프로그램은 복수의 컴퓨터에 의해서 분산 처리될 수도 있다. 또한, 프로그램은 원격 컴퓨터에 전송되어 실행될 수도 있다.

종합 처리 박스(1)는 휴대형으로 구성될 수도 있고, 예를 들면, 비디오 카메라(고유 디바이스 혹은 보통 디바이스 중 하나)에 장착될 수도 있다.

종합 처리 박스(1)는 상술한 디바이스 이외의 각종의 디바이스에 접속될 수도 있다.

본 실시예에 있어서 이미지 데이터가 종합 처리 박스(1)에서 처리되도록 하였지만, 이미지 데이터 이외의 음성 데이터 등을 처리하는 것도 가능하다.

또한, 비디오 카메라와 같은 동일한 유형의 입력 디바이스는 제조자 혹은 기기 유형에 따라 다른 유형로 취급될 수도 있는데, 이러한 경우에, 종합 처리기(27)는 비디오 카메라 등에 대해 다른 유형의 처리를 수행할 수 있다. 출력 디바이스 및 저장 디바이스에 대해서도 마찬가지다.

본 발명은, 여러 유형의 디바이스에 적합한 처리를 행할 수 있게 해주는 효과가 있다.

Claims (9)

  1. 복수 유형의 출력 디바이스들에 처리된 정보 데이터를 선택적으로 출력하기 위한 데이터 처리 장치에 있어서,
    정보 데이터를 입력하는 데이터 입력 수단;
    처리된 정보 데이터가 출력되는 출력 디바이스의 유형을 검출하는 출력 디바이스 검출 수단; 및
    상기 데이터 입력 수단으로부터 수신된 정보 데이터에 대해, 상기 출력 디바이스 검출 수단에 의해 검출된 상기 출력 디바이스 유형에 따라 가변적으로 처리를 수행하는 가변 처리 수단을 포함하고,
    상기 가변 처리 수단은,
    상기 데이터 입력 수단으로부터의 정보 데이터를 클래스들중 하나로 분류하며, 상기 정보 데이터의 클래스에 대응하는 클래스 코드를 출력하는 데이터 분류 수단;
    학습 처리를 수행함에 의해 얻어지는, 상기 클래스 코드 각각에 대한 복수의 계수들을 저장하는 저장 수단; 및
    상기 데이터 분류 수단으로부터의 상기 클래스 코드에 대응하며 처리된 정보 데이터가 출력되도록 상기 저장 수단으로부터 제공되는 상기 정보 데이터 및 상기 계수로 계산을 수행하는 계산 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  2. 제1항에 있어서,
    상기 저장 수단은 상기 클래스 코드들용의 복수의 계수들의 세트들을 저장하며,
    상기 복수의 계수들의 세트들중 하나는 상기 계산 수단이 계산을 수행하게 하기 위하여 상기 출력 디바이스 검출 수단에 의해 검출된 출력 디바이스의 유형에 기초하여 선택되는 것을 특징으로 하는 데이터 처리 장치.
  3. 제1항에 있어서, 상기 데이터 분류 수단은,
    상기 정보 데이터를 분류하기 위하여 상기 출력 디바이스 검출 수단에 의해 검출된 출력 디바이스의 유형에 기초하여 상기 정보 데이터중 일부를 선택하는 정보 데이터 선택 수단을 더 포함하는 것을 특징으로 하는 데이터 처리 장치.
  4. 제1항에 있어서,
    상기 계산 수단이 계산을 수행하게 하기 위하여 상기 출력 디바이스 검출 수단에 의해 검출된 출력 디바이스의 유형에 기초하여 상기 정보 데이터중 일부를 선택하는 정보 데이터 선택 수단을 더 포함하는 것을 특징으로 하는 데이터 처리 장치.
  5. 제1항에 있어서,
    상기 처리된 정보 데이터를 출력하기 위하여 상기 출력 디바이스 검출 수단에 의해 검출된 출력 디바이스의 유형에 기초하여 상기 처리된 정보 데이터의 데이터 포맷을 선택하는 데이터 포맷 선택 수단을 더 포함하는 것을 특징으로 하는 데이터 처리 장치.
  6. 제1항에 있어서,
    상기 정보 데이터는 이미지 데이터이며,
    상기 데이터 분류 수단은, 상기 정보 데이터용 이미지의 움직임에 대하여 상기 정보 데이터를 분류하며, 움직임 클래스 코드들중 하나를 출력하는 움직임 분류 수단;
    상기 정보 데이터의 레벨 패턴에 기초하여 상기 정보 데이터를 분류하며, 시간/공간 클래스 코드들중 하나를 출력하는 시간 및/또는 공간 분류 수단; 및
    상기 움직임 클래스 코드 및 상기 시간/공간 클래스 코드에 기초하여 최종 클래스 코드를 상기 클래스 코드로서 발생시키는 합성 수단을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  7. 처리된 정보 데이터를 복수의 출력 디바이스의 유형들에 선택적으로 출력하는 데이터 처리 장치에 있어서,
    정보 데이터를 입력하는 데이터 입력 유닛;
    처리된 정보 데이터가 출력되는 상기 출력 디바이스의 유형을 검출하는 출력디바이스 검출 유닛; 및
    상기 데이터 입력 유닛으로부터 수신된 정보 데이터에 대해, 상기 출력 디바이스 검출 유닛에 의해 검출된 상기 출력 디바이스 유형에 따라 가변적으로 처리를 수행하는 가변 처리 유닛을 포함하고,
    상기 가변 처리 유닛은,
    상기 데이터 입력 유닛으로부터의 정보 데이터를 클래스들중 하나로 분류하며, 상기 정보 데이터의 클래스에 대응하는 클래스 코드를 출력하는 데이터 분류 유닛;
    학습 처리를 수행함에 의해 얻어지는, 상기 클래스 코드들 각각에 대한 복수의 계수들을 저장하는 저장 유닛; 및
    상기 데이터 분류 유닛으로부터의 상기 클래스 코드에 대응하며 처리된 정보 데이터가 출력되도록 상기 저장 유닛으로부터 제공되는 상기 정보 데이터 및 상기 계수로 계산을 수행하는 계산 유닛을 포함하는 것을 특징으로 하는 데이터 처리 장치.
  8. 처리된 정보 데이터를 복수의 출력 디바이스의 유형들에 선택적으로 출력하는 데이터 처리 방법에 있어서,
    정보 데이터를 입력하는 입력 단계;
    처리된 정보 데이터가 출력되는 상기 출력 디바이스의 유형을 검출하는 검출 단계; 및
    상기 입력 단계로부터 수신된 정보 데이터에 대해, 상기 검출 단계에 의해 검출된 상기 출력 디바이스 유형에 따라 가변적으로 처리를 수행하는 가변 처리 단계를 포함하고,
    상기 가변 처리 단계는,
    상기 입력 단계로부터 수신된 정보 데이터를 클래스들중 하나로 분류하며, 상기 정보 데이터의 클래스에 대응하는 클래스 코드를 출력하는 분류 단계;
    학습 처리를 수행함에 의해 얻어지는, 상기 클래스 코드들 각각에 대한 복수의 계수들을 저장하는 저장 수단으로부터 상기 분류 단계의 클래스 코드에 대응하는 계수를 출력하는 계수 출력 단계; 및
    처리된 정보 데이터가 출력되도록 상기 계수 출력 단계로부터 출력되는 상기 정보 데이터 및 상기 계수로 계산을 수행하는 단계를 포함하는 것을 특징으로 하는 데이터 처리 방법.
  9. 제8항에 있어서,
    상기 처리된 정보 데이터를 출력하기 위하여 상기 검출 단계에 의해 검출된 상기 출력 디바이스의 유형에 기초하여 상기 처리된 정보 데이터의 데이터 포맷을 선택하는 단계를 더 포함하는 것을 특징으로 하는 데이터 처리 방법.
KR20040039048A 2000-05-11 2004-05-31 데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체 KR100597920B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000138364A JP2001318745A (ja) 2000-05-11 2000-05-11 データ処理装置およびデータ処理方法、並びに記録媒体
JPJP-P-2000-00138364 2000-05-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR20010025466A Division KR100655837B1 (ko) 2000-05-11 2001-05-10 데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체

Publications (2)

Publication Number Publication Date
KR20040058129A true true KR20040058129A (ko) 2004-07-03
KR100597920B1 KR100597920B1 (ko) 2006-07-10

Family

ID=18645983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20040039048A KR100597920B1 (ko) 2000-05-11 2004-05-31 데이터 처리 장치, 데이터 처리 방법, 및 그에 대한 기록매체

Country Status (5)

Country Link
US (3) US7047325B2 (ko)
EP (2) EP1162846A3 (ko)
JP (1) JP2001318745A (ko)
KR (1) KR100597920B1 (ko)
CN (2) CN1297929C (ko)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4040305B2 (ja) * 2001-01-17 2008-01-30 松下電器産業株式会社 モニタ装置
KR100423455B1 (ko) * 2001-10-24 2004-03-18 삼성전자주식회사 영상신호처리장치 및 그 방법
JP3885594B2 (ja) 2002-01-30 2007-02-21 ソニー株式会社 コンテンツデータの処理装置および処理方法、並びにその方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体、並びに係数データ生成装置および係数データ生成方法
EP1871107A3 (en) * 2002-01-30 2009-12-09 Sony Corporation Coefficient seed data or coefficient data production device used in image display apparatus
US7102669B2 (en) * 2002-04-02 2006-09-05 Freescale Semiconductor, Inc. Digital color image pre-processing
JP4066146B2 (ja) * 2002-04-26 2008-03-26 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4238516B2 (ja) * 2002-04-26 2009-03-18 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
WO2004002141A1 (ja) * 2002-06-20 2003-12-31 Sony Corporation 復号装置及び復号方法
US7580532B2 (en) * 2002-08-06 2009-08-25 Lg Electronics Inc. Multi-channel pulse width modulation apparatus
US7636125B2 (en) * 2002-10-22 2009-12-22 Broadcom Corporation Filter module for a video decoding system
US7313268B2 (en) * 2002-10-31 2007-12-25 Eastman Kodak Company Method for using effective spatio-temporal image recomposition to improve scene classification
JP4144378B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4265291B2 (ja) * 2003-06-06 2009-05-20 ソニー株式会社 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
WO2004112593A1 (ja) * 2003-06-24 2004-12-29 Olympus Corporation カプセル型内視鏡及びカプセル型内視鏡システム
JP3885786B2 (ja) 2003-09-12 2007-02-28 ソニー株式会社 情報信号の処理装置および処理方法、並びにその処理方法を実行させるためのプログラム
JP4311166B2 (ja) * 2003-11-05 2009-08-12 ソニー株式会社 情報信号の処理装置および処理方法、それに使用される係数種データの生成装置および生成方法、並びに各方法を実行するためのプログラム、そのプログラムを記録した媒体
US7630576B2 (en) 2004-02-19 2009-12-08 Sony Corporation Signal processing apparatus and method, and command-sequence data structure
JP4449489B2 (ja) * 2004-02-19 2010-04-14 ソニー株式会社 信号処理装置および信号処理方法
JP4075880B2 (ja) * 2004-09-29 2008-04-16 セイコーエプソン株式会社 電気光学装置、データ線駆動回路、信号処理回路および電子機器
US7471844B2 (en) * 2004-12-27 2008-12-30 Intel Corporation Method, apparatus and system for multi-feature programmable tap filter image processing
JP4487204B2 (ja) * 2005-09-14 2010-06-23 ソニー株式会社 情報処理装置および方法、提供装置および方法、並びにプログラム
JP4516003B2 (ja) 2005-11-21 2010-08-04 シャープ株式会社 データ処理装置
JP4470899B2 (ja) * 2006-03-16 2010-06-02 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US20080143873A1 (en) * 2006-12-15 2008-06-19 Darren Neuman Tv user interface and processing for personal video players
US7800661B2 (en) * 2006-12-22 2010-09-21 Qualcomm Incorporated Programmable pattern matching device
US7839307B2 (en) * 2008-04-04 2010-11-23 Gennum Corporation Video serializer and deserializer with mapping conversion
US8102444B2 (en) * 2008-09-11 2012-01-24 Zoran Corporation Method and apparatus for post noise reduction black level correction
US8265152B2 (en) * 2008-10-10 2012-09-11 Arecont Vision, Llc. System and method for low-latency processing of intra-frame video pixel block prediction
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
CA2843276A1 (en) * 2013-02-20 2014-08-20 Hartford Steam Boiler Inspection And Insurance Company Dynamic outlier bias reduction system and method
GB0904282D0 (en) * 2009-03-12 2009-04-22 Speaks4Me Ltd Image-to-speech system
JP2013009293A (ja) * 2011-05-20 2013-01-10 Sony Corp 画像処理装置、画像処理方法、プログラム、および記録媒体、並びに学習装置
WO2013014177A1 (en) * 2011-07-25 2013-01-31 Sony Corporation In-painting method for 3d stereoscopic views generation
WO2013128265A3 (en) * 2012-03-01 2014-04-24 Trimble A.B. Methods and apparatus for point cloud data processing
JP5891438B2 (ja) * 2012-03-16 2016-03-23 パナソニックIpマネジメント株式会社 音像定位装置、音像定位処理方法、および音像定位処理プログラム
CN102724467B (zh) * 2012-05-18 2016-06-29 中兴通讯股份有限公司 提升视频输出清晰度的方法及终端设备
JP2014200000A (ja) * 2013-03-29 2014-10-23 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN104537974B (zh) * 2015-01-04 2017-04-05 京东方科技集团股份有限公司 数据获取子模块及方法、数据处理单元、系统和显示装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5457780A (en) * 1991-04-17 1995-10-10 Shaw; Venson M. System for producing a video-instruction set utilizing a real-time frame differential bit map and microblock subimages
EP0565283A1 (en) * 1992-03-29 1993-10-13 Scitex Corporation Ltd. Apparatus and method for tone and color reproduction control
DE4310727C2 (de) * 1992-04-06 1996-07-11 Hell Ag Linotype Verfahren und Einrichtung zur Analyse von Bildvorlagen
JP3438233B2 (ja) 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
JP3285941B2 (ja) * 1992-07-31 2002-05-27 キヤノン株式会社 色処理方法、色処理装置、及びカラー画像処理システム
KR100360206B1 (ko) 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
JP3488729B2 (ja) * 1993-09-10 2004-01-19 富士ゼロックス株式会社 カラー画像処理方法および装置
DE4335143A1 (de) * 1993-10-15 1995-04-20 Hell Ag Linotype Verfahren und Einrichtung zur Umsetzung von Farbwerten
US6031937A (en) * 1994-05-19 2000-02-29 Next Software, Inc. Method and apparatus for video compression using block and wavelet techniques
JP3083067B2 (ja) * 1994-08-03 2000-09-04 富士ゼロックス株式会社 色変換係数決定方法及び装置
US5506696A (en) * 1994-08-10 1996-04-09 Toyo Ink Manufacturing Co., Ltd. Color image reproduction system having color analysis function performed with a neural network system
JPH0877341A (ja) * 1994-08-29 1996-03-22 Xerox Corp カラー画像処理装置及び方法
US5835627A (en) * 1995-05-15 1998-11-10 Higgins; Eric W. System and method for automatically optimizing image quality and processing time
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
US5946044A (en) * 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
JP4035189B2 (ja) * 1995-12-28 2008-01-16 キヤノン株式会社 撮像装置
US5832244A (en) * 1996-02-20 1998-11-03 Iomega Corporation Multiple interface input/output port for a peripheral device
JP4240554B2 (ja) * 1997-07-11 2009-03-18 ソニー株式会社 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
JP3911354B2 (ja) * 1997-09-02 2007-05-09 大日本スクリーン製造株式会社 画像処理方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体
US6349352B1 (en) * 1998-01-06 2002-02-19 Sony Corporation Of Japan Home audio/video network with both generic and parameterized device control
US6268939B1 (en) * 1998-01-08 2001-07-31 Xerox Corporation Method and apparatus for correcting luminance and chrominance data in digital color images
JP3439337B2 (ja) * 1998-03-04 2003-08-25 日本電信電話株式会社 ネットワーク管理システム
US6189050B1 (en) * 1998-05-08 2001-02-13 Compaq Computer Corporation Method and apparatus for adding or removing devices from a computer system without restarting
JP4158232B2 (ja) * 1998-07-23 2008-10-01 ソニー株式会社 画像情報変換装置および画像表示装置
JP4126629B2 (ja) * 1998-08-10 2008-07-30 ソニー株式会社 映像信号処理装置及び映像信号処理方法
JP2000059738A (ja) * 1998-08-10 2000-02-25 Sony Corp 画像データ変換装置及び画像データ変換方法
US6301708B1 (en) 1998-11-12 2001-10-09 Hewlett-Packard Company Software installation process using abstract data and program files
US6398105B2 (en) * 1999-01-29 2002-06-04 Intermec Ip Corporation Automatic data collection device that intelligently switches data based on data type

Also Published As

Publication number Publication date Type
CN1324041A (zh) 2001-11-28 application
JP2001318745A (ja) 2001-11-16 application
CN1297929C (zh) 2007-01-31 grant
US20020019892A1 (en) 2002-02-14 application
EP1162846A3 (en) 2009-10-28 application
US7136942B2 (en) 2006-11-14 grant
US7047325B2 (en) 2006-05-16 grant
KR100597920B1 (ko) 2006-07-10 grant
CN1553712A (zh) 2004-12-08 application
US20060095603A1 (en) 2006-05-04 application
US20050027912A1 (en) 2005-02-03 application
CN1293761C (zh) 2007-01-03 grant
EP1585335A2 (en) 2005-10-12 application
EP1162846A2 (en) 2001-12-12 application
EP1585335A3 (en) 2010-01-13 application
US7240128B2 (en) 2007-07-03 grant

Similar Documents

Publication Publication Date Title
US6493023B1 (en) Method and apparatus for evaluating the visual quality of processed digital video sequences
US6005638A (en) Frame averaging for use in processing video data
US6859235B2 (en) Adaptively deinterlacing video on a per pixel basis
US5671298A (en) Image scaling using cubic filters
US6301304B1 (en) Architecture and method for inverse quantization of discrete cosine transform coefficients in MPEG decoders
US5671018A (en) Motion adaptive vertical scaling for interlaced digital image data
US6459455B1 (en) Motion adaptive deinterlacing
US20080192819A1 (en) Encoding, Decoding and Representing High Dynamic Range Images
US20080198264A1 (en) Methods and systems for improving low resolution and low frame rate video
US5185666A (en) Digitized film image processing system with bordered split screen display
US5321500A (en) Non-real-time film scanning system
US5561532A (en) Image reproducing apparatus
US20060045381A1 (en) Image processing apparatus, shooting apparatus and image display apparatus
US4733299A (en) Method and apparatus for generating progressively scanned television information
US5398071A (en) Film-to-video format detection for digital television
US7262818B2 (en) Video system with de-motion-blur processing
US5801777A (en) Device and method for decoding digital video data
US7057664B2 (en) Method and system for converting interlaced formatted video to progressive scan video using a color edge detection scheme
US7483486B2 (en) Method and apparatus for encoding high dynamic range video
US5155586A (en) Method and apparatus for flare correction
US5754248A (en) Universal video disc record and playback employing motion signals for high quality playback of non-film sources
US6353459B1 (en) Method and apparatus for down conversion of video data
US20040196901A1 (en) Median filter combinations for video noise reduction
US7203236B2 (en) Moving picture reproducing device and method of reproducing a moving picture
US5926611A (en) High resolution digital recorder and method using lossy and lossless compression technique

Legal Events

Date Code Title Description
A201 Request for examination
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140623

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee