KR100350335B1 - 화상정보처리방법및그장치 - Google Patents

화상정보처리방법및그장치 Download PDF

Info

Publication number
KR100350335B1
KR100350335B1 KR1019950020104A KR19950020104A KR100350335B1 KR 100350335 B1 KR100350335 B1 KR 100350335B1 KR 1019950020104 A KR1019950020104 A KR 1019950020104A KR 19950020104 A KR19950020104 A KR 19950020104A KR 100350335 B1 KR100350335 B1 KR 100350335B1
Authority
KR
South Korea
Prior art keywords
information
image
image information
averaging
data
Prior art date
Application number
KR1019950020104A
Other languages
English (en)
Other versions
KR960006645A (ko
Inventor
호소노요시마사
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR960006645A publication Critical patent/KR960006645A/ko
Application granted granted Critical
Publication of KR100350335B1 publication Critical patent/KR100350335B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00283Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a television apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0008Connection or combination of a still picture apparatus with another apparatus
    • H04N2201/0065Converting image data to a format usable by the connected apparatus or vice versa
    • H04N2201/0067Converting to still picture data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S348/00Television
    • Y10S348/91Flicker reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은, 텔레비젼 화면에 표시되는 예를 들면 고해상도의 정지화 정보를 처리하는 화상 정보 처리 장치에 관한 것이다. 본 발명의 구성은 소정의 부호화 방법에 의하여 부호화 되어 화상 정보를 수신하는 수단과, 상기 수신한 화상 정보에 대하여 어떠한 보간 처리를 수행하는가를 나타내는 평균화 정보를 발생시키는 수단과, 상기 부호화 방법에 대응한 복호 방법에 의하여 상기 화상 정보를 복호하는 수단과, 상기 복호된 화상 정보를 저장하기 위한 메모리 수단과, 상기 메모리에 저장된 복호 화상 정보를 판독하고, 상기 평균화 정보에 따라서 상기 복호 화상 정보에 상기 보간 처리를 시행하는 보간 처리 수단과, 상기 보간 처리가 시행된 화상 정보를 표시용의 화상으로서 출력하는 출력 수단으로 이루어진 화상 처리 장치.

Description

화상 정보 처리 방법 및 그 장치
본 발명은, 텔레비젼 화면에 표시되는 예를 들면, 고해상도의 정지화(靜止畵) 정보를 처리하는 화상 정보 처리 장치에 관한 것이다.
최근에는, 소위 멀티미디어용의 기록 매체로서, 예를 들면, 광 디스크 기록 매체인 컴팩트 디스크(소위 CD)에, 사진으로부터 얻은 고해상도의 화상 정보를 기록한것 같은 디스크(소위 포토 CD 라 불리고 있는 것)가 존재한다.
여기서, 상기 디스크에 기록된 사진의 화상을 예를 들면 일반가정에서 감상하는 경우에는, 상기 디스크로부터 재생한 사진의 화상을, 통상의 텔레비젼 방송 수신용의 텔레비젼 수상기에 표시하여 감상하게 된다.
그런데, 상기 디스크로부터 재생된 사진의 화상 정보에 한하지 않고, 고해상도의 화상 정보를 통상의 텔레비젼 수상기의 화면에 표시하는 경우, 그림(화상의 내용)에 의하여 플리커(flicker)등이 발생하고, 대단히 보기 흉한 화상으로 된다.
또한, 예를 들면, 고해상도의 화상 정보가 아닌 통상의 해상도의 화상 정보에 있어서도, 예를 들면, 텔레비젼 화면의 일부에 1 매분의 화상을 단순한 추출(솎아내기)에 의하여 축소하여 표시하면, 그림에 따라서 플리커 등이 발생한다.
그래서, 본 발명은 상술한 바와 같은 실정을 감안하여 제안된 것으로, 텔레비젼 화면에 고해상도의 화상 정보를 표시하거나, 통상의 해상도의 화상 정보를 축소 표시하는 때라도, 플리커가 발생하지 않는 화상 정보를 생성할 수 있는 화상 정보 처리 장치를 제공하는 것을 목적으로 하는 것이다.
본 발명에 의하면, 화상 처리 방법은, 소정의 부호화 방법에 의하여 부호화되어 있는 화상 정보를 수신하는 단계와, 상기 수신한 화상 정보에 대하여 어떠한 보간 처리를 수행하는가를 나타내는 평균화 정보를 발생시키는 단계와, 상기 부호화 방법에 대응한 복호 방법에 의하여 상기 화상 정보를 복호하는 단계와, 상기 복호된 화상 정보를 메모리에 저장하는 단계와, 상기 저장된 복호 화상 정보를 판독하고, 상기 평균화 정보에 따라서 상기 복호 화상 정보에 상기 보간 처리를 시행하는 단계와, 상기 보간 처리가 시행된 화상 정보를 표시용의 화상으로서 출력하는 단계로 이루어진다.
또한, 상기 평균화 정보는 1 프레임분의 화상 정보를 수직 방향 및 수평방향으로 어느 정도 옮겨서 평균화 보간 처리를 수행하는가에 관한 벡터 정보를 포함한다.
또한, 상기 화상 정보 및 평균화 정보는, MPEG 규격에 따른 비트 스트림으로 이루어진다.
실시예
이하, 본 발명의 1 실시예 대하여 도면을 참조하면서 설명한다 본 발명의 실시예의 화상 정보 처리 장치는, 소정의 동화(움직이는 화면) 시퀀스로서, 예를 들면 후술하는 MPEG (Moving Picture Expert Group) 포맷의 동화 시퀀스가 기록되게 되는 정보 기록 매체를 재생하고, 상기 MPEG 포맷의 동화 비트 스트림을 복호화하여 동화를 복원하는 것이다. 또한, MPEG 방식에 대한 상세한 내용은 후술한다.
이 제 1 도에 있어서, MPEG 포맷의 동화 시퀀스의 기록된 소위 CD-ROM 인 디스크(즉 소위 비디오 CD ; 301)에서는, CPU (303)가 동작을 제어하는 CD-ROM 제어기(302)에 의하여, 상기 기록된 동화 시퀀스가 판독되고, 에러 정정된 MPEG1의 비디오 비트 스트림이 인출된다. 또한, 상기 CPU (303)는 ROM(판독 전용 메모리 ; 304)에 저장되어 있는 프로그램 정보를 사용하여 각종 제어를 수행한다. 또한, ROM (304)의 평균화 비트 스트림 저장 영역(즉, 평균화 정보 저장 영역 ; 305)에는, 후술하는 MPEG 방식에 따른 평균화 비트 스트림(즉, 평균화 정보)가 저장되어 있고, 제어 수단인 CPU (303)에 의하여 상기 저장되어 있는 평균화 비트 스트림이 판독된다. 어떤 프레임분의 평균화 비트 스트림이 판독되는가는 미리 결정되어 있고, 그것에 따라서 CPU (303)가 평균화 비트 스트림을 판독한다.
상기 CD-ROM 제어기(302)로부터 출력된 MPEG1 의 비디오 비트 스트림은, 상기 MPEG1 의 비트 스트림은 디코드하는 다음 단계의 비트 스트림 버퍼(201) 이후의 구성(즉, 동화 시퀀스 처리 수단)으로 보내진다. 상기 비트 스트림 버퍼(201)는 예를 들면, 프레임 메모리로 이루어지고, 상기 공급된 MPEG1 의 비디오 비트 스트림을 일단 저장한 후에 판독하고, 가변장 부호의 복호화 회로(202)에 보낸다.
상기 가변장 부호의 복호화 회로(202)는 상기 비트 스트림 버퍼(201)에서 공급된 데이터를 가변장 복호화하고, 그 복호된 화상의 DCT 계수나 양자화 단계 정보등을 역양자화 회로(203)로 보낸다. 역양자화 회로(203)에서는 부호화의 시기의 양자화에 대응하는 역양자화 처리가 시행되고, 또한 다음의 역 DCT 회로(204)에서는 부호화의 시기의 DCT 에 대응하는 역 DCT 처리가 시행된다. 이들 처리는 모두 후술하는 마크로 블럭 단위로 수행된다.
또한, 제어용 시퀀서(300)는 가변장 부호의 복호화 부호(202)로부터 이동 벡터, 픽쳐 형태 정보, 마크로 블럭 형태 정보 등을 받아서, 후술하는 각 스위치(205, 207 내지 208, 214, 220, 221)의 제어를 수행함과 동시에, 가변장 부호의 복호화 회로(202)로부터의 에러 복구 비트를 받아서 에러 복구(error recovery)처리를 수행한다.
상기 역 DCT 회로(204)로부터의 출력은, 변환 스위치(205)의 한쪽의 피변환 단자에 공급됨과 동시에 가산기(206)에도 보내진다. 변환 스위치(205)는 제어용 시퀀서(300)로부터 보내져오는 마크로 블럭 형태 정보에 의하여 제어되어 있다. 즉, 상기 변환 스위치(205)는 공급된 데이터가 인트라 마크로 블럭의 데이터의 경우에는 그대로 출력하고, 비 인트라 마크로 블럭의 경우에는 가산기(206)로 부터 공급된 데이터를 출력한다.
상기 변환 스위치(205)의 출력 데이터는 선택 스위치 (214)를 통하여, 프레임 메모리(210 내지 213)에 순차적으로 보내져서 기억되고, 화상의 재현(이동보상에 의한 예측 화상의 생성)이나 표시에 사용되도록 된다. 이 변환 스위치(214)는제어용 시퀀서로부터 보내져 오는 픽쳐 형태에 의하여 순차 변환된다. 예를 들면, 프레임 메모리(210)는 I 픽쳐용, 프레임 메모리(211)는 P 픽쳐용, 프레임 메모리(212, 213)는 B 픽쳐용으로 사용된다. 즉, 이 프레임 메모리(210 내지 213)에 기억된 데이터중, I 픽쳐의 데이터는 그대로 화상 재현 및 표시에 사용된다. P 또는 B 픽쳐의 데이터는 참조 화상을 이동 보상하여 얻어진 예측 화상 데이터와 상기 가산기(206)에서 가산되고, 프레임 메모리(210 내지 213)의 어딘가에 기억되고, 그 다음, 화상 재현 및 표시에 사용된다. MPEG 에서는, 통상 B 픽쳐는 이동 예측에는 사용되지 않지만, 본 실시예의 경우는 변환 스위치(208, 209)에 의하여 프레임 메모리를 자유롭게 선택할 수 있기 때문에 B 픽쳐의 데이터도 이동 예측에 사용할 수 있다.
프레임 메모리(210 내지 2130에 저장되어 있는 데이터는, 변환 스위치(207)을 통하여 복원된 화상으로서 디스플레이 제어 회로(222)에 보내진다. 디스플레이 제어 회로(222)로부터의 출력은 단자(223)로부터 출력 비디오 신호로서 후단의 구성(예를 들면 모니터 장치)으로 보내진다. 이 변환 스위치(207)는 제어용 시퀀서로부터 보내져 오는, 화상의 표시 순서를 나타내는 일시적 기준(temporal reference)에 의하여 변환된다.
각 프레임 메모리(210 내지 213)는 메모리 판독 회로(217, 215)에 의하여 판독이 제어된다. 각 프레임 메모리(210 내지 213)로부터 판독된 데이터는, 선택 스위치(207 내지 209)의 각각 대응하는 피선택 단자에 보내진다. 이 선택 스위치(208, 209)는 제어용 시퀀서(300)로부터 보내지는 픽쳐 형태에 의하여 변환된다.
예를 들면, 현재 복호중의 화상이 B 픽쳐의 경우, 즉, 픽쳐 형태가 B 픽쳐의 경우, 프레임 메모리(210 내지 213)에 저장되어 있는 I 픽쳐 및 P 픽쳐, 또는 P 픽쳐 및 P 픽쳐가 메모리 판독 회로로부터 판독되도록 변환 스위치(208, 209)가 제어된다.
또한, 본 발명의 경우, 모든 프레임 메모리에 저장되어 있는 화상을 사용하여 예측 화상을 생성할 수 있기 때문에, 프레임 메모리(212 또는 213)에 저장되어 있는 B 픽쳐를 사용하여 이동 예측할 수 있도록 변환 스위치(208, 209)를 변환하여도 좋다.
여기서, 선택 스위치(208, 209)의 출력은 메모리 판독 회로(215, 217)를 통하여 하프 픽셀 처리 회로(216, 218)로 보내진다. 하프 픽셀 처리 회로(216, 218)에서는, 제어용 시퀀서(300)로부터 보내져 오는 평균환 비트 스트림중 이동 벡터 MV 에 의거하여, 후술하는 평균화 보간 처리가 수행된다.
평균화 보간 처리가 수행된 화상 데이터는, 가산기(219)로 보내지고, 선택 스위치(220)의 대응하는 피선택 단자로 보내진다. 가산기(219)의 출력은 1/2배 되어서 선택 스위치(220)의 대응하는 피선택 단자에 보내진다. 변환 스위치(220)에서 피선택 단자 220(a) 내지 220(c)의 어느 것이 선택되는가는 제어용 시퀀스로부터 보내져오는 마크로 블럭 형태 정보에 의거하여 결정된다. 예를 들면, 하프 픽셀 처리 회로(216)가 포워드 화상에 대하여 하프 픽셀 처리를 수행하고, 하프 픽셀 처리 회로(218)가 백워드 화상에 대하여 하프 픽셀 처리를 수행하는 것으로 한다. 마크로 블럭마다 하프 픽셀 처리된 데이터는, 마크로 블럭 형태 정보에 포함된다. 참조해야 할 화상의 정보(즉, 포워드, 백워드, 또는 포워드 및 백워드의 어느 것을 참조하여 이동 보상되는가를 나타내는 정보)에 따라서 피선택 단자 220(a) 내지 220(c)의 어느 것인가가 선택된다.
상기 선택 스위치(220)로부터의 출력은, 변환 스위치(221)의 피변환 단자221(a)로 보내진다. 이미 한쪽의 피변환 단자 221(b) 애는 "0" 이 공급된다.
이 변환 스위치(221)는 마크로 블럭 형태에 따라서 마크로 블럭마다 변환되는 것이다. 즉, 현재 복호중의 픽쳐에 있어서의 마크로 블럭이 인트라 마크로 블럭인 때에는 상기 피변환 단자 221(a)로, 비 인트라 마크로 블럭인 때에는 상기 피변환 단자 221(a)로 변환되는 것이다. 이 변환 스위치(221)의 출력이 상기 가산기(206)에 보내진다.
여기서, 본 실시예의 화상 정보 처리 장치는, 제 1 도에서 설명한 바와 같이, 메모리 판독 회로(217, 215)에 의한 판독 제어 및 선택 스위치(208, 209)의 선택 제어에 의하여, 각 프레임 메모리(210 내지 213)의 조합을 자유로 설정할 수 있는 기능을 가지고 있다. 이 때문에, 후술하는 포워드(forward), 백워드(backward), B 픽쳐면을 모두 동일한 프레임 메모리에 할당할 수 있다(제 1 도에서는, 4 개의 프레임 메모리가 설치되어 있지만, 정지화 모드인 때는 하나의 프레임 메모리만으로 완료시킬 수 있다).
본 실시예의 화상 정보 처리 장치에서는, 이들의 것을 고려하고, 이하에 설명하는 MPEG 방식의 비트 스트림을 이용한 평균화 보간 방법을 사용함에 의하여,텔레비젼 화면에 표시하고 싶은 고해상도의 정지화(본 실시예에서는 동화를 구성하는 1 매의 정지화)로부터, 플리커가 발생하지 않은 평균화된 정지 화상을 고속으로 간단하게 생성할 수 있도록 하고 있다.
즉, 본 실시예의 장치는, 정지화를 프레임 메모리에 기록후, ROM (304)의 평균화 비트 스트림 저장 영역(302)로부터 상기 평균화 비트 스트림을 판독하여, 상기 비트 스트림 버퍼(201) 이후의 MPEG1 의 비트 스트림의 디코더의 구성에 보내는 것으로, MPEG 방식의 비트 스트림을 이용한 평균화 보간 방법을 사용한 플리커가 발생하기 않는 평균화된 정지화를 생성하도록 하고 있다.
상기 평균화 보간 방법에 대하여 설명한다: 상기 평균화 보간 방법에서는, 1 매분의 정지화에 대하여 라인간, 픽셀간의 평균화 보간을 수행한다. 여기서, 상기 평균화 보간으로서는, 예를 들면 단순한 평균화 보간과, 가중치 부여를 수행한 평균화 보간과, 가중치 부여 및 3 라인에서의 평균화 보간이 고려된다.
상기 단순한 평균화 보간으로는, 예를 들면 화소 A, B, C ... 가 있는 때, (A+B)/2, (B+C)/2, (C+D)/2, ... 와 같이, 수평 또는 수직 방향으로 단순하게 평균화하여 보간을 수행하는 것이다. 예를 들면, 수직 방향의 평균화 보간을 예로 들어서 설명하면, 제 2 도의 (a)에 나타난 바와 같이, 라인 1, 라인 2, 라인 3, ... 의 수직 방향에 서로 이웃하는 화소 A, B, C, D, ... 가 있을 때, 수직방향으로 평균화 보간된 값은 제 2 도의 (b)에 나타난 바와 같이 (A+B)/2, (B+C)/2, (C+D)/2, ... 로 된다.
여기서, MPEG1 의 비트 스트림을 이용하여 예를 들면, 상기 단순화 평균화보간을 수행하기에는, 하프펠(halfpel)을 이용한다. 즉, MPEG 에서는 이동보상(MC)에 하프펠(반화소 위치)을 허용하고 있기 때문에, 이것을 이용한다. 제 2 도의 예에서 설명하면, MPEG 의 상기 디코더부(비트 스트림 버퍼(201) 이후의 구성)에, 먼저 제 2 도의 (a)의 원화상 데이터(참조 화상 데이터)를 보내고, 이것을 복원하여 프레임 메모리 등에 저장한 후, 상기 ROM (304)의 평균화 비트 스트림 저장 영역(305)에 미리 형성하여 저장하고 있던, 수직 방향으로만 화소 위치를 0.5 옮기는 이동 벡터를 갖는 평균화 비트 스트림을 상기 디코더부로 보낸다. 상기 디코더부에서는 앞서 프레임 메모리에 저장 복원된 원화상 데이터와, 상기 수직 방향으로 벡터를 0.5 옮기는 평균화 비트 스트림에 의하여, MPEG 의 법칙에 따른 디코드 처리가 수행되도록 된다. 따라서, 상기 디코드부에서는, 제 2 도의 (b)에 나타난 바와 같은 수직 방향으로 평균화 보간된 화상 데이터가 얻어지도록 된다.
또한, 평균화 비트 스트림의 예로 제 3 도(a) 및 제 3 도(b) (a 와 b 에서 하나의 도면)에 나타낸다. 이 예에서는, 이동 벡터는 수평 방향으로 0.5, 수직 방향으로 0.5 의 성분을 가지고 있다.
이 평균화 비트 스트림은, 가변장 복호 회로(202)에서, 마크로 블럭 형태, 픽쳐 형태, 일시적 기준, 이동 벡터, 양자화 스케일 등의 제어 데이터와 화상 데이터(평균화 비트 스트림에서, 0)로 분리된다. 제어 데이터는 제어용 시퀀서(300)로 보내지고, 각 변환 스위치의 제어나 이동 보상의 시기의 제어에 사용된다. 화상 데이터는, 역양자화 회로(203) 이후의 회로에 공급된다.
또한, 이 단순한 평균화 보간에 사용하는 평균화 비트 스트림으로서는, 예를들면, 수직 방향의 벡터가 1 (하프펠에서 1 이기 때문에 실제는 0.5 의 벡터이다)의 마크로 블럭(즉, 소정 단위)을 만들고, 2 번째의 마크로 블럭 이후(다음의 마크로 블럭 이후)를 스킵된 마크로 블럭(전의 마크로 블럭)을 그대로 사용한다)으로 한 것을 사용할 수도 있다. 이와 같이 하는 것으로, 평균화 비트 스트림의 정보량을 저감할 수가 있다. 단, 이 경우, 벡터를 스킵된 마크로 블럭에라도 보존하기 위하여, 픽쳐 형태로서는 반드시 B 픽쳐를 사용한다. P 픽쳐의 스킵된 마크로 블럭의 경우, 이동 벡터는 "0" 이 아니면 되지 않는다고 MPEG 규격에 규정되어 있기 때문에, B 픽쳐의 스킵된 마크로 블럭을 사용하는 것으로 하고 있기 때문이다. P 픽쳐를 사용하면 동일한 (최초의) 마크로 블럭 헤더를 반복하여 사용하지 않으면 안되기 때문에, 데이터량이 많게 되기 때문이다(B 픽쳐를 사용한 때의 약 40 배)
또한, 스킵된 마크로 블럭으로서는, (전체 마크로 블럭수 -2)의 스킵된 마크로 블럭을 지정한다. MPEG 에서는, 최초와 최후의 마크로 블럭의 데이터는 비트 스트림중에 포함되지 않으면 안되기 때문이다. 또한, 최후에 벡터의 차분이 0 인 마크로 블럭을 두도록 한다. MPEG 에서는, 이동 벡터는 전의 마크로 블럭의 이동 벡터와의 차분을 보내도록 하고 있기 때문이다.
이와같은 평균화 비트 스트림을 사용하는 경우도, 상술한 것과 동일하게 MPEG 의 상기 디코더부에, 먼저 원화상 데이터(참조 데이터)를 보내고, 이것을 복원하여 프레임 메모리등에 저장한 후, 상기 평균화 비트 스트림을 상기 디코더부에 보낸다. 디코더부에서는, 평균화 비트 스트림으로부터 각종 제어 데이터와 화상 데이터(평균화 비트 스트림에서는, 0)로 분리된다. 제어 데이터는, 제어용시퀀서(300)로 보내지고, 각 변환 스위치의 제어나 이동 보상의 시기의 제어에 사용된다. 화상 데이터는, 역양자화 회로(203) 이후의 회로에 공급된다.
상기 디코더부에서는, 앞서 프레임 메모리에 저장한 복원된 원화상 데이터와, 상기 평균화 비트 스트림에서, MPEG 의 법칙에 의거한 디코드 처리가 수행되도록 된다.
또한, 상기 단순한 평균화 보간에 의하여 처리된 화상의 비트 스트림은 106 바이트 정도로 된다. 마크로 블럭, 스킵된 마크로 블럭, 벡터, 픽쳐에 대해서는 후술한다.
다음에, 상기 가중치 부여를 수행한 평균화 보간이라는 것은 예를 들면 화소 A, B, C, ... 가 있을 때, (3A+B)/4, (3B+C)/4, (3C+D)/4, ... 와 같이, 수평 혹은 수직 방향으로 가중치 부여를 수행함과 동시에 평균화하여 보간을 수행하는 것이다. 예를 들면, 수직 방향에 대해서 상기 가중치 부여를 수행하는 평균화 보간을 예로 들어서 설명하면, 제 4 도의 (a)에 나타난 바와 같이, 라인 1, 라인 2, 라인 3, ... 의 수직 방향에 서로 이웃하는 화소 A, B, C, D, ... 가 있는 때, 수직 방향으로 평균화 보간된 값은, 제 4도의 (b)에 나타난 바와 같이 (3A+B)/4, (3B+C)/4, (3C+D)/4, ... 로 된다.
여기서, MPEG1 의 비트 스트림을 이용하여 예를 들면, 상기 가중치 부여를 수행한 평균화 보간을 수행하기에는, 포워드(forward) 측에서는 상기 단순한 평균화 보간과 동일한 방법을 사용하여, (A+B)/2, (B+C)/2, (C+D)/2, ... 의 각 값을 생성한다. 또한, 백워드(backward)측에서는, 벡터를 0 으로 한 평균화 비트 스트림을 사용하여, A, B, C, ... 의 각 값을 생성한다. 그 다음, 이 포워드측과 백워드측에서 생성한 각 값은, 상기 디코더부에 의하여 각각 서로 움직여서 2 로 나누어지게 되기 때문에, 상기 디코더부에서는 제 4 도의 (b)에 나타나는 바와 같은 수직 방향으로 가중치 부여하여 평균화 보간된 화상 데이터가 얻어지도록 된다.
또한, 이 가중치 부여를 수행한 평균화 보간의 경우의 화상의 비트 스트림은 106 바이트 정도로 된다.
또한, 수평 및 수직 방향으로 평균화 보간한 경우를 제 5 도에 나타낸다.
제 5 도 (a)에 나타내는 것 같이, 라인 1, 라인 2, 라인 3, ... 의 수직 방향에 서로 이웃하는 화소 A, B, C, D, E, F, G, H 가 있는 때, 수직 및 수평 방향에 평균화 보간된 값은, 제 5 도 (b)에 나타내는 것같이, (A+B*E+F)/4, (B+C+F+G)/4, (C+D+G+H)/4, ... 로 된다.
또한, 본 발명에서는 가중치 부여를 수행하지 않는 단순한 평균화 보간의 경우의 보간치는, 1 매의 화상(예를 들면, 백워드 측의 화상)으로부터 생성된다.
또한, 상기 가중치 부여 및 3 라인에서의 평균화 보간이라는 것은, 예를들면 화소 A, B, C, ... 가 있는 때, (A+2B+C)/4, (B+2C+D)/4, (C+2D+E)/4, ... 와 같이, 평균화 하여 보간을 수행하는 것이다. 예를 들면, 제 6 도의 (a)에 나타나는 것같이, 라인 1, 라인 2, 라인 3, ... 의 수직 방향에 서로 이웃하는 화소 A, B, C, D, ... 가 있는 때, 상기 가중치 부여 및 3 라인에서 평균화 보간된 값은, 제 6 도의 (b)에 나타나는 것같이 (A+2B_C)/4, (B+2C+D)/4, (C+2D+E)/4, ... 로 된다.
여기서, MPEG1 의 비트 스트림을 이용하여 예를 들면 상기 가중치 부여 및 3라인에서의 평균화 보간을 수행하기에는, 포워드 (forward)측에서는 상기 단순한 평균화 보간과 동일한 방법을 사용하여 (A+B)/2, (B+C)/2, (C+D)/2, ... 의 각 값을 생성한다. 또한 백워드측에서는, 벡터를 3 (벡터 3 이라는 것은, 3 x 0.5 = 1.5 를 나타낸다)로 한 평균화 비트 스트림을 사용하여 (B+C)/2, (C+D)/2, (D+E)/2, ... 의 각 값을 생성한다. 그 다음, 이 포워드측과 백워드측에서 생성한 각 값은, 디코더부에 의하여 각각 서로 움직여서 2 로 나누어지게 되기 때문에, 상기 디코더부에서는 제 6 도의 (b)에 나타난 바와 같은 가중치 부여 및 3 라인에서 평균화 보간된 화상 데이터가 얻어지도록 된다.
또한, 이 가중치 부여 및 3 라인에서 평균화 보간의 경우의 화상의 비트 스트림은 106 바이트 정도로 된다.
또한, 상술한 각 평균화 보간의 처리를 조합시키는 것으로 각종의 보간이 가능하게 된다. 단, 예를 들면, MPEG 의 규격상에서는 픽셀 데이터를 서로 움직이게 하는 것은 가능하여도, 끌어당기는 것이 가능하지 않기 때문에, 서로 움직이게 하는 방향의 조합을 사용하게 된다. 또한, 실제로 플리커를 유용하게 방지할 수 있는 것은, 상기 단순한 평균화 보간과, 가중치 부여 및 3 라인의 평균화 보간이다. 또한, 가중치 부여만의 평균화 보간에서는, 3 회 정도 동일한 처리를 반복하는 것으로 강력한 플리커를 제거할 수 있다.
그런데, 상술한 설명에서는, 텔레비젼 화면에 고해상도의 화상을 표시하는 때에 플리커의 발생을 방지하는 예에 대하여 설명하고 있지만, 예를 들면, 제 7 도에 나타난 바와 같이 텔레비젼 화면을 복수의 영역에 분할하고, 이들 분할 화면에통상의 해상도의 화상을 표시하는 경우에도, 상기 MPEG 방식을 이용한 평균한 보간 방법은 플리커의 발생 방지에 유효하다.
또한, 제 7 도의 각 분할 화면에는, 예를 들면, 디스크(301)에 기록되어 있는 복수의 트랙(영상 또는 곡의 단락)중, 예를 들면, 9 트랙분의 각 트랙의 처음의 장면을 표시(디스크 다이제스트 표시)하거나, 1 트랙을 9 분할한 장면을 하나의 화면에 표시(트랙 다이제스트 표시)하거나 할 수 있다. 이들 기능에 의하면, 하나의 화면상에 표시된 복수의 정지화를 보면서, 재생하고 싶은 트랙이나 장면을 탐색할 수 있다.
이하, 이 다이제스트 표시에 대하여 설명한다.
(a) 디스크 다이제스트라는 것은, 비디오 CD 의 각 동화 트랙의 머리 부분의 인트라 픽쳐를 측소하여 예를 들면, 제 7 도와 같이 9 분할한 화면에 1 매식 붙이고, 디스크중에 어떠한 동화가 있는지를 시각적으로 인식할 수 있도록 하기 위한 기능이다.
(b) 트랙 다이제스트라는 것은, 재생중의 트랙의 총 재생 시간을 예를 들면 8 등분하고, 그 시간의 최초의 인트라 픽쳐를 축소하여 붙이는 기능이다. 이 기능에 의해, 트랙내에 어떠한 장면이 있는가 보는 경우나, 트랙의 도중으로부터 재생을 시작하는 경우에, 시간으로 선택하기 때문은 아니고, 장면에서 보기 시작하고 싶은 장소를 선택하기 때문에 편리하다.
이 다이제스트 표시를 하는 경우에도, 평균화 보간 처리를 각 표시 화면에 시행하고, 그 다음, 축소함에 의해 플리커의 발생을 억제할 수 있다.
제 8 도는, 다이제스트 표시하는 때에 사용되는 디코더를 나타내고 있다. 단, 제 8 도의 디코더는 제 1 도의 프레임 메모리의 부분의 동작을 간단하게 설명하기 위한 것이다.
여기서, 프레임 메모리(400)는 예를 들면, 4 프레임분의 용량을 가지고, 인트라 픽쳐 디코드 영역, 9 면 표시 영역, 미사용 영역으로 되어 있다. 통상의 동화 재생의 경우에는, 이 프레임 메모리를 분할 사용함에 의해, 제 1 도와 동일한 기능을 가지게 할 수 있다.
사용자가 CPU 에 대하여 다이제스트 표시의 명령을 보내면, 대상으로 되는 I 픽쳐를 복호하여 프레임 메모리(400)의 인트라 픽쳐 디코드 영역에 저장한다. 다음에, 평균화 비트 스트림(305 , 예를 들면, 제 3 도에 나타나는 스트림)을 ROM (304)이 CPU 에 의해 판독된다. 그 다음, 상술한 평균화 보간 처리가 다이제스트 표시용의 I 픽쳐에 시행되고, 재차 인트라 픽쳐 디코드 영역제 저장된다. 다음에, CPU 에 의하여, 인트라 픽쳐 디코드 영역에 저장된 화상이 추출되어(솎아내져) 소정의 크기의 화상으로 축소된다. 이 축소된 화상은, 프레임 메모리(400)의 9 면 표시 영역의 대응하는 영역에 저장되고, 디스플레이상에 순차 표시된다. 그리고 다이제스트 표시하는 다음의 대상의 I 픽쳐에 대하여 동일한 처리를 수행한다.
다음에, 상술한 MPEG 방식에 대하여 이하에 상세하게 설명한다. 상기 MPEG 방식이라는 것은 화상간의 차분을 취하는 것으로 시간축 방향의 용장도를 떨어뜨리고, 그 다음, 소위 이산 코사인 변화(DCT) 처리와 가변장 부호를 사용하여 공간축 방향의 용장도를 떨어뜨리도록 하는 칼라 동화상의 압축 부호화 방식이다. 또한,이 MPEG 방식에서는, 프레임의 화상을, 제 9 도에 나타난 바와 같이, I 픽쳐(인트라 부호화 화상, Intra-coded picture), P 픽쳐 (전방 예측 부호화 화상; Perdictive-coded picture) 또는 B 픽쳐 (양방향 예측 부호화 화상;Bidirectionally-coded picture)의 3 종류의 픽쳐의 어느 것인가의 픽쳐 형태으로 나뉘어서 각 형태마다 화상 신호를 압축 부호화한다. 또한, 이 제 9 도에 있어서, 도면중 I0 등은 I 픽쳐를, 도면중 B1, B2 등은 B 픽쳐를, 도면중 P3, P6 등은 P 픽쳐를 나타내고 있다.
이 MPEG 방식에서, I, P, B 의 각 픽쳐중, I 픽쳐에서는, I 프레임분의 화상 신호를 그대로 부호화하여 전송한다. 이것에 대하여, P 픽쳐에서는, 기본적으로 그것보다 시간적으로 선행하는 I 픽쳐 또는 P 픽쳐의 화상 신호로부터의 차분을 부호화하여 전송한다. 또한, B 픽쳐에서는, 기본적으로 그것보다 시간적으로 선행하는 I 픽쳐 또는 P 픽쳐의 화상 신호로부터의 차분을 부호화하여 전송한다. 또한, B 픽쳐에서는, 기본적으로 그것보다 시간적으로 선행하는 프레임 또는 후행하는 프레임의 양방의 평균치로부터의 차분을 구하고, 그 차분을 부호화하여 전송한다.
또한, 상기 P 픽쳐나 B 픽쳐와 같이, 차분을 전송(부호화된 차분을 전송)하는 때에는, 상기 차분을 연산하는 대상으로 되는 프레임의 화상(예측 화상)과의 사이의 이동 벡터(전방 예측의 경우의 프레임간의 이동 벡터, 후방 예측의 경우의 프레임간의 이동 벡터, 또는 전방, 후방의 양방향 예측의 경우의 양방의 이동 벡터)가 상기 차분의 데이터와 함께 전송된다.
또한 상술한 MPEG 방식이 처리하는 데이터의 구조는, 제 10 도에 나타나는것 같은 것으로 되어 있다. 즉, 이 제 10 도에 나타나는 데이터 구조는 하측으로부터 순서대로, 블록층과, 마크로 블록층과, 슬라이스층과, 픽쳐층과, 그룹 오브 픽쳐(GOP; Group of Picture)층과, 비디오 시퀀스층으로 이루어진 계층 구조로 되어 있다. 이하, 이 제 10 도에서 하층으로부터 순서대로 설명한다.
우선, 상기 블록층에서, 상기 블록층의 단위 블록은, 휘도 또는 색차의 서로 이웃한 8×8 의 화소(8 라인×8 화소의 화소)로부터 구성된다. DCT(이산 코사인 변환)은 이 단위 블록마다 걸려진다.
상기 마크로 블록층에서, 상기 마크로 블록층의 마크로 블록은 좌우 및 상하에 서로 이웃한 4 개의 휘도 블록(휘도의 단위 블록) Y0, Y1, Y2, Y3 와, 화상상에서는 상기 휘도 블록과 동일한 위치에 상기 색차 블록(색차의 단위 블록) Cr, Cb 의 전부로 6 개의 블록으로 구성된다. 이들 블록의 전송의 순서는 Y0, Y1, Y2, Y3, Cr, Cb 의 순서이다. 예측 데이터(차분을 취하는 기준의 화상 데이터에서, 전방 예측, 후방 예측, 양방향 예측 등으로 만들어진다)에 어느 것을 사용하는가, 차분을 보내지 않아도 좋은가 등은, 이 단위에서 판단된다. 부호화 블록이 모두 예측 마크로 블록과 동일한 때는, 이 마크로 블록층의 데이터를 어느 것도 보내지 않고, 이것을 스킵한다고 한다. 마크로 블록이 몇 개인가 연속으로 스킵된 때, 다음에 오는 비 마크로 블록에 그전에 스킵된 마크로 블록의 수를 갖게 하도록 한다.
상기 슬라이스층은, 화상의 주사 순서에 나란히 줄지어 있는 하나 또는 복수의 마크로 블록으로 구성된다. 슬라이스의 머리(헤더)에서는, 화상내에 있어서의 이동 벡터 및 DC(직류) 성분의 차분이 리셋되고, 또한, 최초의 마크로 블록은 화상내에서의 위치를 나타내는 데이터를 가지고 있고, 따라서 에러가 일어난 경우라도 복귀할 수 있도록 되어 있다. 이 때문에, 상기 슬라이스의 길이나 시작하는 위치는 임의로 되고, 전송로의 에러 상태에 따라서 변하게 되도록 되어있다. 또한, 슬라이스의 최초 및 최후의 마크로 블록은 비 스킵 마크로 블럭이 아니면 않된다.
상기 픽쳐층에 있어서, 픽쳐, 즉, 1 매 1 매의 화상은 적어도 하나 또는 복수의 슬라이스로부터 구성된다. 그리고, 각각의 부호화의 방식에 따라서, 상기 I 픽쳐, P 픽쳐, B 픽쳐, DC 인트라 부호화 화상(DC coded(D) picture)의 4종류의 화상으로 분류된다.
여기서, 상기 I 픽쳐에서는, 부호화되는 때에 그 화상 1 매 범위만큼 닫힌 정보만을 사용한다. 바꾸어 말하면, 복호화하는 때에 I 픽쳐 자신의 정보만으로 화상이 재구성할 수 있게 된다. 실제로는, 차분을 취하지 않고 그대로 DCT 처리하여 부호화를 수행한다. 이 부호화 방식은, 일반적으로 효율이 나쁘지만, 이것을 도처에 넣어두면, 랜덤 액세스나 고속 재생이 가능하게 된다.
상기 P 픽쳐에서는, 예측 화상(차분을 취하는 기준으로 되는 화상)으로서, 입력에서 시간적으로 전에 위치하여 이미 복호화된 I 픽쳐 또는 P 픽쳐를 사용한다. 실제로는, 이동 보상된 예측 화상과의 차이를 부호화하는 것과, 차이를 취하지 않고 그대로 부호화하는(인트라 부호) 것과 어느 것인가 효율이 좋은 쪽을 상기 마크로 블록 단위로 선택한다.
상기 B 픽쳐에서는, 예측 화상으로서 시간적으로 전에 위치하여 이미 복호화된 I 픽쳐 또는 P 픽쳐, 및 그 양방으로부터 만들어진 보간 화상의 3 종류를 사용한다. 이것에 의해, 상기 3 종류의 이동 보상 후의 차분의 부호화와 인트라 부호중에서 가장 효율이 좋은 것을 마크로 블록 단위로 선택할 수 있다.
상기 DC 인트라 부호화 화상(D 픽쳐)는, DCT 의 DC 계수만으로 구성되는 인트라 부호화 화상이고, 다른 3 종의 화상과 동일한 시퀀스로는 존재할 수 없는 것이다.
상기 그룹 오브 픽쳐(GOP)층은, 1 또는 복수매의 I 픽쳐와, 0 또는 복수 매의 비 I 픽쳐로부터 구성되어 있다. 여기서, 부호기로의 입력 순서를 예를 들면, 1I, 2B, 3B, 4P*5B, 6B, 7I, 8B, 9B, 10I, 11B, 12B, 13P, 14B, 15B, 16P*17B, 18B, 19I, 20B, 21B, 22P 와 같이 한때, 상기 부호기의 출력 즉 복호기의 입력은, 예를 들면, 1I, 4P, 22B, 3B*7I, 5B, 6B, 10I, 8B, 9B, 13P, 11B, 12B, 16P, 14B, 15B*19I, 17B, 18B, 22P, 20B, 21B 로 된다. 이와 같이 부호기중에서 순서의 교체가 되는 것은, 예를 들면, 상기 B 픽쳐를 부호화 또는 복호화하는 경우에는, 그 예측 화상으로 되는 시간적으로는 후방인 상기 I 픽쳐 또는 P 픽쳐가 먼저 부호화되어 있지 않아서는 않되기 때문이다. 여기서, 상기 I 픽쳐의 간격 및 I 픽쳐 또는 B 픽쳐의 간격은 자유이다. 또한, I 픽쳐 또는 P 픽쳐의 간격은, 상기 그룹 오브 픽쳐층이 내부에서 변하여도 좋은 것이다. 또한, 그룹 오드 픽쳐층이 틈(단락)은, 상기 * 으로 나타내고 있고, 상기 I 는 I 픽쳐, 상기 P 는 P 픽쳐, 상기 B 는 B 픽쳐를 나타내고 있다.
상기 비디오 시퀀스층은 화상 사이즈, 화상 레이트(rate)등이 동일한 1 또는 복수의 그룹 오브 픽쳐층으로부터 구성된다.
또한, 제 10 도의 구조를 가진 부호화된 비트 스트림에 대하여 보다 상세하게 설명한다.
비디오 시퀀스 층은, 비디오 시퀀스 층의 처음을 나타내는 32 비트의 동기 코드(sequence start code)와, 화상의 횡(가로)의 화소수를 나타내는 12 비트의 정보(horizontal size)와, 화상의 종(세로)의 라인수를 나타내는 12 비트의 정보(vertical size)와, 화소 간격의 가로세로 비를 나타내는 인덱스인 4 비트의 정보(pel aspect ratio)와, 화소의 표시 레이트의 인덱스인 4 비트의 정보(picture rate)와, 발생 비트량에 대한 제한을 위한 비트 레이트에 있어서 400 비트 단위에서 일단락지는 정보(bit rate)와, "1" 의 1 비트의 정보(reserved bit)와, 발생 비트량에 대한 제한을 위한 가상 버퍼의 크기를 결정하는 10 비트의 파라미터(buffer size)와, 각 파라미터가 결정된 제한 이내인 것을 나타내는 1 비트의 플래그(constrained parameter flag)와, 인트라 마크로 블록용 양자화 매트릭스 데이터의 존재를 나타내는 1 비트의 플래그(load inter qunatize matrix)와, 인트라 마크로 블록용의 양자화 매트릭스를 나타내는 8 × 64 비트의 정보(intar qunatize matrix)와 비 인트라 마크로 블록용 양자화 매트릭스 데이터의 존재를 나타내는 1 비트의 (load non intar qunatize matrix)와, 비 인트라 마크로 블록용의 양자화 매트릭스를 나타내는 8 × 64 비트의 정보(non intar qunatize matrix)와, 확장 데이터가 있는 것을 나타내는 32 비트의 동기 코드(extension start code)와, 장래의 호환을 위한 ISO 가 결정하는 8 비트 × n 의 정보(sequence extension byte)와, 사용자 데이터가 있는 것을 나타내는 32 비트의 동기 코드(user date start code)와, 사용자의 어플리케이션용의 8 비트 × n의 정보 (user date)와, 1 또는 복수의 시퀀스의 끝을 나타내는 32 비트의 동기 코드(sequence end code)로 이루어진다.
그룹 오브 픽쳐층은, GOP 의 시작을 나타내는 32 비트의 동기 코드(group start code)와, 시퀀스의 머리로부터의 시간을 나타내는 25 비트의 코드(time code)와, GOP 내의 화상이 다른 GOP 의 데이터를 사용하지 않고 재구성할 수 있는 것을 나타내는 1 비트의 플래그(closed gop)와, 선행하는 GOP 의 데이터가 편집등을 위하여 쓸 수 없다는 것을 나타내는 1 비트의 플래그(broken-link)와, 확장 데이터가 있는 것을 나타내는 32 비트의 동기 코드(extension start code)와, 장래의 호환을 위한 ISO 가 결정하는 8 비트 × n 의 정보(group extension byte)와, 사용자 데이터가 있는 것을 나타내는 32 비트의 동기 코드(user date start code)와, 사용자의 어플리케이션용의 8 비트 × n 의 정보(user data)와, 1 이상의 I 픽쳐와 0 이상의 I 픽쳐 이외의 픽쳐층의 데이터(picture layer data)로 이루어진다.
픽쳐층은 픽쳐층의 시작을 나타내는 32 비트의 동기 코드(picture start code)와, 표시 순서를 나타내는 값으로 GOP 의 머리에서 리셋되는 1024 × 10 비트의 일시적 기준(temporal reference)과, 화상의 부호화 모드(픽쳐 형태)를 나타내는 3 비트의 값(picture coding type)과, 랜덤 액세스 한때의 버퍼의 초기 상태를 나타내는 16 비트의 파라미터(buffer fullness)와, B 또는 P 픽쳐에 존재하고, 이동 벡터의 정밀도가 화소 단위인가 반분 화소인가를 나타내는 1 비트의 정보(full pel forward vector) 및 전방으로의 이동 벡터의 서치 범위를 나타내는 3 비트의 정보(forward f)와, B 픽쳐에 존재하고, 이동 벡터의 정밀도가 화소 단위인가 반분화소 단위인가를 나타내는 1 비트의 정보(full pel backward vector) 및 후방으로의 이동 벡터의 서치 범위를 나타내는 3 비트의 정보(backward f)와, 엑스트라 정보 픽쳐가 있는 것을 나타내는 1 비트 × n 의 플래그(extra bit picture)와, 장래의 응용을 위한 ISO 가 결정하는 8 비트 × n 의 정보(extra information picture)와, 상기 플래그(extra bit picture)가 없는 것을 나타내는 16 비트의 "0" 의 정보와, 확장 데이터가 있는 것을 나타내는 32 비트의 동기 코드(extra bit code)와, 장래의 호환을 위한 ISO 가 결정하는 8 비트 × n 의 정보(extra information picture)와, 사용자 데이터가 있는 것을 나타내는 32 비트의 동기 코드(extension start code)와, 사용자의 어플리케이션용의 8 비트 × n 의 정보 (picture extension data)와, 1 이상의 슬라이스층 데이터(slice layer data)로 이루어진다.
슬라이스층은, 슬라이스층의 처음을 나타내는 32 비트의 동기 코드(slice start code)와, 그 슬라이스에서 사용되는 양자화 폭을 부여하는 5 비트의 데이터(qunatize scale)와, 엑스트라 정보 픽쳐가 있는 것을 나타내는 1 비트 × n 의 플래그(extra bit scale)과, 장래의 응용을 위한 ISO 가 결정하는(extra information picture)가 없는 것을 나타내는 16 비트의 "0"의 정보와, 1 이상의 마크로 블록충의 데이터인 (macroblock layer data)로 이루어진다.
마크로 블록층은, 레이트 제어에 사용하는 11 비트의 더미 코드(macroblock stuffing)와, 스킵된 마크로 블록 33 개에 상당하는 11 비트의 코드(macroblock escape)와, 그 마크로 블럭의 전의 스킵된 마크로 블럭의 수 +1을 나타내는 가변장 부호화 화상의 좌단으로부터 마크로 블럭의 수 +1을 나타내는 1 내지 11 비트의 정보(macroblock adress increment)와, 그 마크로 블럭의 부호화 모드를 나타내는 가변장 부호에서 마크로 블럭 형태가 양자화 폭을 나타내는 값을 가지고 있는 때에 존재하는 1 내지 8 비트의 정보(macroblock type)과, 그 마크로 블럭 이후의 양자화 폭을 나타내는 5 비트의 값(qunatize scale)과, 마크로 블럭 형태의 전방 및 양방향 예측인 때 존재하고, 그 마크로 블럭의 전방 이동 벡터의 수평 성분과 전의 마크로 블럭의 벡터와의 차분을 상기 정보(forward f)에서 나타내는 가변장 부호화에 의해 부호화 것인지 1 내지 4비트의 정보(motion horizontal forward)와, 후방 이동 벡터의 수직 성분인 1 내지 14 비트의 정보(motion vertical backward)와, 그 마크로 블럭내의 6개의 블럭의 계수를 가지는가 어떤가를 나타내는 가변장 부호의 정보인 가변장 부호화에 의해 부호화된 정보(coded block pattern)와, 상기 정보(coded block pattern)에서 전송된 것이 표시된 블럭층의 데이터는 Y0, Y1, Y2, Y3, Cr, Cb 인 것을 나타내는 1 내지 6 블럭의 정보(block layer data)와 D 픽쳐인 때만 존재하고 마크로 블럭의 끝을 나타내는 1 비트의 "1"의 정보(end of macroblock)로 이루어진다.
블럭층은, 인트라 마크로 블럭인때 존재하고, 다음의 DCT, DC 차분의 비트수를 나타내는 1 내지 7 비트의 가변장 부호의 정보(dct dc ltuminace), (dct dc size chrominance)와, 그 블럭의 DC 성분의 전의 블럭의 DC 성분과의 성분의 1 내지 8 비트의 가변장 부호의 정보(dct dc differential)와, 인트라 마크로 블럭 이외인때 존재하고, DC 성분의 2 내지 28 비트의 가변장 보호의 정보(dct coef first)와, DCT 계수를 DC 성분의 다음으로부터 지그재그의 순서로 보내고, 0 으로되는 계수와 그 직전의 0 계수의 수를 조사(세트)로 한 2 내지 28 비트의 가변장 보호의 정보(dct coef next)와, 그 블럭에서 그것 이후의 계수가 모두 0 인 것을 나타내는 2 비트의 코드(end of block)로 이루어진다.
본 발명의 화상 정보 처리 장치에 있어서는, 동화 시퀀스를 구성하는 정지화를 평균화하는 평균화 정보를 저장하여 놓고, 동화 시퀀스 처리 수단에서는, 이 저장된 평균화 정보를 소정의 동화 시퀀스의 일부로서, 이 소정의 동화 시퀀스에 따른 처리를 시행함에 의해, 예를 들면 텔레비전 화면에 고해상도의 화상 정보를 표시하거나, 통상의 해상도의 화상 정보를 축소 표시하는 때라도, 고속으로 용이하게 플리커가 발생하지 않는 화상 정보를 생성하는 것이 가능하게 되어있다.
제 1 도는 본 발명 실시예의 화상 정보 처리 장치의 개략 구성을 나타내는 블럭 회로도.
제 2 도 (a) 및 제 2 도 (b) 는 본 실시예 장치에 있어서 채용되는 평균화 보간 방법중, 단순한 평균화 보간 방법에 대한 설명도.
제 3 도 (a) 및 제 3 도 (b) 는 평균화 비트 스트림의 구체예 도시도.
제 4 도 (a) 및 제 4 도 (b) 는 본 실시예 장치에 있어서 채용되는 평균화 보간 방법중, 가중치 부여(weighting)를 수행한 평균화 보간 방법에 대한 설명도.
제 5 도 (a) 및 제 5 도 (b) 는 본 실시예 장치에서 채용되는 평균화 화보간 방법중, 수평 방향 및 수직 방향으로 수행한 평균화 보간 방법에 대한 설명도.
제 6 도 (2) 및 제 6 도 (b) 는 본 실시예 장치에서 채용되는 평균화 보간 방법중, 가중치 부여 및 3 라인에서의 평균화 보간 방법에 대한 설명도.
제 7 도는 텔레비젼 화면을 복수로 분할한 예 도시도.
제 8 도는 본 발명 실시예의 화상 정보 처리 장치에 있어서, 다이제스트 표시하는 때의 개략 구성을 나타내는 블럭 회로도.
제 9 도는 MPEG 포맷에 있어서의 프레임간 상관과 픽쳐 형태의 관계를 설명하기 위한 도시도.
제 10 도는 MPEG 포맷에 있어서의 계층 구조를 설명하기 위한 도시도.
* 도면의 주요부분에 대한 부호의 설명 *
301 : 디스크 302 : CD-ROM 제어기
303 : CPU 304 : ROM
305 : 평균화 비트 스트림 저장 영역

Claims (18)

  1. 화상 처리 방법에 있어서,
    소정의 부호화 방법에 의하여 부호화되어 있는 화상 정보를 수신하는 단계와,
    상기 수신한 화상 정보에 대하여 어떠한 보간 처리를 수행하는가를 나타내는 평균화 정보를 발생시키는 단계와,
    상기 부호화 방법에 대응한 복호 방법에 의하여 상기 화상 정보를 복호하는 단계와,
    상기 복호된 화상 정보를 메모리에 저장하는 단계와,
    상기 저장된 복호 화상 정보를 판독하고, 상기 평균화 정보에 따라서 상기 복호 화상 정보에 상기 보간 처리를 시행하는 단계와,
    상기 보간 처리가 시행된 화상 정보를 표시용의 화상으로서 출력하는 단계로 이루어진 화상 처리 방법.
  2. 제 1 항에 있어서,
    상기 평균화 정보는 1 프레임분의 화상 정보를 수직 방향 및 수평 방향으로 어느 정도 옮겨서 평균화 보간 처리를 수행하는 가에 관한 벡터 정보를 포함하는 화상 처리 방법.
  3. 제 1 항에 있어서,
    상기 화상 정보는 MPEG 규격에 따른 비트 스트림으로 이루어진 화상 처리 방법.
  4. 제 3 항에 있어서,
    상기 평균화 정보는 MPEG 규격에 따른 비트 스트림으로 이루어진 화상 처리 방법.
  5. 제 4 항에 있어서,
    상기 평균화 정보는 B 픽쳐의 비트 스트림으로 이루어진 화상 처리 방법.
  6. 제 2 항에 있어서,
    상기 보간 처리를 시행하는 단계에서, 상기 복호 화상 정보는 반화소 정밀도로 처리되는 화상 처리 방법.
  7. 제 4 항에 있어서,
    상기 화상 정보를 복호하는 단계는
    상기 화상 정보 및 평균화 정보로부터 제어 데이터와 압축 데이터로 분리하는 단계와,
    상기 압축 데이터를 역양자화하고, 계수 데이터를 생성하는 단계와,
    상기 계수 데이터를 역 직교 변환하고, 잔차 화상 데이터(difference image data)를 생성하는 단계와,
    상기 잔차 화상 데이터와 참조 화상 데이터를 가산하고, 예측 화상 데이터를 생성하고, 복호 화상 정보로서 출력하는 단계로 이루어진 화상 처리 방법.
  8. 화상 처리 장치에 있어서,
    소정의 부호화 방법에 의하여 부호화되어 있는 화상 정보를 수신하는 수단과,
    상기 수신한 화상 정보에 대하여 어떠한 보간 처리를 수행하는가를 나타내는 평균화 정보를 발생시키는 수단과,
    상기 부호화 방법에 대응한 복호 방법에 의하여 상기 화상 정보를 복호하는 수단과,
    상기 복호된 화상 정보를 저장하기 위한 메모리 수단과,
    상기 메모리에 저장된 복호 화상 정보를 판독하고, 상기 평균화 정보에 따라서 상기 복호 화상 정보에 상기 보간 처리를 시행하는 보간 처리 수단과,
    상기 보간 처리가 시행된 화상 정보를 표시용의 화상으로서 출력하는, 출력 수단으로 이루어진 화상 처리 장치.
  9. 제 8 항에 있어서,
    상기 평균화 정보는 1 프레임분의 화상 정보를 수직 방향 및 수평 방향으로어느 정도 옮겨서 평균화 보간 처리를 수행하는가에 관한 벡터 정보를 포함하는 화상 처리 장치.
  10. 제 9 항에 있어서,
    상기 보간 처리 수단은 상기 복호 화상 정보를 반화소 정밀도로 보간 처리하여 예측 화상을 생성하는 화상 처리 장치.
  11. 제 9 항에 있어서,
    상기 화상 정보는 MPEG 규격에 따른 비트 스트림으로 이루어진 화상 처리 장치.
  12. 제 11 항에 있어서,
    상기 평균화 정보는 MPEG 규격에 따른 비트 스트림으로 이루어진 화상 처리 장치.
  13. 제 12 항에 있어서,
    상기 평균화 정보는 B 픽쳐의 비트 스트림으로 이루어진 화상 처리 장치.
  14. 제 13 항에 있어서,
    상기 화상 정보를 복호하는 수단은,
    상기 화상 정보 및 평균화 정보로부터 제어 데이터와 압축 데이터로 분리하는 수단과,
    상기 압축 데이터를 역양자화하고, 계수 데이터를 생성하는 수단과,
    상기 계수 데이터를 역직교 변환하고, 잔차 화상 데이터(difference image data)를 생성하는 수단과,
    상기 잔차 화상 데이터와 참조 화상 데이터를 가산하고, 예측 화상 데이터를 생성하고, 복호 화상 정보로서 출력하는 수단으로 이루어진 화상 처리 장치.
  15. 제 14 항에 있어서,
    상기 평균화 정보는,
    화상의 표시 순서를 나타내는 일시적 기준(temporal reference)과,
    대응하는 픽쳐의 픽쳐 형태가 B 픽쳐인 것을 나타내는 데이터와,
    대응하는 마크로 블럭이 인트라인가 비 인트라인가를 나타내는 마크로 블럭 형태와,
    상기 압축 데이터가 모두 0인 것을 나타내는 정보와,
    최초의 마크로 블럭에 계속하는 마크로 블럭은 스킵된 마크로 블럭인 것을 나타내는 정보로 이루어진 화상 처리 장치.
  16. 제 8 항에 있어서,
    상기 보간 처리가 시행된 화상 정보에 대하여 추출(솎아내기) 처리를 시행하여 축소 화상을 생성하는 수단으로 이루어지고,
    상기 출력 수단은 상기 축소 화상을 표시용의 화상으로서 출력하는 화상 처리 장치.
  17. 제 16 항에 있어서,
    상기 메모리 수단은 소정수의 축소 화상을 저장하기 위한 표시 영역을 가지고,
    상기 출력 수단은 상기 축소 화상이 저장되는 때에 저장되어 있는 모든 축소 화상을 표시용의 화상으로서 출력하는 화상 처리 장치.
  18. 화상 처리 장치에 있어서,
    디스크형태의 기록 매체로부터 판독된 MPEG 규격에 따라서 부호화되어 있는 1 프레임분의 정지화 정보를 수신하는 수단과,
    MPEG 규격에 의하여 정해진 B 픽쳐의 비트 스트림으로 이루어진 정보에서, 상기 수신한 1 프레임분의 정지화 정보를 수직 방향 및 수평 방향으로 어느 정도 옮겨서 평균화 보간 처리를 수행하는가에 관한 벡터 정보를 포함하는 평균화 정보를 저장하고 있는 ROM과,
    상기 평균화 정보를 미리 정해진 프레임 수만큼 상기 ROM으로부터 판독하는 수단과,
    상기 정지화상 정보 및 평균화 정보로부터 제어 데이터와 압축 데이터로 분리하는 수단과,
    상기 압축 데이터를 역양자화하고, 계수 데이터를 생성하는 수단과,
    상기 계수 데이터를 역직교 변환하고, 잔차 화상 데이터(difference image data)를 생성하는 수단과,
    상기 잔차 화상 데이터와 참조 화상 데이터를 가산하고, 예측 화상 데이터를 생성하고, 복호 화상 정보로서 출력하는 수단과,
    상기 복호 화상 정보를 저장하기 위한 메모리 수단과,
    상기 메모리에 저장된 복호 화상 정보를 판독하고, 상기 평균화 정보에 따라서 상기 복호 화상 정보에 반화소 정밀도로 상기 보간 처리를 시행하는 수단과,
    상기 보간 처리가 시행된 화상 정보를 표시용의 화상으로서 출력하는 출력 수단으로 이루어진 화상 처리 장치.
KR1019950020104A 1994-07-05 1995-07-05 화상정보처리방법및그장치 KR100350335B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15397994 1994-07-05
JP94-153979 1994-07-05

Publications (2)

Publication Number Publication Date
KR960006645A KR960006645A (ko) 1996-02-23
KR100350335B1 true KR100350335B1 (ko) 2002-12-26

Family

ID=15574264

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019950020104A KR100350335B1 (ko) 1994-07-05 1995-07-05 화상정보처리방법및그장치

Country Status (3)

Country Link
US (1) US5796438A (ko)
KR (1) KR100350335B1 (ko)
CN (2) CN1087556C (ko)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959676A (en) * 1995-12-27 1999-09-28 Sony Corporation Video signal encoding method, video signal encoding apparatus, video signal transmitting method, and recording medium
JP3263807B2 (ja) * 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
JPH10224794A (ja) * 1997-02-10 1998-08-21 Kokusai Denshin Denwa Co Ltd <Kdd> 動画像符号化データの階層化方法および装置
WO1998041012A1 (en) * 1997-03-12 1998-09-17 Matsushita Electric Industrial Co., Ltd. Mpeg decoder providing multiple standard output signals
JP3849246B2 (ja) * 1997-09-22 2006-11-22 ソニー株式会社 光ディスク及び光ディスク装置
US6999511B1 (en) * 1999-02-23 2006-02-14 International Business Machines Corporation Dynamically switching quant matrix tables within an MPEG-2 encoder
US7589789B2 (en) 1999-05-08 2009-09-15 Lg Electronics Inc. Video converting device and method for digital TV
US6445832B1 (en) 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
KR100421017B1 (ko) * 2001-10-18 2004-03-04 삼성전자주식회사 잔상 현상 제거 장치 및 방법
WO2003053066A1 (en) * 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7280700B2 (en) * 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US7609763B2 (en) 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US7606308B2 (en) * 2003-09-07 2009-10-20 Microsoft Corporation Signaling macroblock mode information for macroblocks of interlaced forward-predicted fields
US7092576B2 (en) * 2003-09-07 2006-08-15 Microsoft Corporation Bitplane coding for macroblock field/frame coding type information
US7599438B2 (en) 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
WO2005076630A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. 復号化装置、符号化装置、補間フレーム生成システム、集積回路装置、復号化プログラムおよび符号化プログラム
KR100718837B1 (ko) * 2004-12-30 2007-05-16 삼성전자주식회사 반구형 실리콘을 갖는 캐패시터의 제조 방법 및 이를이용한 반도체 장치의 제조 방법
US9077960B2 (en) 2005-08-12 2015-07-07 Microsoft Corporation Non-zero coefficient block pattern coding
US7983335B2 (en) * 2005-11-02 2011-07-19 Broadcom Corporation AVC I—PCM data handling and inverse transform in a video decoder
JP4643437B2 (ja) * 2005-12-27 2011-03-02 株式会社東芝 情報処理装置
JP4643453B2 (ja) * 2006-01-10 2011-03-02 株式会社東芝 情報処理装置及び情報処理装置の動画像復号方法
JP4730183B2 (ja) * 2006-04-17 2011-07-20 株式会社日立製作所 映像表示装置
WO2008062687A1 (en) * 2006-11-24 2008-05-29 Nec Corporation Coding and decoding device, coding and decoding method and program
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
US7860996B2 (en) 2008-05-30 2010-12-28 Microsoft Corporation Media streaming with seamless ad insertion
WO2010017166A2 (en) 2008-08-04 2010-02-11 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
WO2011088430A2 (en) * 2010-01-17 2011-07-21 Chatsworth Products, Inc. Horizontal cable manager
CN101888545B (zh) * 2010-05-27 2013-01-02 北京华信新媒技术有限公司 一种低码率信源压缩编码方法
DE102012202315A1 (de) * 2012-02-16 2013-08-22 Robert Bosch Gmbh Videosystem zur Darstellung von Bilddaten, Verfahren und Computerprogramm
US8988763B2 (en) * 2013-05-08 2015-03-24 Microsoft Technology Licensing, Llc Predictive electrophoretic display
JP6714078B2 (ja) * 2016-05-10 2020-06-24 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992012495A1 (en) * 1990-12-31 1992-07-23 E.I. Du Pont De Nemours And Company Method of resizing an image, designing a filter therefor, and mapping the output image to the input image
JPH05137131A (ja) * 1991-11-13 1993-06-01 Sony Corp フレーム間動き予測方法
US5461420A (en) * 1992-09-18 1995-10-24 Sony Corporation Apparatus for coding and decoding a digital video signal derived from a motion picture film source
KR960010469B1 (ko) * 1992-10-07 1996-08-01 대우전자 주식회사 Pip 기능을 갖는 디지탈방식 고선명 텔레비젼
GB2301726B (en) * 1992-11-10 1997-05-14 Sony Uk Ltd Motion compensated video signal processing
TW224553B (en) * 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
US5515388A (en) * 1993-03-19 1996-05-07 Sony Corporation Apparatus and method for preventing repetitive random errors in transform coefficients representing a motion picture signal
US5329365A (en) * 1993-07-07 1994-07-12 Rca Thomson Licensing Corporation Method and apparatus for providing compressed non-interlaced scanned video signal
US5469223A (en) * 1993-10-13 1995-11-21 Auravision Corporation Shared line buffer architecture for a video processing circuit
US5400077A (en) * 1993-10-29 1995-03-21 Time Warner Entertainment Co., L.P. System for generating multiple aspect ratio video signals from motion picture disk recorded in a single aspect ratio

Also Published As

Publication number Publication date
KR960006645A (ko) 1996-02-23
US5796438A (en) 1998-08-18
CN1118553A (zh) 1996-03-13
CN1087556C (zh) 2002-07-10
CN1395421A (zh) 2003-02-05

Similar Documents

Publication Publication Date Title
KR100350335B1 (ko) 화상정보처리방법및그장치
US5694173A (en) Video data arranging method and video data encoding/decoding apparatus
KR19990072968A (ko) 화상신호처리시스템,디코더,화상신호처리방법,및디코딩방법
KR100233764B1 (ko) 비디오 신호 코더
KR100260475B1 (ko) 화상 데이타 부호화 방법 및 장치, 화상 데이타 복호화 방법 및 장치 및 화상 기록 매체
JP3147792B2 (ja) 高速再生のためのビデオデータの復号化方法及びその装置
US5991445A (en) Image processing apparatus
JP3168922B2 (ja) デジタル画像情報の記録再生装置
JPH0937243A (ja) 動画像符号化装置及び復号装置
JPH0879703A (ja) 画像情報処理方法及び装置
JP3233232B2 (ja) 動画像復号化方法および装置
JPH06339111A (ja) 圧縮動画像再生装置
JP3240737B2 (ja) 画像信号符号化方法、装置、復号化方法及び装置
JP3449370B2 (ja) 画像データ復号化方法及び装置
JP3197868B2 (ja) 画像符号化方法、イントラ符号化制御方法及びデータ記録媒体
JP3506504B2 (ja) ディジタル映像信号記録再生装置
JPH0630332A (ja) 動画像の符号化及び復号化装置
JPH0993537A (ja) ディジタル映像信号記録再生装置及びディジタル映像信号符号化方法
JP3147636B2 (ja) ビデオデータ配列方法並びにその符号化装置及び復号化装置
JPH0898142A (ja) 画像再生装置
JP3624435B2 (ja) 情報再生装置及び方法
JP3481112B2 (ja) 動画像復号化装置
JP3496926B2 (ja) 画像データ復号化方法
JP3506507B2 (ja) ディジタル映像信号記録再生装置およびディジタル映像信号再生装置
JP3384740B2 (ja) 動画像復号化方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee