KR20010101937A - 기록 장치 및 방법 - Google Patents

기록 장치 및 방법 Download PDF

Info

Publication number
KR20010101937A
KR20010101937A KR1020017009749A KR20017009749A KR20010101937A KR 20010101937 A KR20010101937 A KR 20010101937A KR 1020017009749 A KR1020017009749 A KR 1020017009749A KR 20017009749 A KR20017009749 A KR 20017009749A KR 20010101937 A KR20010101937 A KR 20010101937A
Authority
KR
South Korea
Prior art keywords
header
data
recording
frame
bit stream
Prior art date
Application number
KR1020017009749A
Other languages
English (en)
Other versions
KR100681992B1 (ko
Inventor
하루오 도가시
아끼라 스기야마
신 도도
히데유끼 마쯔모또
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010101937A publication Critical patent/KR20010101937A/ko
Application granted granted Critical
Publication of KR100681992B1 publication Critical patent/KR100681992B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/88Signal drop-out compensation
    • H04N9/888Signal drop-out compensation for signals recorded by pulse code modulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

RAM에는 입력 중의 시퀀스층의 헤더가 기입된다. ROM에는 사전에 전형적인 헤더의 정보가 기억되어 있다. 셀렉터의 선택 동작은 검출부의 출력에 의해 제어된다. 셀렉터는 입력 중에 시퀀스층의 헤더가 존재하고 있는 경우에, 그 헤더를 프레임마다 부가한 스트림을 출력 스트림으로서 선택한다. 헤더가 존재하지 않는 경우에는, RAM 또는 ROM에 기억되어 있는 헤더를 스트림의 각 프레임에 대하여 부가하고, 프레임마다 헤더가 부가된 스트림을 출력한다. 이 경우, RAM에 기억되어 있는 헤더를 ROM에 기억되어 있는 헤더에 대하여 우선하여 부가한다. 셀렉터로부터의 출력 스트림은 각 프레임에 대하여 반드시 헤더가 부가된 것이다.

Description

기록 장치 및 방법{RECORDING APPARATUS AND METHOD}
디지털 VTR(Video Tape Recorder)에 대표되는 바와 같이, 디지털 비디오 신호 및 디지털 오디오 신호를 기록 매체에 기록하고, 기록 매체로부터 재생하는 데이터 기록 재생 장치가 알려져 있다. 디지털 비디오 신호는 데이터 용량이 방대해지기 때문에, 소정의 방식으로 압축 부호화되어 기록 매체에 기록되는 것이 일반적이다. 최근에는, MPEG2(Moving Picture Experts Group phase 2) 방식이 압축 부호화의 표준 방식으로서 알려져 있다.
상술의 MPEG2를 비롯한 화상 압축 기술에서는, 가변 길이 부호를 이용하여 데이터의 압축율을 높이고 있다. 따라서, 압축하려고 하는 화상의 복잡함에 따라 1 화면분, 예를 들면 1 프레임 혹은 1 필드당 압축 후의 부호량이 변동된다.
한편, 자기 테이프나 디스크 기록 매체의 기록 매체에 비디오 신호를 기록하는 기록 장치, 특히 VTR에서는, 1 프레임이나 1 필드가 고정 길이화의 단위가 된다. 즉, 1 프레임이나 1 필드당 부호량을 일정치 이하로 제한시켜, 기억 매체의일정 용량의 영역에 기록한다.
VTR에 고정 길이화 방식이 채용되는 이유는, 기록 매체인 자기 테이프 상에서의 기록 영역이 1 프레임 단위로 구성되어 있으며, 이 기록 영역에 1 프레임분의 기록 데이터가 과부족 없이 들어갈 필요가 있기 때문이다. 또한, 기록 시간에 비례하여 기록 매체가 소비되기 때문에, 기록 총량이나 잔량을 정확하게 구할 수 있어, 고속 검색에 의한 프로그램 개시 위치 검출 처리도 용이하게 행할 수 있다는 이점이 있다. 또한, 기록 매체의 제어 관점으로부터는, 예를 들면 기록 매체가 자기 테이프이면, 고정 길이화 방식으로 데이터를 기록하고 역학적으로 구동되는 자기 테이프를 등속도로 유지하여 주행시킴으로써 안정화를 도모할 수 있다는 이점을 갖는다. 이들 이점은 디스크 기록 매체에서도 마찬가지로 적용시킬 수 있다.
가변 길이 부호화 방식과 고정 길이화 방식에서는, 상술된 바와 같이, 상반된 성질을 갖는다. 최근에는, 비디오 신호를 비압축 베이스 대역 신호로 입력하고, 내부에서 MPEG2나 JPEG(Joint Photographic Experts Group)라는 가변 길이 부호에 의해 압축 부호화를 실시하여 기록 매체에 기록하는 기록 장치가 출현되고 있다. 또, 가변 길이 부호를 이용하여 압축 부호화된 스트림을 직접적으로 입출력 및 기록/재생하는 기록 재생 장치도 제안되고 있다. 또, 이하에서는 디지털 비디오 신호의 압축 부호화 방식을 MPEG2라 하여 설명한다.
여기서, MPEG2의 데이터 스트림 구조에 대하여 개략적으로 설명한다. MPEG2는 움직임 보상 예측 부호화와 DCT에 의한 압축 부호화를 조합한 것이다. MPEG2의 데이터 구조는 계층 구조를 이루고 있으며, 하위로부터 블록층, 매크로 블록층, 슬라이스층, 픽쳐층, GOP(Group Of Picture)층 및 시퀀스층으로 이루어져 있다.
블록층은 DCT를 행하는 단위인 DCT 블록으로 이루어진다. 매크로 블록층은 복수의 DCT 블록으로 구성된다. 슬라이스층은 헤더부와 1 이상의 매크로 블록으로 구성된다. 픽쳐층은 헤더부와 1 이상의 슬라이스로 구성된다. 픽쳐는 1 화면에 대응한다. GOP층은 헤더부, I 픽쳐(Intra-coded picture: 인트라 부호화 화상), P 픽쳐(Predictive-coded picture: 순방향 예측 부호화 화상), 및 B 픽쳐(Bidirectionally predictive-coded picture: 양방향 예측 부호화 화상)로 구성된다.
I 픽쳐는 부호화될 때 그 화상 하나에 대한 정보만을 사용하는 것이다. 따라서, 복호 시에는 I 픽쳐 자신의 정보만으로 복호할 수 있다. P 픽쳐는 예측 화상(차분을 취하는 기준이 되는 화상)으로서, 시간적으로 이전의 이미 복호된 I 픽쳐 또는 P 픽쳐를 사용하는 것이다. 움직임 보상된 예측 화상과의 차를 부호화하거나, 차분을 취하지 않고 부호화하거나, 또는 효율이 좋은 쪽을 매크로 블록 단위로 선택한다. B 픽쳐는 예측 화상(차분을 취하는 기준이 되는 화상)으로서, 시간적으로 이전의 이미 복호된 I 픽쳐 또는 P 픽쳐, 시간적으로 이후의 이미 복호된 I 픽쳐 또는 P 픽쳐 및 이 양쪽으로부터 만들어진 보간 화상의 3종류를 사용한다. 이 3종류의 각각의 움직임 보상 후의 차분의 부호화와 인트라 부호화 중에서, 가장 효율이 좋은 것을 매크로 블록 단위로 선택한다.
따라서, 매크로 블록 타입으로는 프레임 내 부호화(Intra) 매크로 블록과, 과거부터 미래를 예측하는 순방향(Forward) 프레임 간 예측 매크로 블록과, 미래로부터 과거를 예측하는 역방향(Backward) 프레임 간 예측 매크로 블록과, 전후 양방향으로부터 예측하는 양방향 매크로 블록이 있다. I 픽쳐 내의 모든 매크로 블록은 프레임 내 부호화 매크로 블록이다. 또한, P 픽쳐 내에는 프레임 내 부호화 매크로 블록과 순방향 프레임 간 예측 매크로 블록이 포함된다. B 픽쳐 내에는 상술한 4종류의 모든 타입의 매크로 블록이 포함된다.
매크로 블록은, 복수의 DCT 블록의 집합이며, 화면(픽쳐)을 16 화소 ×16 라인의 격자형으로 분할한 것이다. 슬라이스는, 예를 들면 이 매크로 블록을 수평 방향으로 연결하여 이루어지는 것이다. 화면 사이즈가 결정되면 1 화면당 매크로 블록 수는 일의(一意)로 결정된다.
MPEG의 포맷에서는 슬라이스가 하나의 가변 길이 부호 계열이다. 가변 길이 부호 계열이란, 가변 길이 부호를 복호화하지 않으면 데이터의 경계를 검출할 수 없는 계열이다. MPEG 스트림의 복호 시에는 슬라이스의 헤더부를 검출하여 가변 길이 부호의 시점과 종점을 찾아내기 시작한다.
MPEG에서는 1 슬라이스를 1 스트라이프(16 라인)로 구성하는 것이 보통이며, 화면의 좌단으로부터 가변 길이 부호화가 시작하여 우단에서 끝난다. 따라서, VTR에 의해 MPEG 스트림이 그대로 기록된 기록 매체를 고속 재생했을 때, 재생할 수 있는 부분이 화면의 좌단에 집중되므로 균일하게 갱신할 수 있다. 또한, 데이터의 테이프 상의 배치를 예측할 수 없기 때문에, 테이프 패턴을 일정한 간격으로 트레이스한 것으로는 균일한 화면 갱신을 할 수 없게 된다. 또한, 1개소에서라도 에러가 발생되면 화면 우단까지 영향을 주게 되어 다음 슬라이스 헤더가 검출될 때까지복귀할 수 없다. 바람직하게는, 1 슬라이스를 1 매크로 블록으로 구성함으로써 이러한 문제점을 회피할 수 있다.
한편, 비디오 신호는 회전하는 헤드로 비스듬하게 트랙을 형성함으로써 헬리컬(helical) 트랙 방식에 의해 자기 테이프 상에 기록된다. 1 트랙에 있어서, 싱크 블록을 기록의 최소 단위로 하고, 싱크 블록이 데이터의 종류마다 그룹화되어 섹터가 형성된다. 또한, 1 프레임분의 기록 데이터가 기록되는 기록 영역이 소정의 것으로 된다. 예를 들면, 8 트랙을 이용하여 1 프레임의 기록 데이터가 기록된다.
또한, 디지털 VTR에서는 편집 처리가 행해지는 것이 보통이다. 편집 처리는 되도록이면 미세한 단위로 행해지는 것이 바람직하다. MPEG2의 스트림을 기록하고 있는 경우에는, 편집 단위로서 GOP 단위가 고려된다. GOP 단위로서 전후의 다른 GOP의 화상을 사용하지 않고 복조할 수 있는 클로즈된 GOP의 구성으로 함으로써, GOP 단위의 편집 처리가 가능하다. 그러나, GOP가 예를 들면 15 프레임으로 구성되어 있는 경우에는 편집 단위가 지나치게 크다는 문제가 있다.
그리고, MPEG에서는 랜덤 액세스를 가능하게 하기 위해, 복수장의 픽쳐 그룹인 GOP(Group Of Picture) 구조가 규정되어 있다. GOP에 관한 MPEG의 규칙으로는, 첫째, 비트 스트림 상에서, GOP의 최초가 I 픽쳐인 것, 둘째, 원화상의 순으로 GOP의 최후가 I 또는 P 픽쳐인 것이 규정되어 있다. 또한, GOP로서, 이전의 GOP의 최후의 I 또는 P 픽쳐로부터의 예측을 필요로 하는 구조도 허용되어 있다. 이전의 GOP의 화상을 사용하지 않고 복호할 수 있는 GOP는 클로즈된 GOP라 불리운다.
MPEG에서는, GOP 단위의 프레임 상관을 이용하여 코딩을 행하고 있기 때문에, MPEG 비트 스트림을 편집할 때는 제약이 발생된다. 즉, GOP의 단부(end)과 편집점을 일치시켜 클로즈된 GOP이면 특별히 문제가 발생되지 않는다. 그러나, 통상, 하나의 GOP 길이는 0.5초 정도의 것이 많아, 편집점으로서의 기간이 지나치게 길어진다. 그래서, 일반적으로는 프레임(픽쳐) 단위의 정밀도로 편집을 행하는 것이 바람직하다.
그러나, MPEG 스트림이 복호 시에 이전 또는 전후의 화상을 필요로 하는 예측 화상이 포함되어 있으면 프레임 단위의 편집이 불가능해진다. 그래서, 바람직하게는 모든 화상을 프레임 내 부호화(인트라 프레임)로 부호화하여, 1 GOP를 하나의 인트라 픽쳐로 구성한다. 이와 같이 규정한 스트림도, MPEG2의 부호화의 문법(신택스)을 충족시키고 있다.
또한, 시퀀스층, GOP층, 픽쳐층, 슬라이스층 및 매크로 블록층의 선두에는 각각 소정의 비트 패턴으로 이루어지는 식별 코드가 배치되고, 식별 코드에 이어서 각층의 부호화 파라미터가 저장되는 헤더부가 배치된다. MPEG2의 복호화를 행하는 MPEG 디코더에서는 패턴 매칭에 의해 식별 코드를 추출하여 계층을 판별하고, 헤더부에 저장된 파라미터 정보에 기초하여 MPEG 스트림 복호화를 행한다. 픽쳐층보다 하위 층의 헤더는 각 프레임마다 필요한 정보이기 때문에 반드시 각 프레임마다 부가하는 규칙으로 되어 있다. 한편, 시퀀스층의 헤더는 시퀀스 및 GOP에 1회 부가하면 되고 각 프레임에 부가할 필요는 없다.
여기서, 시퀀스층의 헤더에 대하여 주목한다. 시퀀스층의 헤더에 포함되는정보로서, 화소 수, 비트 레이트, 프로파일, 레벨, 색차 포맷, 프로그레시브 시퀀스 등이 지정된다. 이들 정보는, 예를 들면 비디오 테이프 하나를 1 시퀀스라고 간주했을 때 통상 동일한 값이 지정되고, 비디오 테이프의 선두에 시퀀스층의 헤더를 부가한다면 MPEG 부호화 문법 상에서는 문제가 없다. 또한, 양자화 매트릭스는 MPEG의 부호화 문법 상, 시퀀스층 이외의 헤더(시퀀스층의 헤더 또는 픽쳐층의 헤더)에 존재하는 경우도 있다. MPEG의 부호화 문법에 따르면, 양자화 매트릭스를 부가할 수도 있고 생략할 수도 있다.
이와 같이 1 프레임의 정밀도로 편집을 행하는 것이 가능해진다. 그러나, 편집 후의 테이프는 편집 전의 테이프와 비교하여 각 프레임 간에서 시간적 관계가 반전될 가능성이 있다. 도 25는, 이 문제점을 개략적으로 나타내는 것이다. 도 25의 (a)는 편집 전의 스트림의 시간적 관계를 나타낸다. 프레임 4 및 프레임 5 각각의 픽쳐 데이터에 대하여 픽쳐 헤더가 부가되어 있지만, 시퀀스층의 헤더 및 GOP층의 헤더는 부가되어 있지 않다. 그러나, 이전 프레임 3에 부가되어 있는 시퀀스층의 헤더 및 GOP층의 헤더 정보를 사용함으로써, 이들 픽쳐 데이터를 복호할 수 있다.
편집 처리에 의해 프레임 간의 시간적 관계가 반전되고, 예를 들면, 도 25의 (b)에 도시한 바와 같이, 프레임 3 이전에 있는 프레임 1 및 프레임 2의 시간적 위치에 프레임 4 및 프레임 5의 시간적 위치에 있던 픽쳐 데이터가 존재하게 되는 일이 발생된다. 이 예로부터 알 수 있는 바와 같이, 편집 후에는 비디오 테이프의 선두에 시퀀스층의 헤더가 나타나지 않는 경우가 생기거나, 또는 비디오 테이프의 어디에도 시퀀스층의 헤더가 존재하지 않는 경우가 발생된다. 이와 같이, 편집되기 전의 테이프가 MPEG의 부호화 문법을 충족하고 있더라도, 편집된 후의 테이프가 MPEG의 부호화 문법을 충족시킬 수 없게 되는 문제가 생긴다. MPEG의 부호화 문법을 충족하고 있지 않으면, MPEG 복호가 불가능하게 되는 사태가 초래된다. 또, GOP층의 헤더는 상술한 바와 같이, 1 GOP를 하나의 I 픽쳐로 구성하고 있으므로, GOP층의 헤더가 얻어지지 않더라도 문제가 없다. 또한, 테이프의 선두에만 시퀀스층의 헤더가 기록되어 있는 경우에는, 테이프의 선두 이외의 임의의 위치로부터 재생을 행할 때, 시퀀스층의 헤더를 취득할 수 없다는 문제가 있다. 또한, 역전 재생하는 경우라도, 편집 처리와 마찬가지로, 시간 관계의 반전이 생긴다. 또한, 고속 재생, 슬로우 재생 등의 특수 재생 시에는 테이프 상에 기록되어 있는 모든 데이터를 재생할 수 없기 때문에, 시퀀스층의 헤더를 얻을 수도 있다.
또한, 양자화 매트릭스는, MPEG의 부호화 문법에서 시퀀스층 이외의 헤더에 존재하기도 하지만, 각 프레임에 반드시 존재하는 것으로 규정되어 있지 않다. 따라서, 양자화 매트릭스도 시퀀스층의 헤더와 마찬가지로, 프레임 단위의 편집 이후에는, MPEG 복호에 앞서 얻어지지 않는 사태가 발생되는 문제가 있어, 임의의 테이프 상의 위치로부터 재생을 행할 때 또는 특수 재생 시에 시퀀스층의 헤더를 취득할 수 없게 될 수 있다는 문제가 있다.
따라서, 본 발명의 목적은 프레임 단위의 편집을 가능하게 하고, 또한, 임의의 위치로부터의 통상 재생을 행할 때, 또는 역전 재생 등의 특수 재생 시에 재생 비트 스트림이 부호화 문법을 충족하는 것을 보증할 수 있는 기록 장치 및 방법을제공하는 것이다.
본 발명은 가변 길이 부호를 이용하여 압축 부호화된 디지털 비디오 신호를 소정의 고정 길이화(等長化) 단위로 기록 매체에 기록하는 기록 장치 및 방법에 관한 것이다.
도 1은 일반적인 MPEG2 스트림의 계층 구조를 개략적으로 나타내는 개략선도.
도 2는 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 3은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 4는 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 5는 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 6은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 7은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 8은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 9는 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 10은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 11은 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 12는 MPEG2의 스트림 중에 배치되는 데이터의 내용과 비트 할당을 나타내는 개략선도.
도 13A 및 도 13B는 데이터의 바이트 단위의 정렬을 설명하기 위한 도면.
도 14는 본 발명의 일 실시예에 있어서의 MPEG 스트림의 데이터 구성을 나타내는 개략선도.
도 15는 본 발명의 일 실시예에 따른 기록 재생 장치의 구성의 일례를 나타내는 블록도.
도 16은 자기 테이프 상에 형성되는 트랙 포맷의 일례를 나타내는 개략선도.
도 17A 및 도 17B는 비디오 인코더의 출력 방법과 가변 길이 부호화를 설명하기 위한 개략선도.
도 18A 및 도 18B는 비디오 인코더의 출력의 순서의 재배열을 설명하기 위한 개략선도.
도 19A 및 도 19B는 순서가 재배열된 데이터를 싱크 블록에 패킹하는 처리를 설명하기 위한 개략선도.
도 20A 내지 도 20D는 패킹 처리를 보다 구체적으로 나타내는 개략선도.
도 21은 ECC 인코더의 보다 구체적인 구성을 나타내는 블록도.
도 22는 메인 메모리의 어드레스 구성의 일례를 나타내는 개략선도.
도 23은 본 발명의 일 실시예에 있어서 시퀀스층 헤더의 보간부에 대한 블록도.
도 24는 보간 처리를 설명하기 위한 순서도.
도 25는 본 발명의 해결하고자 하는 과제를 설명하기 위한 개략선도.
청구항 1의 발명은, 상술한 과제를 해결하기 위해, 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고 비트 스트림을 기록 매체에 기록하는 기록 장치에 있어서, 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 부호화 수단과, 각 프레임의 비트 스트림에 대하여 최상위 계층의 헤더를 부가하는 수단과, 최상위 계층의 헤더가 부가된 비트 스트림을 기록 매체 상에 기록하는 수단을 포함하는 것을 특징으로 하는 기록 장치이다.
청구항 5의 발명은, 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고 비트 스트림을 기록 매체에 기록하는 기록 장치에 있어서, 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 부호화 수단과, 각 프레임의 비트 스트림에 대하여 양자화 매트릭스를 부가하는 수단과, 양자화 매트릭스가 부가된 비트 스트림을 기록 매체 상에 기록하는 수단을 포함하는 것을 특징으로 하는 기록 장치이다.
청구항 9의 발명은, 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고 비트 스트림을 기록 매체에 기록하는 기록 방법에 있어서, 디지털 비디오 신호의 모두를 프레임 내 부호화에 따라 압축하고, 각 프레임의 비트 스트림에 대하여 최상위 계층의 헤더를 부가하며, 최상위 계층의 헤더가 부가된 비트 스트림을 기록 매체 상에 기록하는 것을 특징으로 하는 기록 방법이다.
청구항 10의 발명은, 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고 비트 스트림을 기록 매체에 기록하는 기록 방법에 있어서, 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하고, 각 프레임의 비트 스트림에 대하여 양자화 매트릭스를 부가하여 양자화 매트릭스가 부가된 비트 스트림을 기록 매체 상에 기록하는 것을 특징으로 하는 기록 방법이다.
본 발명은, 모든 프레임의 데이터를 프레임 내 부호화에 따라 부호화함으로써, 프레임 단위의 편집을 가능하게 한다. 그리고, 기록 매체 상에 기록할 때는, 각 프레임에 대하여 시퀀스층의 헤더, 양자화 매트릭스를 각각 부가한다. 그것에 의해 편집 후의 데이터, 역전 재생 등의 특수 재생에 의한 재생 데이터가 부호화 문법을 충족시키지 않게 되는 것을 방지할 수 있다.
이하, 본 발명을 디지털 VTR에 대하여 적용한 일 실시예에 대하여 설명한다. 이러한 일 실시예는 방송국의 환경에서 사용하기에 적합한 것이다.
이러한 일 실시예에서는, 압축 방식으로서, 예를 들면 MPEG2 방식이 채용된다. MPEG2는 움직임 보상 예측 부호화와 DCT에 의한 압축 부호화를 조합한 것이다. MPEG2의 데이터 구조는 계층 구조를 이루고 있다. 도 1은 일반적인 MPEG2의 비트 스트림의 계층 구조를 개략적으로 나타낸다. 도 1에 도시된 바와 같이, 데이터 구조는 하위로부터, 매크로 블록층(도 1의 (e)), 슬라이스층(도 1의 (d)), 픽쳐층(도 1의 (c)), GOP층(도 1의 (b)) 및 시퀀스층(도 1의 (a))으로 되어 있다.
도 1의 (e)에 도시된 바와 같이, 매크로 블록층은 DCT를 행하는 단위인 DCT 블록으로 이루어진다. 매크로 블록층은 매크로 블록 헤더와 복수의 DCT 블록으로 구성된다. 슬라이스층은 도 1의 (d)에 도시된 바와 같이, 슬라이스 헤더부와 1 이상의 매크로 블록으로 구성된다. 픽쳐층은 도 1의 (c)에 도시된 바와 같이, 픽쳐 헤더부와 1 이상의 슬라이스로 구성된다. 픽쳐는 1 화면에 대응한다. GOP층은 도 1의 (b)에 도시된 바와 같이, GOP 헤더부와, 프레임 내 부호화에 기초한 픽쳐인 I 픽쳐와, 예측 부호화에 기초한 픽쳐인 P 및 B 픽쳐로 구성된다.
MPEG 부호화 문법에서, GOP에는 최저 1장의 I 픽쳐가 포함되고 P 및 B 픽쳐는 존재하지 않아도 허용된다. 최상층의 시퀀스층은 도 1의 (a)에 도시된 바와 같이, 시퀀스 헤더부와 복수의 GOP로 구성된다. MPEG의 포맷에서는 슬라이스가 하나의 가변 길이 부호 계열이다. 가변 길이 부호 계열이란, 가변 길이 부호를 정확하게 복호화하지 않으면 데이터의 경계를 검출할 수 없는 계열이다.
또한, 시퀀스층, GOP층, 픽쳐층 및 슬라이스층의 선두에는, 각각, 바이트 단위로 정렬된 소정의 비트 패턴을 갖는 스타트 코드가 배치된다. 이, 각층의 선두에 배치되는 스타트 코드를 시퀀스층에서는 시퀀스 헤더 코드, 다른 계층에서는 스타트 코드라 칭하고, 비트 패턴이〔00 00 01 xx〕(16진 표기)로 된다. 2자릿수씩 나타내지고, 〔xx〕는 각층의 각각에서 다른 비트 패턴이 배치되는 것을 나타낸다.
즉, 스타트 코드 및 시퀀스 헤더 코드는 4바이트(=32비트)로 이루어지고, 4 바이트째 값에 기초하여 후에 그 다음의 정보의 종류를 식별할 수 있다. 이들 스타트 코드 및 시퀀스 헤더 코드는 바이트 단위로 정렬되어 있기 때문에, 4바이트의 패턴 매칭을 행하는 것만으로도 포착할 수 있다.
또한, 스타트 코드에 그 다음의 1바이트의 상위 4비트가 후술하는 확장 데이터 영역의 내용의 식별자로 되어 있다. 이 식별자의 값에 의해 그 확장 데이터의 내용을 판별할 수 있다.
또, 매크로 블록층 및 매크로 블록 내의 DCT 블록에는, 이러한 바이트 단위로 정렬된 소정의 비트 패턴을 갖는 식별 코드는 배치되지 않는다.
각층의 헤더부에 대하여 보다 상세히 설명한다. 도 1의 (a)에 도시한 시퀀스층에서는, 선두에 시퀀스 헤더(2)가 배치되고, 이어서 시퀀스 확장(3), 확장 및 사용자 데이터(4)가 배치된다. 시퀀스 헤더(2)의 선두에는 시퀀스 헤더 코드(1)가 배치된다. 또한, 도시하지 않지만, 시퀀스 확장(3) 및 사용자 데이터(4)의 선두에도 각각 소정의 스타트 코드가 배치된다. 시퀀스 헤더(2)로 이루어지는 확장 및 사용자 데이터(4)까지가 시퀀스층의 헤더부로 된다.
시퀀스 헤더(2)에는 도 2에 내용과 할당 비트가 도시된 바와 같이, 시퀀스 헤더 코드(1), 수평 방향 화소 수 및 수직 방향 라인 수로 이루어지는 부호화 화상 사이즈, 어스펙트비, 프레임 레이트, 비트 레이트, VBV(Video Buffering Verifier)버퍼 사이즈, 양자화 매트릭스 등, 시퀀스 단위로 설정되는 정보가 각각 소정의 비트 수를 할당되어 저장된다.
시퀀스 헤더에 그 다음의 확장 스타트 코드 후의 시퀀스 확장(3)에서는, 도 3에 도시된 바와 같이, MPEG2에서 이용되는 프로파일, 레벨, 색차 포맷, 프로그레시브 시퀀스 등의 부가 데이터가 지정된다. 확장 및 사용자 데이터(4)는, 도 4에 도시된 바와 같이, 시퀀스 표시 ( )에 의해 원 신호의 RGB 변환 특성이나 표시화 사이즈의 정보를 저장 가능함과 함께, 시퀀스 스케일러블 확장 ( )에 의해 스케일러블리티 모드나 스케일러블리티 층 지정 등을 행할 수 있다.
시퀀스층의 헤더부에 이어서 GOP가 배치된다. GOP의 선두에는, 도 1의 (b)에 도시된 바와 같이, GOP 헤더(6) 및 사용자 데이터(7)가 배치된다. GOP 헤더(6) 및 사용자 데이터(7)가 GOP의 헤더부로 된다. GOP 헤더(6)에는 도 5에 도시된 바와 같이, GOP의 스타트 코드(5), 타임 코드, GOP의 독립성이나 정당성을 나타내는 플래그가 각각 소정의 비트 수를 할당되어 저장된다. 사용자 데이터(7)는, 도 6에 도시된 바와 같이, 확장 데이터 및 사용자 데이터를 포함한다. 도시하지 않지만, 확장 데이터 및 사용자 데이터의 선두에는 각각 소정의 스타트 코드가 배치된다.
GOP층의 헤더부에 이어서 픽쳐가 배치된다. 픽쳐의 선두에는, 도 1의 (c)에 도시된 바와 같이, 픽쳐 헤더(9), 픽쳐 부호화 확장(10) 및 확장 및 사용자 데이터(11)가 배치된다. 픽쳐 헤더(9)의 선두에는 픽쳐 스타트 코드(8)가 배치된다. 또한, 픽쳐 부호화 확장(10) 및 확장 및 사용자 데이터(11)의 선두에는 각각 소정의 스타트 코드가 배치된다. 픽쳐 헤더(9)로부터 확장 및 사용자 데이터(11)까지가 픽쳐의 헤더부로 된다.
픽쳐 헤더(9)는 도 7에 도시된 바와 같이, 픽쳐 스타트 코드(8)가 배치됨과 함께, 화면에 관한 부호화 조건이 설정된다. 픽쳐 부호화 확장(10)에서는, 도 8에 도시된 바와 같이, 전후 방향 및 수평/수직 방향의 이동 벡터의 범위 지정이나, 픽쳐 구조의 지정이 이루어진다. 또한, 픽쳐 부호화 확장(10)에서는, 인트라 매크로 블록의 DC 계수 정밀도의 설정, VLC 타입의 선택, 선형/비선형 양자화 스케일의 선택, DCT에서의 스캔 방법의 선택 등이 행해진다.
확장 및 사용자 데이터(11)에서는, 도 9에 도시된 바와 같이, 양자화 매트릭스의 설정이나, 공간 스케일러블 파라미터의 설정 등이 행해진다. 이들 설정은 픽쳐마다 가능하며, 각 화면의 특성에 따른 부호화를 행할 수 있다. 또한, 확장 및 사용자 데이터(11)에서는 픽쳐의 표시 영역의 설정을 행하는 것이 가능하게 되어 있다. 또한, 확장 및 사용자 데이터(11)에서는 저작권 정보를 설정할 수도 있다.
픽쳐층의 헤더부에 이어서 슬라이스가 배치된다. 슬라이스의 선두에는, 도 1의 (d)에 도시된 바와 같이, 슬라이스 헤더(13)가 배치되고, 슬라이스 헤드(13)의 선두에는 슬라이스 스타트 코드(12)가 배치된다. 도 10에 도시된 바와 같이, 슬라이스 스타트 코드(12)는 슬라이스의 수직 방향의 위치 정보를 포함한다. 슬라이스 헤더(13)에는, 또한, 확장된 슬라이스 수직 위치 정보나, 양자화 스케일 정보 등이 저장된다.
슬라이스층의 헤더부에 이어서 매크로 블록이 배치된다(도 1의 (e)). 매크로 블록에서는 매크로 블록 헤더(14)에 이어서 복수의 DCT 블록이 배치된다. 상술한 바와 같이, 매크로 블록 헤더(14)에는 스타트 코드가 배치되지 않는다. 도 11에 도시된 바와 같이, 매크로 블록 헤더(14)는 매크로 블록의 상대적인 위치 정보가 저장됨과 함께 움직임 보상 모드의 설정, DCT 부호화에 관한 상세한 설정 등을 지시한다.
매크로 블록 헤더(14)에 이어서 DCT 블록이 배치된다. DCT 블록은, 도 12에 도시한 바와 같이, 가변 길이 부호화된 DCT 계수 및 DCT 계수에 관한 데이터가 저장된다.
또, 도 1에서, 각층에서의 실선의 단락은 데이터가 바이트 단위로 정렬되어 있는 것을 나타내며, 점선의 단락은 데이터가 바이트 단위로 정렬되어 있지 않은 것을 나타낸다. 즉, 픽쳐층까지는, 도 13A에 일례가 도시된 바와 같이, 부호의 경계가 바이트 단위로 구획되고 있는 데 반하여, 슬라이스층에서는, 슬라이스 스타트 코드(12)만이 바이트 단위로 구획되어 있으며, 각 매크로 블록은, 도 13B에 일례가 도시된 바와 같이, 비트 단위로 구획할 수 있다. 마찬가지로, 매크로 블록층에서는 각 DCT 블록을 비트 단위로 구획할 수 있다.
한편, 복호 및 부호화에 의한 신호의 열화를 회피하기 위해서는 부호화 데이터 상에서 편집하는 것이 바람직하다. 이 때, P 픽쳐 및 B 픽쳐는 복호를 위해, 시간적으로 이전 픽쳐 혹은 전후 픽쳐를 필요로 한다. 그 때문에, 편집 단위를 1 프레임 단위로 할 수 없다. 이 점을 고려하여, 이러한 일 실시예에서는 하나의 GOP가 1장의 I 픽쳐로 이루어지도록 하고 있다.
또한, 예를 들면 1 프레임분의 기록 데이터가 기록되는 기록 영역이 소정의것으로 된다. MPEG2에서는 가변 길이 부호화를 이용하고 있기 때문에, 1 프레임 기간에 발생하는 데이터를 소정의 기록 영역에 기록할 수 있도록, 1프레임분의 발생 데이터량이 제어된다. 또한, 이러한 일 실시예에서는 자기 테이프에의 기록에 적합하도록 1 슬라이스를 1 매크로 블록으로 구성함과 함께 1 매크로 블록을 소정 길이의 고정된 길이 프레임에 패킹시킨다.
도 14는, 이러한 일 실시예에 있어서의 MPEG 스트림의 헤더를 구체적으로 나타낸다. 도 1로 알 수 있는 바와 같이, 시퀀스층, GOP층, 픽쳐층, 슬라이스층 및 매크로 블록층의 각각의 헤더부는 시퀀스층의 선두로부터 연속적으로 나타난다. 도 14는 시퀀스 헤더 부분으로부터 연속한 데이터 배열의 일례를 나타내고 있다.
선두로부터 12 바이트분의 길이를 갖는 시퀀스 헤더(2)가 배치되고, 이어서, 10바이트분의 길이를 갖는 시퀀스 확장(3)이 배치된다. 시퀀스 확장(3)의 다음에는 확장 및 사용자 데이터(4)가 배치된다. 확장 및 사용자 데이터(4)의 선두에는 4바이트분의 사용자 데이터 스타트 코드가 배치되고, 그 다음의 사용자 데이터 영역에는 SMPTE의 규격에 기초한 정보가 저장된다.
시퀀스층의 헤더부의 다음은 GOP층의 헤더부가 된다. 8바이트분의 길이를 갖는 GOP 헤더(6)가 배치되고, 이어서 확장 및 사용자 데이터(7)가 배치된다. 확장 및 사용자 데이터(7)의 선두에는 4바이트분의 사용자 데이터 스타트 코드가 배치되고, 그 다음의 사용자 데이터 영역에는 기존의 다른 비디오 포맷과의 호환성을 취하기 위한 정보가 저장된다.
GOP층의 헤더부의 다음은 픽쳐층의 헤더부가 된다. 9바이트의 길이를 갖는픽쳐 헤더(9)가 배치되고, 이어서 9바이트의 길이를 갖는 픽쳐 부호화 확장(10)이 배치된다. 픽쳐 부호화 확장(10)의 후에, 확장 및 사용자 데이터(11)가 배치된다. 확장 및 사용자 데이터(11)의 선두측(133) 바이트에 확장 및 사용자 데이터가 저장되고, 이어서 4 바이트의 길이를 갖는 사용자 데이터 스타트 코드가 배치된다. 사용자 데이터 스타트 코드에 이어서 기존의 다른 비디오 포맷과의 호환성을 취하기 위한 정보가 저장된다. 또한, 사용자 데이터 스타트 코드가 배치되고, 사용자 데이터 스타트 코드에 이어서 SMPTE의 규격에 기초한 데이터가 저장된다. 픽쳐층의 헤더부의 다음은 슬라이스가 된다.
매크로 블록에 대하여 더욱 상세히 설명한다. 슬라이스층에 포함되는 매크로 블록은 복수의 DCT 블록의 집합이며, DCT 블록의 부호화 계열은 양자화된 DCT 계수의 계열을 제로 계수의 연속 횟수(runs)와 그 직후의 넌-제로 계열(levels)을 하나의 단위로서 가변 길이 부호화한 것이다. 매크로 블록 및 매크로 블록 내의 DCT 블록에는 바이트 단위로 정렬한 식별 코드가 부가되지 않는다.
매크로 블록은 화면(픽쳐)을 16 화소 ×16 라인의 격자형으로 분할한 것이다. 슬라이스는, 예를 들면 이 매크로 블록을 수평 방향으로 연결하여 이루어진다. 연속하는 슬라이스의 이전 슬라이스의 최후의 매크로 블록과 다음의 슬라이스의 선두 매크로 블록과는 연속하고 있으며, 슬라이스 사이에서의 매크로 블록의 오버랩을 형성하는 것은 허용되어 있지 않다. 또한, 화면 사이즈가 결정되면, 1 화면당 매크로 블록 수는 일의로 결정된다.
화면 상에서의 수직 방향 및 수평 방향의 매크로 블록 수를 각각 mb_height및 mb_width라 칭한다. 화면 상에서의 매크로 블록의 좌표는, 매크로 블록의 수직 위치 번호를, 상단을 기준으로 0으로부터 세어 mb_row와, 매크로 블록의 수평 위치 번호를, 좌단을 기준으로 0으로부터 세어 mb_column으로 나타내도록 정해져 있다. 화면 상에서의 매크로 블록의 위치를 하나의 변수로 나타내기 위해, macroblock_ address를, macroblock_address=mb_row×mb_width+mb_column 와 같이 정의한다.
스트림 상에서의 슬라이스와 매크로 블록의 순은, macroblock_address가 작은 순이 아니면 안된다고 정해져 있다. 즉, 스트림은 화면의 상부로부터 하부, 좌측으로부터 우측의 순으로 전송된다.
MPEG에서는, 1 슬라이스를 1 스트라이프(16 라인)로 구성하는 것이 보통이고, 화면의 좌단으로부터 가변 길이 부호화가 시작하여 우단에서 끝난다. 따라서, VTR에 의해 그대로 MPEG 엘리먼트리 스트림을 기록한 경우, 고속 재생 시에는 재생할 수 있는 부분이 화면의 좌단에 집중되어 균일하게 갱신할 수 없다. 또한, 데이터의 테이프 상의 배치를 예측할 수 없기 때문에, 테이프 패턴을 일정한 간격으로 트레이스하였다면 균일한 화면 갱신을 할 수 없게 된다. 또한, 1개소에서도 에러가 발생되면, 화면 우단까지 영향을 미쳐, 다음의 슬라이스 헤더가 검출될 때까지 복귀할 수 없다. 이 때문에, 1 슬라이스를 1 매크로 블록으로 구성하도록 하고 있다.
도 15는, 이러한 일 실시예에 따른 기록 재생 장치의 기록측의 구성의 일례를 나타낸다. 기록 시에는, 단자(100)로부터 입력된 디지털 신호가 SDI(Serial Data Interface) 수신부(101)로 공급된다. SDI는 (4:2:2) 컴포넌트 비디오 신호와디지털 오디오 신호와 부가적 데이터를 전송하기 때문에, SMPTE에 의해 규정된 인터페이스이다. SDI 수신부(101)에서, 입력된 디지털 신호로부터 디지털 비디오 신호와 디지털 오디오 신호가 각각 추출되어 디지털 비디오 신호가 MPEG 인코더(102)에 공급되고, 디지털 오디오 신호는 딜레이(103)를 통해 ECC 인코더(109)에 공급된다. 딜레이(103)는 디지털 오디오 신호와 디지털 비디오 신호의 시간 차를 해소하기 위한 것이다.
또한, SDI 수신부(101)에서는 입력된 디지털 신호로부터 동기 신호를 추출하고 추출된 동기 신호를 타이밍 제너레이터(104)에 공급한다. 타이밍 제너레이터(104)에는 단자(105)로부터 외부 동기 신호를 입력할 수도 있다. 타이밍 제너레이터(104)에서는, 입력된 이들 동기 신호 및 후술하는 SDTI 수신부(108)로부터 공급되는 동기 신호 중, 지정된 신호에 기초하여 타이밍 펄스를 생성한다. 생성된 타이밍 펄스는 이 기록 재생 장치의 각부에 공급된다.
입력 비디오 신호는 MPEG 인코더(102)에서 DCT(Discrete Cosine Transform) 처리되어 계수 데이터로 변환되고, 계수 데이터가 가변 길이 부호화된다. MPEG 인코더(102)로부터의 가변 길이 부호화(VLC) 데이터는 MPEG2에 준거한 엘리먼트리 스트림(ES)이다. 이 출력은 기록측의 멀티 포맷 컨버터(106: 이하, MFC라 함)의 한쪽 입력단에 공급된다.
한편, 입력 단자(107)를 통해, SDTI(Serial Data Transport Interface) 포맷 데이터가 입력된다. 신호는 SDTI 수신부(108)에서 동기 검출된다. 그리고, 상기 신호가 버퍼에 버퍼링되고, 그 다음에 그로부터 엘리먼트리 스트림이 추출된다.추출된 엘리먼트리 스트림은 기록측 MFC(106)의 다른 쪽 입력단에 공급된다. 동기 검출되어 얻어진 동기 신호는 상술한 타이밍 제너레이터(104)에 공급된다.
일 실시예에서는, 예를 들면 MPEG ES(MPEG 엘리먼트리 스트림)를 전송하기 위해, SDTI(Serial Data Transport Interface) - CP(Content Package)가 사용된다. 이 ES는, 4:2:2의 컴포넌트이며, 또한, 상술한 바와 같이, 전부 I 픽쳐의 스트림이고, 1 GOP = 1 픽쳐의 관계를 갖는다. SDTI - CP의 포맷에서는 MPEG ES가 액세스 유닛으로 분리되고, 또한, 프레임 단위의 패킷으로 패킹되어 있다. SDTI - CP에서는 충분한 전송 대역(클럭 레이트로 27㎒ 또는 36㎒, 스트림 비트 레이트로 270Mbps 또는 360Mbps)을 사용하고 있으며, 1 프레임 기간에 버스트적으로 ES를 보내는 것이 가능하다.
즉, 1 프레임 기간의 SAV 이후 영역에서 EAV까지 사이에, 시스템 데이터, 비디오 스트림, 오디오 스트림, AUX 데이터가 배치된다. 1 프레임 기간 전체에 데이터가 존재하지 않고, 그 선두로부터 소정 기간 버스트형으로 데이터가 존재한다. 프레임의 경계에서 SDTI - CP의 스트림(비디오 및 오디오)을 스트림 상태에서 스위칭할 수 있다. SDTI - CP는 클럭 기준으로서 SMPTE 타임 코드를 사용한 콘텐츠의 경우에, 오디오, 비디오 사이의 동기를 확립하는 기구를 갖는다. 또한, SDTI - CP와 SDI가 공존 가능하도록 포맷이 정해져 있다.
상술한 SDTI - CP를 사용한 인터페이스는 TS(Transport Stream)를 전송하는 경우와 같이, 인코더 및 디코더가 VBV(Video Buffer Verifier) 버퍼 및TBS(Transport Buffers)를 통할 필요가 없어 딜레이를 적게 할 수 있다. 또한, SDTI - CP 자체가 매우 고속의 전송이 가능한 것도 딜레이를 한층 적게 한다. 따라서, 방송국 전체를 관리하는 동기가 존재하는 환경에서는 SDTI - CP를 사용하는 것이 유효하다.
또, SDTI 수신부(108)에서는, 또한, 입력된 SDTI - CP의 스트림으로부터 디지털 오디오 신호를 추출한다. 추출된 디지털 오디오 신호는 ECC 인코더(109)에 공급된다.
기록측 MFC(106)는 셀렉터 및 스트림 컨버터를 내장한다. 기록측 MFC(106)는, 예를 들면 1개의 집적 회로 내에 구성된다. 기록측 MFC(106)에서 행해지는 처리에 대하여 설명한다. 상술한 MPEG 인코더(102) 및 SDTI 수신부(108)로부터 공급된 MPEG ES는 셀렉터로 어느 한쪽이 선택되고, 기록측 MFC(106)에서 처리된다.
기록측 MFC(106)는 MPEG2의 규정에 기초하여 DCT 블록마다 배열되어 있는 DCT 계수를 1 매크로 블록을 구성하는 복수의 DCT 블록을 통해 주파수 성분마다 통합하고, 통합된 주파수 성분을 재배열한다. 또한, 엘리먼트리 스트림의 1 슬라이스가 1 스트라이프인 경우에는, 1 슬라이스를 1 매크로 블록으로 이루어지게 된다. 또한, 1 매크로 블록에서 발생되는 가변 길이 데이터의 최대 길이를 소정 길이로 제한한다. 이것은, 고차의 DCT 계수를 0으로 할 수 있다. 또한, 기록측 MFC(106)는, 후술하는 바와 같이, MPEG 비트 스트림의 각 픽쳐에 대하여 시퀀스층의 헤더 및 양자화 매트릭스의 보간 처리를 행한다. 기록측 MFC(106)에서 재배열된 변환엘리먼트리 스트림은 ECC 인코더(109)에 공급된다.
ECC 인코더(109)에는 대용량의 메인 메모리가 접속되고(도시하지 않음), 패킹 및 셔플링부, 오디오용 외부호 인코더, 비디오용 외부호 인코더, 내부호 인코더, 오디오용 셔플링부 및 비디오용 셔플링부 등이 내장된다. 또한, ECC 인코더(109)는 싱크 블록 단위로 ID를 부가하는 회로나 동기 신호를 부가하는 회로를 포함한다. ECC 인코더(109)는 예를 들면 1개의 집적 회로에서 구성된다.
또, 일 실시예에서, 비디오 데이터 및 오디오 데이터에 대한 에러 정정 부호로서 적산 부호(product code)가 사용된다. 적산 부호는 비디오 데이터 또는 오디오 데이터의 2차원 배열의 세로 방향으로 외부호의 부호화를 행하고, 그 가로 방향으로 내부호의 부호화를 행하며, 데이터 심볼을 2중으로 부호화하는 것이다. 외부호 및 내부호로서는 리드 솔로몬 코드(Reed-Solomon code)를 사용할 수 있다.
ECC 인코더(109)에서의 처리에 대하여 설명한다. 엘리먼트리 스트림의 비디오 데이터는 가변 길이 부호화되어 있기 때문에 각 매크로 블록의 데이터의 길이가 가변적이다. 패킹 및 셔플링부에서는 매크로 블록이 고정된 길이 프레임에 패킹된다. 이 때, 고정된 길이 프레임으로부터 초과된 오버 플로우 부분은 고정된 길이 프레임의 사이즈에 대하여 비어 있는 영역에 순서대로 패킹된다.
또한, 화상 포맷, 셔플링 패턴의 버전 등의 정보를 갖는 시스템 데이터가 후술하는 시스템 컨트롤러(121)로부터 공급되고, 도시되지 않은 입력단으로부터 입력된다. 시스템 데이터는 패킹 및 셔플링부에 공급되고, 픽쳐 데이터와 마찬가지로 기록 처리된다. 시스템 데이터는 비디오 AUX로서 기록된다. 또한, 주사순으로 발생되는 1 프레임의 매크로 블록을 재배열하여, 테이프 상의 매크로 블록의 기록 위치를 분산시키는 셔플링이 행해진다. 셔플링에 의해, 변속 재생 시에 단편적으로 데이터가 재생될 때라도 화상의 갱신율을 향상시킬 수 있다.
패킹 및 셔플링부로부터의 비디오 데이터 및 시스템 데이터(이하, 특별히 필요한 경우를 제외하고, 시스템 데이터를 포함하는 경우에도 단순히 비디오 데이터라 함)는 비디오 데이터에 대하여 외 부호화의 부호화를 행하는 비디오용 외부호 인코더에 공급되고 외부호 패리티가 부가된다. 외부호 인코더의 출력은 비디오용 셔플링부에서 복수의 ECC 블록에 걸쳐 싱크 블록 단위로 순서를 교체하는 셔플링이 이루어진다. 싱크 블록 단위의 셔플링에 의해 특정한 ECC 블록에 에러가 집중되는 것이 방지된다. 셔플링부에서 이루어지는 셔플링을 인터리브라 하는 경우도 있다. 비디오용 셔플링부의 출력은 메인 메모리에 기입된다.
한편, 상술한 바와 같이, SDTI 수신부(108) 혹은 딜레이(103)로부터 출력된 디지털 오디오 신호가 ECC 인코더(109)에 공급된다. 이러한 일 실시예에서는 비압축의 디지털 오디오 신호가 취급된다. 디지털 오디오 신호는 이들에 한정하지 않고, 오디오 인터페이스를 통해 입력되도록 할 수도 있다. 또한, 도시되지 않은 입력 단자로부터 오디오 AUX가 공급된다. 오디오 AUX는 보조적 데이터이며, 오디오 데이터의 샘플링 주파수 등의 오디오 데이터에 관련된 정보를 갖는 데이터이다. 오디오 AUX는 오디오 데이터에 부가되고, 오디오 데이터와 동등하게 취급된다.
오디오 AUX가 부가된 오디오 데이터(이하, 특별히 필요한 경우를 제외하고, AUX를 포함하는 경우에도 단순히 오디오 데이터라 함)는 오디오 데이터에 대하여외부호의 부호화를 행하는 오디오용 외부호 인코더에 공급된다. 오디오용 외부호 인코더의 출력이 오디오용 셔플링부에 공급되고 셔플링 처리된다. 오디오 셔플링으로서, 싱크 블록 단위의 셔플링과 채널 단위의 셔플링이 이루어진다.
오디오용 셔플링부의 출력은 메인 메모리에 기입된다. 상술한 바와 같이, 메인 메모리에는 비디오용 셔플링부의 출력도 기입되어 있으며, 메인 메모리에서 오디오 데이터와 비디오 데이터가 혼합되고 1 채널의 데이터로 된다.
메인 메모리로부터 데이터가 판독되고, 싱크 블록 번호를 나타내는 정보 등을 갖는 ID가 부가되어 내부호 인코더에 공급된다. 내부호 인코더에서는 공급된 데이터에 대하여 내부호의 부호화를 실시한다. 내부호 인코더의 출력에 대하여 싱크 블록마다의 동기 신호가 부가되어, 싱크 블록이 연속하는 기록 데이터가 구성된다.
ECC 인코더(109)로부터 출력된 기록 데이터는 기록 증폭기 등을 포함하는 이퀄라이저(110)에 공급되고, 기록 RF 신호로 변환된다. 기록 RF 신호는 회전 헤드가 소정 설치된 회전 드럼(111)에 공급되고, 자기 테이프(112) 상에 기록된다. 회전 드럼(111)에는, 실제로, 인접된 트랙을 형성하는 헤드의 아지머스가 서로 다른 복수의 자기 헤드가 부착되어 있다.
기록 데이터에 대하여 필요에 따라 스크램블 처리를 행하여도 좋다. 또한, 기록 시에 디지털 변조를 행하여도 좋고, 파셜 리스펀스 클래스(4)와 비터비 부호를 사용하여도 좋다. 또, 이퀄라이저(110)는 기록측의 구성과 재생측의 구성을 함께 포함한다.
도 16은, 예를 들면, 프레임 주파수가 29.97㎑이고, 720화소(유효 수평 화소 수) ×480라인(유효 라인수)의 사이즈를 갖고, 인터레이스의 비디오 신호와, 4 채널의 PCM 오디오 신호를 회전 헤드에 의해 자기 테이프 상에 기록하는 경우의 트랙 포맷을 나타낸다. 이 예에서는, 1 프레임당 비디오 및 오디오 데이터가 4 트랙에 기록되어 있다. 상호 다른 아지머스의 2 트랙이 1조로 된다. 트랙의 각각에 있어서, 대략 중앙부에 오디오 데이터의 기록 영역(오디오 섹터)이 설치되고, 오디오 섹터를 끼워 양측에 비디오 데이터가 기록되는 비디오 기록 영역(비디오 섹터)이 설치된다.
이 예에는, 4 채널의 오디오 데이터를 취급할 수 있도록 되어 있다. A1∼A4는 각각 오디오 데이터의 1∼4 채널을 나타낸다. 상호 다른 아지머스의 2 트랙으로 이루어지는 1조를 단위로 하여 배열을 바꿔 기록된다. 또한, 비디오 데이터는, 이 예에서, 1 트랙에 대하여 4 에러 정정 블록분의 데이터가 인터리브되고, Upper Side의 및 Lower Side의 섹터로 분할되어 기록된다.
Lower Side의 비디오 섹터에는 소정 위치에 시스템 영역(SYS)이 설치된다. 시스템 영역은, 예를 들면, Lower Side의 비디오 섹터의 선두측과 말미에 가까운 측으로, 트랙마다 교대로 설치된다.
또, 도 16에 있어서, SAT는 서보 로크용의 신호가 기록되는 영역이다. 또한, 각 기록 영역의 사이에는 소정의 크기의 갭이 설치된다.
도 16은 1 프레임당 데이터를 8 트랙에 기록하는 예이지만, 기록 재생하는 데이터의 포맷에 따라서는, 1 프레임당 데이터를 4 트랙, 6 트랙 등으로 기록하도록 할 수도 있다.
도 16의 (b)에 도시된 바와 같이, 테이프 상에 기록되는 데이터는, 싱크 블록이라 불리우는 등간격으로 구획된 복수의 블록으로 이루어진다. 도 16의 (c)는싱크 블록의 구성을 개략적으로 나타낸다. 싱크 블록은 동기 검출하기 위한 SYNC 패턴, 싱크 블록의 각각을 식별하기 위한 ID, 후속하는 데이터의 내용을 나타내는 DID, 데이터 패킷 및 에러 정정용의 내부호 패리티로 구성된다. 데이터는, 싱크 블록 단위로 패킷으로서 취급된다. 즉, 기록 혹은 재생되는 데이터 단위의 최소의 것이 1싱크 블록이다. 싱크 블록이 다수 배열되어(도 16의 (b)), 예를 들면 비디오 섹터가 형성된다.
도 15의 설명으로 되돌아가, 재생 시에는, 자기 테이프(112)로부터 회전 드럼(111)에서 재생된 재생 신호가 재생 증폭기 등을 포함하는 이퀄라이저(110)의 재생측의 구성에 공급된다. 이퀄라이저(110)에서는 재생 신호에 대하여 등화나 파형 정형 등이 이루어진다. 또한, 디지털 변조의 복조, 비터비 복호 등이 필요에 따라 이루어진다. 이퀄라이저(110)의 출력은 ECC 디코더(113)에 공급된다.
ECC 디코더(113)는 상술한 ECC 인코더(109)와 반대의 처리를 행하는 것으로, 대용량의 메인 메모리와, 내부호 디코더, 오디오용 및 비디오용 각각의 디셔플링부 및 외부호 디코더를 포함한다. 또한, ECC 디코더(113)는 비디오용으로서, 디셔플링 및 디패킹부, 데이터 보간부를 포함한다. 마찬가지로, 오디오용으로서, 오디오 AUX 분리부와 데이터 보간부를 포함한다. ECC 디코더(113)는, 예를 들면 1개의 집적 회로에서 구성된다.
ECC 디코더(113)에서의 처리에 대하여 설명한다. ECC 디코더(113)에서는, 우선, 동기 검출을 행하여 싱크 블록의 선두에 부가되어 있는 동기 신호를 검출하고, 싱크 블록을 추출한다. 재생 데이터는, 싱크 블록마다 내부호 인코더에 공급되고, 내부호의 에러 정정이 이루어진다. 내부호 인코더의 출력에 대하여 ID 보간 처리가 이루어지며, 내부호에 의해 에러로 된 싱크 블록의 ID, 예를 들면 싱크 블록 번호가 보간된다. ID가 보간된 재생 데이터는 비디오 데이터와 오디오 데이터로 분리된다.
상술한 바와 같이, 비디오 데이터는 MPEG의 인트라 부호화로 발생된 DCT 계수 데이터 및 시스템 데이터를 의미하며, 오디오 데이터는 PCM(Pulse Code Modulation) 데이터 및 오디오 AUX를 의미한다.
분리된 오디오 데이터는 오디오용 디셔플링부에 공급되고, 기록측의 셔플링부에서 이루어진 셔플링과 역 처리를 행한다. 디셔플링부의 출력이 오디오용의 외부호 디코더에 공급되고, 외부호에 의한 에러 정정이 이루어진다. 오디오용의 외부호 디코더로부터는 에러 정정된 오디오 데이터가 출력된다. 정정할 수 없는 에러가 있는 데이터에 대해서는 에러 플래그가 설정된다.
오디오용의 외부호 디코더의 출력으로부터, 오디오 AUX 분리부에서 오디오 AUX가 분리되고, 분리된 오디오 AUX가 ECC 디코더(113)로부터 출력된다(경로는 생략함). 오디오 AUX는, 예를 들면 후술하는 시스템 컨트롤러(121)에 공급된다. 또한, 오디오 데이터는 데이터 보간부에 공급된다. 데이터 보간부에 의해 에러가 있는 샘플이 보간된다. 보간 방법으로는, 시간적으로 전후의 올바른 데이터의 평균치로 보간하는 평균치 보간, 이전의 올바른 샘플 값을 홀드하기 이전의 값 홀드 등을 사용할 수 있다.
데이터 보간부의 출력이 ECC 디코더(113)로부터의 오디오 데이터의 출력으로서, ECC 디코더(113)로부터 출력된 오디오 데이터는 딜레이(117) 및 SDTI 출력부 (115)에 공급된다. 딜레이(117)는 후술하는 MPEG 디코더(116)에서의 비디오 데이터의 처리에 의한 지연을 흡수하기 위해 설치된다. 딜레이(117)에 공급된 오디오 데이터는 소정의 지연이 제공되어, SDI 출력부(118)에 공급된다.
분리된 비디오 데이터는 디셔플링부에 공급되고, 기록측의 셔플링과 역 처리가 이루어진다. 디셔플링부는 기록측의 셔플링부에서 이루어진 싱크 블록 단위의 셔플링을 기초로 복귀하는 처리를 행한다. 디셔플링부의 출력이 외부호 디코더에 공급되고, 외부호에 의한 에러 정정이 이루어진다. 정정할 수 없는 에러가 발생된 경우에는 에러의 유무를 나타내는 에러 플래그가 에러 있음을 나타내게 된다.
외부호 디코더의 출력이 디셔플링 및 디패킹부에 공급된다. 디셔플링 및 디패킹부는 기록측의 패킹 및 셔플링부에서 이루어진 매크로 블록 단위의 셔플링을 기초로 복귀하는 처리를 행한다. 또한, 디셔플링 및 디패킹부에서는, 기록 시에 실시된 패킹을 분해한다. 즉, 매크로 블록 단위로 데이터의 길이를 복귀하여, 원래의 가변 길이 부호를 복원한다. 또한, 디셔플링 및 디패킹부에서, 시스템 데이터가 분리되고, ECC 디코더(113)로부터 출력되어, 후술하는 시스템 컨트롤러(121)에 공급된다.
디셔플링 및 디패킹부의 출력은, 데이터 보간부에 공급되고, 에러 플래그가설정되어 있는 (즉, 에러가 있는) 데이터가 수정된다. 즉, 변환 전에, 매크로 블록 데이터의 도중에 에러가 있다고 된 경우에는, 에러 개소 이후의 주파수 성분의 DCT 계수를 복원할 수 없다. 그래서, 예를 들면 에러 개소의 데이터를 블록 종단 부호(EOB)로 치환하여, 그 이후의 주파수 성분의 DCT 계수를 제로로 한다. 마찬가지로, 고속 재생 시에도, 싱크 블록 길이에 대응하는 길이까지의 DCT 계수만을 복원하고, 그 이후의 계수는 제로 데이터로 치환된다. 또한, 데이터 보간부에서는, 비디오 데이터의 선두에 부가되어 있는 헤더가 에러인 경우에, 헤더(시퀀스 헤더, GOP 헤더, 픽쳐 헤더, 사용자 데이터 등)를 회복하는 처리도 이루어진다.
DCT 블록에 걸쳐 DCT 계수가 DC 성분 및 저영역 성분으로부터 고영역 성분으로 배열되어 있기 때문에, 이와 같이, 임의의 개소 이후부터 DCT 계수를 무시하여도, 매크로 블록을 구성하는 DCT 블록의 각각에 대하여 치우치지 않고 DC 및 저영역 성분으로부터의 DCT 계수를 배열시킬 수 있다.
데이터 보간부로부터 출력된 비디오 데이터가 ECC 디코더(113)의 출력으로서, ECC 디코더(113)의 출력은 재생측의 멀티 포맷 컨버터(114: 이하, 재생측 MFC라 약칭함)에 공급된다. 재생측 MFC(114)는, 상술한 기록측 MFC(106)와 역 처리를 행하는 것으로써, 스트림 컨버터를 포함한다. 재생측 MFC(106)는, 예를 들면 1개의 집적 회로에서 구성된다.
스트림 컨버터에서는, 기록측의 스트림 컨버터와 역 처리가 이루어진다. 즉, DCT 블록에 걸쳐 주파수 성분마다 배열되어 있는 DCT 계수를, DCT 블록마다 재배열한다. 이에 따라, 재생 신호가 MPEG2에 준거한 엘리먼트 스트림으로 변환된다.
또한, 스트림 컨버터의 입출력은 기록측과 마찬가지로, 매크로 블록의 최대 길이에 따라, 충분한 전송 레이트(대역 폭)를 확보해 둔다. 매크로 블록(슬라이스)의 길이를 제한하지 않는 경우에는, 화소 레이트의 3배의 대역 폭을 확보하는 것이 바람직하다.
스트림 컨버터의 출력이 재생측 MFC(114)의 출력으로서, 재생측 MFC(114)의 출력은 SDTI 출력부(115) 및 MPEG 디코더(116)에 공급된다.
MPEG 디코더(116)는 엘리먼트리 스트림을 복호하고, 비디오 데이터를 출력한다. 엘리먼트리 스트림은 MPEG 디코더(116)에 공급되어 패턴 매칭이 행해지고, 시퀀스 헤더 코드 및 스타트 코드가 검출된다. 검출된 시퀀스 헤더 코드 및 스타트 코드에 의해, 각층의 헤더부에 저장된 부호화 파라미터가 추출된다. MPEG 디코더(116)에서, 추출된 부호화 파라미터에 기초하여 엘리먼트리 스트림에 대하여 역 양자화 처리와, 역 DCT 처리가 이루어진다.
MPEG 디코더(116)로부터 출력된 복호 비디오 데이터는 SDI 출력부(118)에 공급된다. 상술한 바와 같이, SDI 출력부(118)에는, ECC 디코더(113)에서 비디오 데이터와 분리된 오디오 데이터가 딜레이(117)를 통해 공급되어 있다. SDI 출력부(118)에서는 공급된 비디오 데이터와 오디오 데이터를, SDI의 포맷으로 맵핑하고, SDI 포맷의 데이터 구조를 갖는 스트림으로 변환된다. SDI 출력부(118)로부터의 스트림이 출력 단자(120)로부터 외부로 출력된다.
한편, SDTI 출력부(115)에는, 상술한 바와 같이, ECC 디코더(113)에서 비디오 데이터와 분리된 오디오 데이터가 공급되어 있다. SDTI 출력부(115)에서는, 공급된 엘리먼트리 스트림으로서의 비디오 데이터와, 오디오 데이터를 SDTI의 포맷으로 맵핑하고, SDTI 포맷의 데이터 구조를 갖는 스트림으로 변환된다. 변환된 스트림은 출력 단자(119)로부터 외부로 출력된다.
출력 단자(119)로부터 SDTI의 스트림이 공급된 외부 기기에서는, MPEG의 복호화 처리가 필요한 경우에는, 공급된 스트림에 대하여 패턴 매칭을 행하고, 시퀀스 헤더 코드 및 스타트 코드를 검출함과 함께, 각층의 헤더부의 부호화 파라미터를 추출한다. 그리고, 추출된 부호화 파라미터에 기초하여 공급된 SDTI의 스트림의 복호화를 행한다.
도 15에 있어서, 시스템 컨트롤러(121)는, 예를 들면 마이크로 컴퓨터로 이루어지고, 이 기억 재생 장치의 전체의 동작을 제어한다. 또한 서보(122)는, 시스템 컨트롤러(121)와 상호 통신을 행하면서, 자기 테이프(112)의 주행 제어나 회전 드럼(111)의 구동 제어 등을 행한다.
도 17A는, MPEG 인코더(102)의 DCT 회로로부터 출력되는 비디오 데이터 중의 DCT 계수의 순서를 나타낸다. SDTI 수신부(108)로부터 출력되는 MPEG ES에 대해서도 마찬가지이다. 이하에서는, MPEG 인코더(102)의 출력을 예로서 설명한다. DCT 블록에서 좌측 상부의 DC 성분으로부터 개시하여, 수평 및 수직 공간 주파수가 높아지는 방향으로, DCT 계수가 지그재그 스캔으로 출력된다. 그 결과, 도 17B에 일례가 도시된 바와 같이, 전부 64개(8화소 ×8라인)의 DCT 계수가 주파수 성분순으로 배열되어 얻어진다.
이 DCT 계수가 MPEG 인코더의 VLC부에 의해 가변 길이 부호화된다. 즉, 최초의 계수는 DC 성분으로서 고정적이며, 다음 성분(AC 성분)으로부터는, 제로의 런과 그것에 그 다음의 레벨에 대응하여 코드가 할당된다. 따라서, AC 성분의 계수 데이터에 대한 가변 길이 부호화 출력은, 주파수 성분이 낮은 (저차의) 계수로부터 높은 (고차의) 계수로, AC1, AC2, AC3, …으로 배열된 것이다. 가변 길이 부호화된 DCT 계수를 엘리먼트리 스트림이 포함하고 있다.
상술한 기록측 MFC(106)에 내장되는, 기록측의 스트림 컨버터에서는, 공급된 신호의 DCT 계수의 재배열이 행해진다. 즉, 각각의 매크로 블록 내에서, 지그재그 스캔에 의해 DCT 블록마다 주파수 성분순으로 배열된 DCT 계수가 매크로 블록을 구성하는 각 DCT 블록에 걸쳐 주파수 성분순으로 재배열된다.
도 18A 및 도 18B는, 이 기록측 스트림 컨버터에서의 DCT 계수의 재배열을 개략적으로 나타낸다. (4:2:2) 컴포넌트 신호의 경우에, 1 매크로 블록은 휘도 신호 Y에 의한 4개의 DCT 블록(Y1, Y2, Y3및 Y4)과, 색도 신호 Cb, Cr의 각각에 의한 2개씩의 DCT 블록(Cb1, Cb2, Cr1및 Cr2)으로 이루어진다.
상술한 바와 같이, MPEG 인코더(102)에서는, MPEG2의 규정에 따라 지그재그 스캔이 행해지고, 도 18A에 도시된 바와 같이, 각 DCT 블록마다 DCT 계수가 DC 성분 및 저영역 성분으로부터 고영역 성분으로, 주파수 성분의 순으로 배열된다. 하나의 DCT 블록의 스캔이 종료하면, 다음의 DCT 블록의 스캔이 행해지고, 마찬가지로 DCT 계수가 배열된다.
즉, 매크로 블록 내에서, DCT 블록 Y1, Y2, Y3및 Y4, DCT 블록 Cb1, Cb2, Cr1및 Cr2의 각각에 대하여, DCT 계수가 DC 성분 및 저영역 성분으로부터 고영역 성분으로 주파수 순으로 배열된다. 그리고, 연속된 런과 그것에 그 다음의 레벨로 이루어지는 조에, 〔DC, AC1, AC2, AC3, …〕과, 각각 부호가 할당되도록, 가변 길이 부호화되어 있다.
기록측 스트림 컨버터에서는, 가변 길이 부호화되어 배열된 DCT 계수를, 일단 가변 길이 부호를 해독하여 각 계수의 단락을 검출하고, 매크로 블록을 구성하는 각 DCT 블록에 걸쳐 주파수 성분마다 통합한다. 이 모습을, 도 18B에 도시한다. 최초로 매크로 블록 내의 8개의 DCT 블록의 DC 성분을 통합하고, 다음에 8개의 DCT 블록의 가장 주파수 성분이 낮은 AC 계수 성분을 통합하며, 이하, 순서대로 동일 차수의 AC 계수를 통합하도록, 8개의 DCT 블록에 걸쳐 계수 데이터를 재배열한다.
재배열된 계수 데이터는, DC(Y1), DC(Y2), DC(Y3), DC(Y4), DC(Cb1), DC(Cr1), DC(Cb2), DC(Cr2), AC1(Y1), AC1(Y2), AC1(Y3), AC1(Y4), AC1(Cb1), AC1(Cr1), AC1(Cb2), AC1(Cr2), …이다. 여기서, DC, AC1, AC2, …는, 도 17A 및 도 17B를 참조하여 설명한 바와 같이, 런과 그것에 그 다음의 레벨로 이루어지는 조에 대하여 할당된 가변 길이 부호의 각 부호이다.
기록측 스트림 컨버터로 계수 데이터의 순서가 재배열된 변환 엘리먼트리 스트림은 ECC 인코더(109)에 내장되는 패킹 및 셔플링부에 공급된다. 매크로 블록의 데이터의 길이는, 변환 엘리먼트리 스트림과 변환 전의 엘리먼트리 스트림에서 동일하다. 또한, MPEG 인코더(102)에서, 비트 레이트 제어에 의해 GOP(1 프레임) 단위로 고정 길이화되어 있더라도, 매크로 블록 단위에서는 길이가 변동되어 있다. 패킹 및 셔플링부에서는, 매크로 블록의 데이터를 고정된 길이 프레임에 패킹시킨다.
도 19A 및 도 19B는, 패킹 및 셔플링부에서의 매크로 블록의 패킹 처리를 개략적으로 나타낸다. 매크로 블록은 소정의 데이터 길이를 갖는 고정된 길이 프레임에 패킹된다. 이 때 이용되는 고정된 길이 프레임의 데이터 길이를, 기록 및 재생 시의 데이터의 최소 단위인 싱크 블록의 데이터 길이와 일치시키고 있다. 이것은, 셔플링 및 에러 정정 부호화의 처리를 간단하게 행하기 위해서이다. 도 19A 및 도 19B에서는, 간단하게 하기 위해, 1 프레임에 8 매크로 블록이 포함되는 것으로 가정한다.
가변 길이 부호화에 의해, 도 19A에 일례가 도시된 바와 같이, 8 매크로 블록의 길이는 상호 다르다. 이 예에서는, 고정된 길이 프레임인 1싱크 블록의 데이터 영역의 길이와 비교하여, 매크로 블록 #1의 데이터, #3의 데이터 및 #6의 데이터가 각각 길고, 매크로 블록 #2의 데이터, #5의 데이터, #7의 데이터 및 #8의 데이터가 각각 짧다. 또한, 매크로 블록 #4의 데이터는 1싱크 블록과 대략 같은 길이이다.
패킹 처리에 의해, 매크로 블록이 1싱크 블록 길이의 고정된 길이 프레임에패킹된다. 과부족 없이 데이터를 패킹할 수 있는 것은, 1 프레임 기간에 발생되는 데이터량이 고정량으로 제어되어 있기 때문이다. 도 19B에 일례가 도시된 바와 같이, 1싱크 블록과 비교하여 긴 매크로 블록은, 싱크 블록 길이에 대응하는 위치에서 분할된다. 분할된 매크로 블록 중, 싱크 블록 길이로부터 초과된 부분(오버 플로우 부분)은, 선두로부터 순서대로 비어 있는 영역에, 즉, 길이가 싱크 블록 길이에 충족되지 않는 매크로 블록의 후에, 패킹된다.
도 19B의 예에서는, 매크로 블록 #1의, 싱크 블록 길이로부터 초과된 부분이, 우선, 매크로 블록 #2의 후에 패킹되고, 그곳이 싱크 블록의 길이에 도달하면 , 매크로 블록 #5의 후에 패킹된다. 다음에, 매크로 블록 #3의, 싱크 블록 길이로부터 초과된 부분이 매크로 블록 #7의 후에 패킹된다. 또한, 매크로 블록 #6의 싱크 블록 길이로부터 초과된 부분이 매크로 블록 #7의 후에 패킹되고, 또한 초과된 부분이 매크로 블록 #8의 후에 패킹된다. 이렇게 해서, 각 매크로 블록이 싱크 블록 길이의 고정된 길이 프레임에 대하여 패킹된다.
각 매크로 블록에 대응하는 가변 길이 데이터의 길이는, 기록측 스트림 컨버터에서 사전에 조사해 놓을 수 있다. 이에 따라, 이 패킹부에서는, VLC 데이터를 디코드하여 내용을 검사하지 않고, 매크로 블록의 데이터의 최후미를 알 수 있다.
도 20A 내지 도 20B는, 1 프레임의 데이터에 대한 패킹 처리를 보다 구체적으로 나타낸다. 셔플링 처리에 의해, 도 20A에 도시한 바와 같이, 화면 상에서 분산된 위치의 매크로 블록 MB1∼MB4가 도 25의 (b)에 도시한 바와 같이, 순서대로 배열된다. 각 프레임에 대하여 시퀀스층의 헤더, 픽쳐층의 헤더가 부가되고, 이들헤더로 이루어지는 헤더부도 선두의 매크로 블록에 상당하는 것으로서 패킹 처리의 대상이 된다. 고정된 길이 프레임(싱크 블록 길이)으로부터 초과된 오버 플로우 부분이 도 20C에 도시한 바와 같이, 비어 있는 영역에 순서대로 패킹된다. 도 25의 (b)에서는, 오버 플로우 부분이 참조 번호 300, 301, 302로서 나타나 있다. 이와 같이 패킹된 데이터가 도 20D에 도시한 바와 같이, 자기 테이프(112) 상에 기록된다.
자기 테이프를 기록 시의 속도보다 고속으로 보내어 재생을 행하는 고속 재생 시에는, 회전 헤드가 복수의 트랙을 걸쳐 트레이스하게 된다. 따라서, 재생 데이터 중에는, 다른 프레임의 데이터가 혼재한다. 재생 시에는, 패킹 처리와 역인 디패킹 처리가 이루어진다. 디패킹 처리는, 1 프레임분의 모든 데이터가 배열되어 있을 필요가 있다. 고속 재생 시와 같이, 1 프레임분의 데이터 중에 복수의 프레임의 데이터가 혼재되어 있는 경우에는, 디패킹 처리를 할 수 없다. 따라서, 고속 재생 시에는, 각 고정된 길이 프레임의 선두로부터 배치되어 있는 데이터만이 이용되며, 오버 플로우 데이터는 이용하지 않도록 이루어진다.
도 21은, 상술한 ECC 인코더(109)의 보다 구체적인 구성을 나타낸다. 도 21에 있어서, 참조 번호 164는 IC에 대하여 외부 부착의 메인 메모리(160)의 인터페이스이다. 메인 메모리(160)는 SDRAM으로 구성되어 있다. 인터페이스(164)에 의해, 내부로부터의 메인 메모리(160)에 대한 요구를 조정하고, 메인 메모리(160)에 대하여 기입/판독 처리를 행한다. 또한, 패킹부(137a), 비디오 셔플링부(137b), 패킹부(137c)에 의해 패킹 및 셔플링부가 구성된다.
도 22는, 메인 메모리(160)의 어드레스 구성의 일례를 나타낸다. 메인 메모리(160)는, 예를 들면 64M비트의 SDRAM으로 구성된다. 메인 메모리(160)는, 비디오 영역(250), 오버 플로우 영역(251) 및 오디오 영역(252)을 갖는다. 비디오 영역(250)은, 4개의 뱅크 (vbank#0, vbank#1, vbank#2 및 vbank#3)로 이루어진다. 4 뱅크의 각각은, 1 고정 길이화 단위의 디지털 비디오 신호를 저장할 수 있다. 1 고정 길이화 단위는, 발생되는 데이터량을 대략 목표치로 제어하는 단위이며, 예를 들면 비디오 신호의 1픽쳐(I 픽쳐)이다. 도 22 중의, 부분 A는, 비디오 신호의 1싱크 블록의 데이터 부분을 나타낸다. 1싱크 블록에는, 포맷에 따라 다른 바이트 수의 데이터가 삽입된다. 복수의 포맷에 대응하기 위해, 최대의 바이트 수 이상으로서, 처리에 적합한 바이트 수 예를 들면 256 바이트가 1싱크 블록의 데이터 사이즈로 되어 있다.
비디오 영역의 각 뱅크는, 또한, 패킹용 영역(250A)과 내부호화 인코더로의 출력용 영역(250B)으로 나누어진다. 오버 플로우 영역(251)은, 상술의 비디오 영역에 대응하여 4개의 뱅크로 이루어진다. 또한, 오디오 데이터 처리용의 영역(252)을 메인 메모리(160)가 갖는다.
이러한 일 실시예에서는, 각 매크로 블록의 데이터 길이 표식을 참조함으로써, 패킹부(137a)가 고정된 프레임 길이 데이터와, 고정된 길이 프레임을 초과한 부분인 오버 플로우 데이터를 메인 메모리(160)의 별개의 영역으로 나누어 기억한다. 고정 프레임 길이 데이터는, 싱크 블록의 데이터 영역의 길이 이하의 데이터이며, 이하, 블록 길이 데이터라 한다. 블록 길이 데이터를 기억하는 영역은, 각뱅크의 패킹 처리용 영역(250A)이다. 블록 길이보다 짧은 데이터 길이의 경우에는, 메인 메모리(160)의 대응하는 영역에 빈 영역이 생긴다. 비디오 셔플링부(137b)가 기입 어드레스를 제어함으로써 셔플링을 행한다. 여기서, 비디오 셔플링부(137b)는 블록 길이 데이터만을 셔플링하고, 오버 플로우 부분은 셔플링하지 않고 오버 플로우 데이터에 할당된 영역에 기입된다.
다음에, 패킹부(137c)가 외부호 인코더(139)로의 메모리에 오버 플로우 부분을 패킹하여 판독하는 처리를 행한다. 즉, 메인 메모리(160)로부터 외부호 인코더(139)에 준비되어 있는 1 ECC 블록분의 메모리에 대하여 블록 길이의 데이터를 판독하거나 혹은, 블록 길이의 데이터에 빈 영역이 있으면, 그곳에 오버 플로우 부분을 판독하여 블록 길이에 데이터가 패킹되도록 한다. 그리고, 1 ECC 블록분의 데이터를 판독하면, 판독 처리를 일시 중단하고, 외부호 인코더(139)에 의해 외부호의 패리티를 생성한다. 외부호 패리티는 외부호 인코더(139)의 메모리에 저장한다. 외부호 인코더(139)의 처리가 1 ECC 블록분 종료되면, 외부호 인코더(139)로부터 데이터 및 외부호 패리티를 내부호를 행하는 순서로 재배열하여, 메인 메모리(160)의 패킹 처리용 영역(250A)과 다른 출력용 영역(250B)에 재기입한다. 비디오 셔플링부(140)는, 이 외부호의 부호화가 종료된 데이터를 메인 메모리(160)로 재기입할 때의 어드레스를 제어함으로써, 싱크 블록 단위의 셔플링을 행한다.
이와 같이 블록 길이 데이터와 오버 플로우 데이터를 나눠 메인 메모리(160)의 제1 영역(250A)으로 데이터를 기입하는 처리(제1 패킹 처리), 외부호 인코더(139)로 메모리에 오버 플로우 데이터를 패킹하여 판독하는 처리(제2 패킹처리), 외부호 패리티의 생성, 데이터 및 외부호 패리티를 메인 메모리(160)의 제2 영역(250B)에 재기입하는 처리가 1 ECC 블록 단위로 이루어진다. 외부호 인코더(139)가 ECC 블록의 사이즈의 메모리를 구비함으로써, 메인 메모리(160)로의 액세스의 빈도를 적게 할 수 있다.
그리고, 1 픽쳐에 포함되는 소정 수의 ECC 블록(예를 들면 32개의 ECC 블록) 의 처리가 종료되면, 1 픽쳐의 패킹, 외부호의 부호화가 종료된다. 그리고, 인터페이스(164)를 통해 메인 메모리(160)의 영역(250B)으로부터 판독된 데이터가 ID 부가부(148), 내부호 인코더(147), 동기 부가부(150)로 처리되고, 병렬 직렬 변환부(124)에 의해 동기 부가부(150)의 출력 데이터가 비트 직렬 데이터로 변환된다. 출력되는 직렬 데이터가 파셜 리스펀스 클래스(4)의 프리코더(125)에 의해 처리된다. 이 출력이 필요에 따라 디지털 변조되고, 기록 증폭기(110)를 통해 회전 드럼(111)에 설치된 회전 헤드에 공급된다.
또, ECC 블록 내에 제로 싱크라 하는 유효한 데이터가 배치되지 않은 싱크 블록을 도입하여, 기록 비디오 신호의 포맷의 차이에 대하여 ECC 블록의 구성의 유연성을 갖게 하도록 이루어진다. 제로 싱크는, 패킹 및 셔플링 블록(137)의 패킹부(137a)에서 생성되고, 메인 메모리(160)에 기입된다. 따라서, 제로 싱크가 데이터 기록 영역을 갖게 되므로, 이것을 오버 플로우 부분의 기록용 싱크로서 사용할 수 있다.
오디오 데이터의 경우에는, 1 필드의 오디오 데이터의 짝수번째의 샘플과 홀수번째의 샘플이 각각 다른 ECC 블록을 구성한다. ECC의 외부호의 계열은, 입력순서의 오디오 샘플로 구성되기 때문에, 외부호 계열의 오디오 샘플이 입력될 때마다 외부호 인코더(136)가 외부호 패리티를 생성한다. 외부호 인코더(136)의 출력을 메인 메모리(160)의 영역(252)에 기입할 때의 어드레스 제어에 의해, 셔플링부(147)가 셔플링(채널 단위 및 싱크 블록 단위)을 행한다.
또한, 참조 번호 126으로 나타내는 CPU 인터페이스가 설치되고, 시스템 컨트롤러로서 기능하는 외부의 CPU(127)로부터의 데이터를 수취하여, 내부 블록에 대하여 파라미터의 설정이 가능하도록 되어 있다. 복수의 포맷에 대응하기 위해, 싱크 블록 길이, 패리티 길이를 비롯하여 많은 파라미터를 설정하는 것이 가능하게 되어 있다.
파라미터의 하나로서의 "패킹 길이 데이터"는, 패킹부(137a 및 137b)로 보내지고, 패킹부(137a, 137b)는, 이것에 기초하여 정해진 고정된 길이 프레임(도 19A에서 「싱크 블록 길이」로서 나타내지는 길이)에 VLC 데이터를 패킹한다.
파라미터의 하나로서의 "팩 수 데이터"는, 패킹부(137b)로 보내지고, 패킹부(137b)는, 이것에 기초하여 1싱크 블록당 팩 수를 정하여, 정해진 팩 수만큼의 데이터를 외부호 인코더(139)에 공급한다.
파라미터의 하나로서의 "비디오 외부호 패리티 수 데이터"는, 외부호 인코더(139)로 보내지고, 외부호 인코더(139)는, 이것에 기초한 수의 패리티가 발생되는 비디오 데이터의 외부호의 부호화를 행한다.
파라미터의 하나로서의 "ID 정보" 및 "DID 정보"의 각각은, ID 부가부(148)로 보내지고, ID 부가부(148)는, 이들 ID 정보 및 DID 정보를 메인 메모리(160)로부터 판독된 단위 길이의 데이터 열에 부가한다.
파라미터의 하나로서의 "비디오 내부호용 패리티 수 데이터" 및 "오디오 내부호용 패리티 수 데이터"의 각각은, 내부호 인코더(149)로 보내지고, 내부호 인코더(149)는, 이들에 기초한 수의 패리티가 발생되는 비디오 데이터와 오디오 데이터의 내부호의 부호화를 행한다. 또, 내부호 인코더(149)에는, 파라미터의 하나인 "싱크 길이 데이터"도 보내지고 있으며, 이에 따라, 내부호화된 데이터의 단위 길이(싱크 길이)가 규제된다.
또한, 파라미터의 하나로서의 셔플링 테이블 데이터가 비디오용 셔플링 테이블(128v: RAM) 및 오디오용 셔플링 테이블(128a: RAM)에 저장된다. 셔플링 테이블(128v)은, 비디오 셔플링부(137b 및 140)의 셔플링을 위한 어드레스 변환을 행한다. 셔플링 테이블(128a)은, 오디오 셔플링(147)을 위한 어드레스 변환을 행한다.
본 발명의 일 실시예에서는, MPEG 인코더(102)에서, 입력 비디오 데이터를 MPEG 비트 스트림으로 부호화할 때, 프레임 단위의 편집을 가능하게 하기 위해, 모든 프레임을 I 픽쳐로서 부호화하고, 1 GOP를 하나의 I 픽쳐로 구성한다. 또한, 1 슬라이스를 1 매크로 블록으로 한다. 또한, 모든 프레임에 대하여 반드시 시퀀스층의 헤더 및 양자화 매트릭스를 부가한다. 이와 같이 하면, 편집, 또는 특수 재생(역전 재생, 슬로우 재생, 고속 재생 등)에 의해 테이프 상에 기록된 스트림의 시간 관계가 원래의 것과 다르며, MPEG의 부호화 문법을 충족시키지 않게 되는 문제의 발생을 방지할 수 있다.
또한, 일 실시예에서는, SDTI 수신부(108)로부터 MPEG 비트 스트림이 입력되는 경우도 있다. 이 경우에는, MPEG 인코더(102)에서 부호화하는 것과 달리, MPEG의 부호화 문법을 충족시키고 있더라도, 모든 프레임에 대하여 시퀀스층의 헤더 및 양자화 매트릭스가 부가되어 있다고는 한정하지 않는다. 그래서, 이러한 일 실시예에서는, 기록측 MFC(106)에서, 각 프레임에 시퀀스층의 헤더가 부가되어 있지 않은 경우에는, 시퀀스층의 헤더를 보간하는 보간 처리를 행한다. 양자화 매트릭스에 대해서도 마찬가지이다.
도 23은, 시퀀스층의 헤더의 보간부의 일례를 나타낸다. 참조 번호 51은 SDTI 수신부(108)로부터 MPEG 비트 스트림 입력을 나타낸다. MPEG 인코더(102)의 출력 스트림은, 프레임마다 시퀀스층의 헤더를 부가하는 구성으로 되어 있기 때문에, 보간부에서 처리할 필요가 없다. 입력 스트림(51)이 딜레이부(52) 및 검출부(53)에 공급된다. 딜레이부(52)는, 검출부(53)가 검출 처리를 행하는 시간에 상당하는 지연을 발생시킨다. 딜레이부(52)의 출력이 RAM(54) 및 셀렉터(55)에 각각 공급된다. RAM(54)에는, 비트 스트림 중의 시퀀스층의 헤더가 기입된다. RAM(54)의 판독 출력이 셀렉터(55)에 공급된다.
또한, ROM(56)이 설치되어 있다. ROM(56)에는, 사전에 디지털 VTR의 기종에 따른 전형적인 시퀀스층의 헤더의 정보가 기억되어 있다. 예를 들면 그 기종이 취급하는 비디오 데이터의 포맷에 대응한 시퀀스층의 헤더가 기입되어 있다. 이 경우, 복수 종류의 시퀀스층의 헤더를 ROM(56)에 기입해 놓고, 사용자의 지정 등에 의해 선택된 시퀀스층의 헤더를 ROM(56)으로부터 판독하도록 하여도 좋다. ROM(56)으로부터 판독된 헤더가 셀렉터(55)에 공급된다. 셀렉터(55)의 선택 동작은, 검출부(53)의 출력에 의해 제어된다.
셀렉터(55)는, 딜레이부(52)로부터의 스트림 중에 시퀀스층의 헤더가 존재하고 있는 경우에는, 그 시퀀스층의 헤더를 프레임(픽쳐)마다 부가한 스트림을 출력 스트림(57)으로서 선택한다. 또한, 시퀀스층의 헤더가 존재하지 않는 경우에는, RAM(54) 또는 ROM(56)에 기억되어 있는 시퀀스층의 헤더를 스트림의 각 프레임에 대하여 부가하여, 프레임마다 헤더가 부가된 스트림을 출력한다. 이 경우, RAM(54)에 기억되어 있는 시퀀스층의 헤더를 ROM(56)에 기억되어 있는 시퀀스층의 헤더에 대하여 우선하여 부가한다.
또, 도시하지 않지만, 도 23에 도시한 구성을 제어하는 제어부가 설치되어 있다. 또한, 도 23은 하드웨어의 구성을 나타내고 있지만, 블록의 기능의 일부를 소프트웨어에 의해 처리하도록 하거나, 전부 소프트웨어에 의해 처리하는 것도 가능하다.
도 24는 검출부(53)의 검출 처리와, 검출 결과에 기초한 제어 처리를 나타내는 순서도이다. 입력 스트림(51) 중에 시퀀스층의 헤더가 존재하는지의 여부가 단계 S1에서 결정된다. 이하의 설명에서는, 존재의 유무를 검출하도록 하고 있지만, 존재의 유무 외에, 존재하는 시퀀스층의 헤더가 MPEG 부호화 문법을 충족시키는 정상적인 것인지 여부 검출을 행하는 것이 바람직하다. 존재하는 것이면, 처리가 단계 S2로 이행하고, RAM(54)에 대하여 스트림 중의 시퀀스층의 헤더가 기입된다. RAM(54)에서는, 구 시퀀스층의 헤더에 대하여 신 시퀀스층의 헤더가 오버라이팅된다. 그리고, 입력 스트림 중의 시퀀스층의 헤더를 그대로 시퀀스층의 헤더로서 각 프레임에 대하여 부가한다 (단계 S3).
단계 S1에 있어서, 입력 스트림 중에 시퀀스층의 헤더가 존재하지 않는다고 결정되면, 단계 S4에 있어서, RAM(54)에 시퀀스층의 헤더가 존재하는지의 여부가 결정된다. RAM(54)에 시퀀스층의 헤더가 존재하고 있으면, 단계 S5에 있어서, RAM(54)의 내용을 시퀀스층의 헤더로서 각 프레임에 대하여 부가한다. 만일, 단계 S4에 있어서, RAM(54)에 시퀀스층의 헤더가 존재하지 않는다고 결정되면, 단계 S6에 있어서, ROM(56)의 내용을 시퀀스층의 헤더로서 각 프레임에 대하여 부가한다. 예를 들면 기기의 전원을 온한 직후에는, RAM(54)에 시퀀스층의 헤더가 존재하지 않는다.
이상의 처리에 의해, 셀렉터(55)로부터의 출력 스트림은, 각 프레임에 대하여 반드시 시퀀스층의 헤더가 부가된 것으로 된다. 또, 이상의 설명은, 시퀀스층의 헤더에 대하여 설명하였지만, 양자화 매트릭스에 대해서도 완전히 동일한 처리에 의해 보간할 수가 있어, 출력 스트림 중의 각 프레임에 대하여 양자화 매트릭스를 반드시 부가할 수 있다.
상술에서는, 본 발명이 MPEG이나 JPEG의 데이터 스트림을 기록하는 디지털 VTR에 적용되도록 설명하였지만, 본 발명은, 다른 계층 구조를 갖는 압축 부호화에 대해서도 적용 가능하다. 그 경우에는, 시퀀스 헤더에 상당하는 최상위 계층의 헤더를 각 프레임에 대하여 부가하도록 이루어진다.
또한, 본 발명은, 기록 매체가 자기 테이프 이외이더라도 적용 가능하다.데이터 스트림이 직접적으로 기록되는 것이면, 예를 들면, 하드디스크나 DVD(Digital Versatile Disc)의 디스크형 기록 매체나, 반도체 메모리를 기록 매체에 이용한 RAM 레코더 등에도 적용 가능한 것이다.
이상 설명한 바와 같이, 본 발명에 따르면, 프레임 단위의 편집을 행함으로써, 비트 스트림이 부호화 문법을 충족시키지 않게 되는 것을 방지할 수 있다. 또한, 본 발명에 따르면, 테이프의 선두 위치 등의 소정 위치에만 시퀀스층이 기록되어 있는 경우와 달리, 임의의 위치로부터의 통상 재생을 행하는 것이 가능해진다. 또한, 본 발명에 따르면, 고속 재생, 슬로우 재생, 역전 재생 등의 특수 재생 시에 확실하게 시퀀스층의 헤더 또는 양자화 매트릭스를 얻을 수 있다.

Claims (10)

  1. 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고, 상기 비트 스트림을 기록 매체에 기록하는 기록 장치에 있어서,
    상기 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 부호화 수단;
    각 프레임의 비트 스트림에 대하여 최상위 계층의 헤더를 부가하는 수단; 및
    상기 최상위 계층의 헤더가 부가된 비트 스트림을 상기 기록 매체 상에 기록하는 수단
    을 포함하는 것을 특징으로 하는 기록 장치.
  2. 제1항에 있어서, 상기 최상위 계층의 헤더를 보간하는 보간 수단을 더 포함하는 것을 특징으로 하는 기록 장치.
  3. 제2항에 있어서, 상기 보간 수단은,
    상기 최상위 계층의 헤더가 존재하지 않거나 또는 부호화 문법에 모순되는지를 판정하는 판정 수단; 및
    최종으로 나타난 과거의 최상위 계층의 헤더를 보유하는 보유 수단
    을 포함하고,
    상기 판정 수단에 의해, 상기 최상위 계층의 헤더가 존재하지 않거나 또는 이상(異常)이라고 판정될 때, 상기 보유 수단 내의 상기 최종으로 나타난 과거의 최상위 계층의 헤더를 상기 부가 수단에 있어서 각 프레임의 비트 스트림에 대하여 부가하는 것을 특징으로 하는 기록 장치.
  4. 제2항에 있어서, 상기 보간 수단은,
    상기 최상위 계층의 헤더가 존재하지 않거나 또는 이상인 것을 판정하는 판정 수단; 및
    사전에 준비된 최상위 계층의 헤더를 보유하는 보유 수단
    을 포함하고,
    상기 판정 수단에 의해, 상기 최상위 계층의 헤더가 존재하지 않거나 또는 부호화 문법에 모순된다고 판정될 때, 상기 보유 수단 내의 상기 사전에 준비된 최상위 계층의 헤더를 상기 부가 수단에 있어서 각 프레임의 비트 스트림에 대하여 부가하는 것을 특징으로 하는 기록 장치.
  5. 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고, 상기 비트 스트림을 기록 매체에 기록하는 기록 장치에 있어서,
    상기 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 부호화 수단;
    각 프레임의 비트 스트림에 대하여 양자화 매트릭스를 부가하는 수단; 및
    상기 양자화 매트릭스가 부가된 비트 스트림을 상기 기록 매체 상에 기록하는 수단
    을 포함하는 것을 특징으로 하는 기록 장치.
  6. 제5항에 있어서, 상기 양자화 매트릭스를 보간하는 보간 수단을 더 포함하는 것을 특징으로 하는 기록 장치.
  7. 제6항에 있어서, 상기 보간 수단은,
    상기 양자화 매트릭스가 존재하지 않거나 또는 이상인 것을 판정하는 판정 수단; 및
    최종으로 나타난 과거의 상기 양자화 매트릭스를 보유하는 보유 수단
    을 포함하고,
    상기 판정 수단에 의해, 상기 양자화 매트릭스가 존재하지 않거나 또는 이상이라고 판정될 때, 상기 보유 수단 내의 상기 최종으로 나타난 과거의 상기 양자화 매트릭스를 상기 부가 수단에 있어서 각 프레임의 비트 스트림에 대하여 부가하는 것을 특징으로 하는 기록 장치.
  8. 제6항에 있어서, 상기 보간 수단은,
    상기 양자화 매트릭스가 존재하지 않거나 또는 이상인 것을 판정하는 판정수단; 및
    사전에 준비된 상기 양자화 매트릭스를 보유하는 보유 수단
    을 포함하고,
    상기 판정 수단에 의해, 상기 양자화 매트릭스가 존재하지 않거나 또는 이상이라고 판정될 때, 상기 보유 수단 내의 상기 사전에 준비된 상기 양자화 매트릭스를 상기 부가 수단에 있어서 각 프레임의 비트 스트림에 대하여 부가하는 것을 특징으로 하는 기록 장치.
  9. 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고, 상기 비트 스트림을 기록 매체에 기록하는 기록 방법에 있어서,
    상기 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 단계;
    각 프레임의 비트 스트림에 대하여 최상위 계층의 헤더를 부가하는 단계; 및
    상기 최상위 계층의 헤더가 부가된 비트 스트림을 상기 기록 매체 상에 기록하는 단계
    를 포함하는 것을 특징으로 하는 기록 방법.
  10. 디지털 비디오 신호를 압축 부호화하여 복수의 계층으로 이루어지는 계층 구조를 갖는 비트 스트림을 생성하고, 상기 비트 스트림을 기록 매체에 기록하는 기록 방법에 있어서,
    상기 디지털 비디오 신호의 전부를 프레임 내 부호화에 따라 압축하는 단계;
    각 프레임의 비트 스트림에 대하여 양자화 매트릭스를 부가하는 단계; 및
    상기 양자화 매트릭스가 부가된 비트 스트림을 상기 기록 매체 상에 기록하는 단계
    를 포함하는 것을 특징으로 하는 기록 방법.
KR1020017009749A 1999-12-02 2000-12-01 기록 장치 및 방법 KR100681992B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-1999-00343375 1999-12-02
JP34337599 1999-12-02

Publications (2)

Publication Number Publication Date
KR20010101937A true KR20010101937A (ko) 2001-11-15
KR100681992B1 KR100681992B1 (ko) 2007-02-15

Family

ID=18361037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017009749A KR100681992B1 (ko) 1999-12-02 2000-12-01 기록 장치 및 방법

Country Status (4)

Country Link
US (1) US7127156B1 (ko)
EP (1) EP1175097A4 (ko)
KR (1) KR100681992B1 (ko)
WO (1) WO2001041435A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008036611A1 (en) * 2006-09-18 2008-03-27 National Semiconductor Corportation Methods and systems for storing and retrieving streaming data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3775265B2 (ja) * 2001-08-16 2006-05-17 ソニー株式会社 信号処理装置および方法、記録再生装置および方法、ならびに、再生装置および方法
KR101361512B1 (ko) * 2007-07-09 2014-02-10 삼성전자 주식회사 방송처리장치 및 그 제어방법
GB2512276A (en) * 2013-02-15 2014-10-01 Univ Warwick Multisensory data compression

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2957340B2 (ja) * 1992-01-23 1999-10-04 株式会社日立製作所 ディジタル録画装置
JP3097437B2 (ja) * 1994-03-14 2000-10-10 松下電器産業株式会社 圧縮動画像の記録方法と再生装置
JP3418476B2 (ja) * 1995-04-07 2003-06-23 シャープ株式会社 画像蓄積通信装置及び画像蓄積装置
JP3226444B2 (ja) * 1995-01-25 2001-11-05 三菱電機株式会社 ディジタル信号記録装置及び再生装置
JPH1042286A (ja) * 1996-07-19 1998-02-13 Canon Inc 画像処理装置、方法及びコンピュータ可読メモリ装置
AR016812A1 (es) * 1997-08-14 2001-08-01 Samsung Electronics Co Ltd Metodo para transmitir informacion de video comprimida, disposiciones de compresion y de grabacion de video y aparato de reproduccion de video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008036611A1 (en) * 2006-09-18 2008-03-27 National Semiconductor Corportation Methods and systems for storing and retrieving streaming data
US7471218B2 (en) 2006-09-18 2008-12-30 National Semiconductor Corporation Methods and systems for efficiently storing and retrieving streaming data

Also Published As

Publication number Publication date
EP1175097A1 (en) 2002-01-23
KR100681992B1 (ko) 2007-02-15
EP1175097A4 (en) 2006-06-07
WO2001041435A1 (en) 2001-06-07
US7127156B1 (en) 2006-10-24

Similar Documents

Publication Publication Date Title
KR100838902B1 (ko) 스트림 처리 장치
KR100676093B1 (ko) 비디오 데이터 기록 장치, 비디오 데이터 기록 방법,비디오 데이터 재생 장치, 비디오 데이터 재생 방법,비디오 데이터 기록 및 재생 장치, 및 비디오 데이터 기록및 재생 방법
KR20000035332A (ko) 데이터 기록 장치, 데이터 기록 방법, 데이터 기록 및재생 장치, 데이터 기록 및 재생 방법, 데이터 재생 장치,데이터 재생 방법, 데이터 기록 매체, 디지털 데이터 재생장치, 디지털 데이터 재생 방법, 동기 검출 장치, 및 동기검출 방법
US7536080B2 (en) Signal processing apparatus
KR100668993B1 (ko) 신호 처리 장치와 방법, 기록 장치, 재생 장치, 기록 및 재생 장치, 및 스트림 처리 장치와 방법
KR100642532B1 (ko) 데이터 처리 장치 및 데이터 기록 장치
KR100739262B1 (ko) 기록 장치 및 기록 방법과, 재생 장치 및 재생 방법
WO2001058171A1 (en) Recording device and method, and reproducing device and method
KR100796885B1 (ko) 신호 프로세서
US6807366B1 (en) Data recording apparatus, data recording/reproducing apparatus, data recording method, and data recording/reproducing method
US20020071491A1 (en) Signal processor
JP3775265B2 (ja) 信号処理装置および方法、記録再生装置および方法、ならびに、再生装置および方法
KR100681992B1 (ko) 기록 장치 및 방법
JP4038949B2 (ja) 再生装置および方法
JP2001155437A (ja) 記録装置および方法
JP3978903B2 (ja) データ記録装置、データ記録方法、データ処理装置、およびデータ処理方法
JP2000149455A (ja) データ記録装置および記録方法、データ記録再生装置および記録再生方法、並びにデータ記録媒体
JP2000132914A (ja) データ処理装置およびデータ記録装置
JP2001169243A (ja) 記録装置および方法、ならびに、再生装置および方法
JP2000312341A (ja) データ伝送装置および方法、記録装置、ならびに、記録再生装置
JP2001346163A (ja) 記録装置および方法、再生装置および方法、ならびに、記録再生装置および方法
JP2000152174A (ja) 画像データ処理装置および方法、並びに画像データ記録装置
JP2003009087A (ja) 記録装置および方法
JP2000149441A (ja) データ処理装置、データ処理方法およびデータ再生装置
JP2000149426A (ja) メモリアクセス装置および方法、並びにデータ処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee