KR20050025330A - 화상 데이터 처리 장치 및 방법 - Google Patents

화상 데이터 처리 장치 및 방법 Download PDF

Info

Publication number
KR20050025330A
KR20050025330A KR1020057000387A KR20057000387A KR20050025330A KR 20050025330 A KR20050025330 A KR 20050025330A KR 1020057000387 A KR1020057000387 A KR 1020057000387A KR 20057000387 A KR20057000387 A KR 20057000387A KR 20050025330 A KR20050025330 A KR 20050025330A
Authority
KR
South Korea
Prior art keywords
picture
vbv
delay
recording
copy
Prior art date
Application number
KR1020057000387A
Other languages
English (en)
Inventor
다꾸지 히메노
후미요시 아베
히로야스 쯔찌다
도시노리 고우자이
요네따로 도쯔까
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20050025330A publication Critical patent/KR20050025330A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/7824Television signal recording using magnetic recording on tape with rotating magnetic heads
    • H04N5/7826Television signal recording using magnetic recording on tape with rotating magnetic heads involving helical scanning of the magnetic tape
    • H04N5/78263Television signal recording using magnetic recording on tape with rotating magnetic heads involving helical scanning of the magnetic tape for recording on tracks inclined relative to the direction of movement of the tape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Digital Magnetic Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

본 발명은, MPEG2 방식에 있어서 연결 녹화를 행하기 위한 보조 데이터를 기록 매체 상에 기록하는 화상 데이터 처리 방법으로서, B 픽처를 포함하는 데이터 그룹으로부터, I 픽처 또는 P 픽처의 VBV 딜레이를 취득하고, 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하고, 또한 부호화된 화상 데이터를, 데이터 그룹마다 기록 매체 상의 소정의 기록 영역에 기록할 때에, 취득한 VBV 딜레이를 데이터 그룹마다 설정된 보조 기록 영역에 기록하고, 취득한 VBV_delay_N을, 다음 픽처의 기록 영역에 따라서 설정된 다음 픽처용 보조 기록 영역에 기록한다.

Description

화상 데이터 처리 장치 및 방법{IMAGE DATA PROCESSING DEVICE AND METHOD}
본 발명은 MPEG(Motion Picture Expert Group) 방식에 의해 부호화한 화상 데이터를 기록 매체 상으로 기록 처리하는 화상 데이터 처리 장치 및 방법에 관한 것이다.
본 출원은 일본에서 2002년 7월 8일에 출원된 일본 특허 출원 번호2002-199071를 기초로 하여 우선권을 주장하는 것으로, 이 출원은 참조로서, 본 출원에 원용된다.
종래, 동화상을 고효율적으로 압축 부호화하는 방법으로서, MPEG2(ISO/IEC13818)로 대표되는 디지털 동화상 부호화 방식이 제안되어 있다. 이 MPEG2 방식에 의한 화상 압축은, 화상 간의 움직임 보상과 DCT(Discrete Cosine Transformation)를 조합한 하이브리드 방식의 변환을 행하고, 이에 따라 얻어지는 신호에 대하여 다시 양자화나 가변 길이 부호화를 실시한다.
MPEG2 방식에서는 부호화 방식으로서 쌍방향 예측 부호화 방식이 채용되고 있다. 이 쌍방향 예측 부호화 방식에서는 프레임내 부호화, 프레임간 순방향 예측 부호화 및 쌍방향 예측 부호화의 3타입의 부호화가 행해지고, 각 부호화 타입에 의한 화상은 각각 I 픽처, P 픽처 및 B 픽처라고 불리고 있다. 또한, I, P, B의 각 픽처를 적절하게 조합하여 랜덤 액세스의 단위가 되는 GOP(Group of Pictures)가 구성된다. 다시 말하면, 각 픽처의 발생 부호량은 I 픽처가 가장 많고, 다음으로 P픽처, B 픽처로 이어지는 것이 일반적이다.
이 MPEG2 방식과 같이 픽처 타입별로 발생 부호량이 서로 다른 부호화 방법에 있어서, 기록 매체에 기록한 부호화 비트 스트림을 재생 시에 디코더에서 정확하게 부호화하여 화상을 얻기 위해서는, 디코더에서의 입력 버퍼 내의 데이터 점유량을 인코더로 항상 파악해야 한다.
도 1은 디코더에서의 입력 버퍼에 있어서의, 공급된 MPEG 스트림에 대한 데이터 점유량의 추이를 나타내고 있다. 도 1에서, 횡축은 시간(t)을 나타내고 있고, 공급되는 MPEG 스트림에 포함되는 각 픽처의 디코드의 타이밍(t101, t102, t103 …)이 기록되고 있다. 또한, 종축은 입력 버퍼가 저장하는 데이터 점유량을 나타내고 있다.
입력 버퍼는 MPEG2 방식으로 화상 압축된 MPEG 스트림을 그 비트 레이트에 따라 순차적으로 저장해 간다. 그리고, MPEG 스트림의 공급이 개시된 t100으로부터 VBV 딜레이(vbv_delay) 시간 경과한 t101에 있어서, 디코드 처리를 위해서, 최초의 픽처가 디코더에 의해 뽑혀진다. 이 디코더에 의해 뽑혀지는 픽처의 데이터량은 그 픽처의 데이터 사이즈(picture_size)와, 픽처 스타트 코드의 데이터 사이즈(picture_start_code)와, 시퀀스 헤더의 데이터 사이즈(sequence_header)와, GOP 헤더의 데이터 사이즈(GOP_header)를 더한 데이터량(이하, 이미지 사이즈라고 함)이다.
다시 말하면, 입력 버퍼에는 t101 이후에도, MPEG 스트림이 소정의 비트 레이트에 따라 순차적으로 계속 공급된다. t101로부터 디코드 관리 시간(Decode Time Stamp)의 간격인 ΔDTS마다 경과해 가는 t102, t103, …에 있어서도, 각 픽처의 이미지 사이즈분의 데이터량이 디코더에 의해 뽑혀진다. 이러한 입력 버퍼에서는 공급된 MPEG 스트림의 총 데이터량과, 각 디코드 타이밍에서 뽑혀진 픽처의 이미지 사이즈의 총 데이터량과의 차분이 입력 버퍼의 버퍼 사이즈보다 커지면 오버플로우하고, 반대로 작아지면 언더플로우하게 된다.
이 때문에, MPEG 방식에서는 디코더에서의 입력 버퍼에 대응하는 가상 버퍼로서, 인코더측에 VBV(Video Buffering Verifier) 버퍼를 상정하여, 발생하는 부호량을 제어한다. 인코더에서는 VBV 버퍼를 파탄시키지 않도록, 다시 말하면 VBV 버퍼를 언더플로우 또는 오버플로우시키지 않도록 각 픽처의 발생 부호량을 컨트롤한다.
그런데, 화상 데이터가 이미 녹화되어 있는 자기 테이프 등의 기록 매체 상에서, 그 녹화 종료 위치로부터 화상 데이터를 새롭게 녹화하는, 소위 연결 녹화를 하는 경우가 있다. 다시 말하면, 프레임 내만 압축하는 DV(Digital Video) 방식의 VTR(Video Tape Recorder)에서는 1프레임을 10개의 트랙으로 나누어 기록하기 때문에, 테이프 주행 중에 재생으로부터 기록으로 전환하고, 녹화하는 프레임을 압축한 화상 데이터를 다음의 트랙으로부터 기록함으로써 용이하게 연결 녹화할 수 있다.
그러나, 프레임간 압축을 이용하는 MPEG2 방식에서는, 1프레임의 사이즈가 변동하므로, 기록하는 트랙의 수를 고정할 수 없어, 용이하게 연결 녹화할 수 없었다.
MPEG 방식에서는 상술한 바와 같이 디코드 시에 있어서 입력 버퍼를 언더플로우 또는 오버플로우시키지 않도록 각 픽처의 발생 부호량을 제어할 필요가 있어, 새롭게 녹화하는 화상 압축 데이터를 VBV 버퍼의 사이즈에 따라 연결 녹화할 필요가 있었다. 즉, 연결 녹화하는 편집점의 전후를 연속 재생해도 입력 버퍼를 파탄시키지 않고 디코드할 수 있도록, 이미 녹화되어 있는 화상 데이터의 보조 데이터를 기록 매체로부터 판독하여 VBV 딜레이(VBV-delay)나 DTS를 취득하여, VBV 버퍼에 있어서의 데이터 점유량으로 환산하여 인코더의 초기값으로서 설정할 필요가 있다.
그러나, 연결 녹화하는 편집점이 이미 녹화되어 있는 화상 데이터의 기록 종료 위치보다 후방인 경우에는, 기록 종료 위치 이후의 보조 데이터(VBV_delay나 DTS)를 취득할 수 없다. 이 때문에 인코더의 초기값을 얻기 위해서는, 기록 종료 위치 직전에서 이미 녹화되어 있는 화상 데이터를 전부 판독하여, 픽처 사이즈를 계산해야 하고, 특히 기록 종료 위치 직전의 화상 데이터를 구성하는 픽처 사이즈가 큰 경우에는 계산 시간이 방대해져, 기록 스탠바이 상태로 천이시키는 데 시간이 걸려, 조작성이 나빠진다는 문제점도 있다.
〈발명의 개시〉
본 발명의 목적은, 상술한 바와 같은 종래의 화상 데이터 처리 장치 및 방법이 갖는 문제점을 해소할 수 있는 신규 화상 데이터 처리 장치 및 방법을 제공하는 것에 있다.
본 발명의 다른 목적은, MPEG2 방식에 있어서 용이하게 연결 녹화를 행하기 위한 보조 데이터를 기록 매체 상에서 기록하는 화상 데이터 기록 장치 및 방법을 제공하는 것에 있다.
본 발명자는 상술한 목적을 달성하기 위해서, MPEG 방식에 있어서, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로부터, I 픽처 또는 P 픽처의 VBV 딜레이를 취득하고, 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하고, 또한 부호화된 화상 데이터를 데이터 그룹마다 기록 매체 상의 소정의 기록 영역에 기록할 때에, 취득한 VBV 딜레이를 데이터 그룹마다 설정된 보조 기록 영역에 기록하고, 또한 취득한 VBV_delay_N을 다음 픽처의 기록 영역에 따라서 설정된 다음 픽처용 보조 기록 영역에 기록하는 화상 데이터 기록 장치 및 방법을 제공한다.
즉, 본 발명에 따른 화상 데이터 처리 장치는, MPEG 방식에 의해 부호화되고, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로 이루어지는 화상 데이터를 처리하는 화상 데이터 처리 장치로서, I 픽처 또는 상기 P 픽처의 VBV(Video Buffering Verifier) 딜레이를 취득하고, 또한 최후의 픽처의 다음에 삽입해야 할 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하는 취득 수단과, 부호화된 상기 화상 데이터를 데이터 그룹마다 기록 매체 상의 소정의 기록 영역에 기록하고, 취득 수단에 의해 취득된 VBV 딜레이를 데이터 그룹마다 설정된 보조 기록 영역에 기록하는 기록 수단을 구비하고, 기록 수단은 취득된 VBV_delay_N을 다음 픽처의 기록 영역에 따라 설치된 다음 픽처용 보조 기록 영역에 기록한다.
본 발명에 따른 화상 데이터 처리 방법은 MPEG 방식에 의해 부호화되고, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로 이루어지는 화상 데이터를 처리하는 화상 데이터 처리 방법으로서, I 픽처 또는 상기 P 픽처의 VBV(Video Buffering Verifier) 딜레이를 취득하고, 또한 최후의 픽처의 다음에 삽입해야 할 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하는 취득 단계와, 부호화된 상기 화상 데이터를 데이터 그룹마다 기록 매체 상의 소정의 기록 영역에 기록하고, 취득 수단에 의해 취득된 VBV 딜레이를 데이터 그룹마다 설정된 보조 기록 영역에 기록하는 기록 단계를 갖고, 기록 단계에서, 취득된 VBV_delay_N을 다음 픽처의 기록 영역에 따라 설치된 다음 픽처용 보조 기록 영역에 기록한다.
본 발명의 또다른 목적, 본 발명에 의해서 얻어지는 구체적인 이점은 이하에 있어서 도면을 참조하여 설명되는 실시 형태의 설명으로부터 한층 명백해질 것이다.
도 1은 디코더의 입력 버퍼에 공급된 MPEG 스트림에 대한 데이터 점유량의 추이를 나타낸 도면.
도 2는 본 발명을 적용한 화상 데이터 처리 장치를 나타내는 블록도.
도 3은 기록 트랙이 형성된 자기 테이프를 나타내는 평면도.
도 4는 자기 테이프에 형성된 헬리칼 트랙의 구성을 나타낸 도면.
도 5는 데이터 그룹을 나타내는 도면.
도 6은 화상 데이터 처리 장치에 대하여 마지막으로 공급된 데이터 그룹에서의 데이터 점유량의 추이를 나타낸 도면.
도 7은 다음 픽처의 vbv_delay_n의 값이 미지인 경우에, 기록 시에 미리 연산하는 예를 설명하기 위한 도면.
도 8은 연결 녹화 시에 있어서의, ECC 처리부의 ECCBank 메모리의 처리에 대하여 설명하기 위한 도면.
도 9는 인코더에 있어서의 부호량 제어의 흐름을 설명하는 도면.
도 10의 (a) 및 도 10의 (b)는 vbv_delay_n에 기초하여 연산한 vbv_occupancy_f가 설정값을 하회하는 경우에 있어서 카피 픽처를 계속 삽입하는 예를 설명하기 위한 도면.
도 11은 다른 전자 기기로부터 입력된 화상 데이터의 데이터 스트림을 연결 녹화하는 경우에 있어서, 계승한 vbv_delay_n의 값이 극단적으로 작을 때의 처리에 대하여 설명을 하기 위한 도면.
도 12는 기록 END점 직후의 픽처 타입이 P 픽처인 경우에 있어서의 연결 녹화 결점에 대하여 설명하기 위한 도면.
도 13은 연산한 카피 픽처나 스태핑의 기록 방법에 대하여 설명을 하기 위한 도면.
도 14는 1회째 연결 녹화를 행한 데이터 그룹 N1의 선두를 재기록 위치로 하여, 2회째 연결 녹화를 행하는 경우의, 시각에 대한 VBV 버퍼의 데이터 점유량을 나타낸 도면.
도 15는 스태핑 바이트를 구성하는 ES에 대해서만 PES 헤더를 부가하는 경우에 대해서 설명하기 위한 도면.
도 16은 2회째 연결 녹화 시에 있어서의 재기록 위치에 대하여 설명을 하기 위한 도면.
도 17은 카피 픽처와 스태핑 바이트의 양방을 자기 테이프 상에 기록하는 경우에 대해서 설명하기 위한 도면.
〈발명을 실시하기 위한 최량의 형태〉
이하, 본 발명에 따른 화상 데이터 처리 장치 및 방법을 도면을 참조하여 상세히 설명한다.
본 발명을 적용한 화상 데이터 처리 장치(1)는, 동화상을 고효율로 압축 부호화하는 MPEG2(ISO/IEC13818) 방식에 의해 디지털 동화상 부호화하여 자기 테이프에 기록하는 장치로서, 도 2에 도시한 바와 같이 외부 입력부(11)와, 픽처 사이즈 측정부(12)와, 인코더(13)와, 삽입 처리부(14)와, 보조 데이터 생성부(15)와, 스트림 기록 처리부(16)와, ECC(Error Correction Code) 처리부(17)와, 기록 회로(18)와, 재생 회로(19)와, 보조 데이터 추출부(20)와, 스트림 재생 처리부(21)와, 헤더 추출부(22)와, VBV(Video Buffering Verifier) 딜레이 추출부(23)와, 외부 출력부(24)와, 디코더(25)와, 제어부(26)를 구비하고 있다.
외부 입력부(11)는 외부에 있는 다른 전자 기기로부터 TS(Transport Stream로서 전송되는 화상 데이터를 PES(Packetized Elementary Stream)로 분할하고, 이를 스트림 기록 처리부(16)에 송신한다. 다시 말하면, 이 외부 입력부(11)에 입력되는 화상 데이터를 구성하는 각 픽처의 사이즈는 픽처 사이즈 측정부(12)에 의해 측정된다.
인코더(13)는 VBV 딜레이 추출부(23)로부터 송신되는 VBV(Video Buffering Verifier) 딜레이에 기초하여, 입력되는 화상 데이터를 픽처 타입, 양자화 스텝 등의 부호화 파라미터에 기초하여 부호화를 행한다. 이 인코더(13)는 이 부호화한 화상 데이터를 스트림 기록 처리부(16)에 송신한다.
삽입 처리부(14)는 화상 데이터의 부호화 시에, 발생 부호량이 적은 경우에서의 의사 데이터로서, 전 픽처를 반복 표시하는 카피 픽처나 스태핑 바이트를 생성한다. 다시 말하면, 이 스태핑 바이트는 특별히 의미를 갖지 않는 데이터로서, 디코더측에서 읽어 버려진다. 이 삽입 처리부(14)는 생성한 카피 픽처나 스태핑 바이트를 스트림 기록 처리부(16)에 출력한다.
보조 데이터 생성부(15)는 I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹마다 첨부되는 보조 데이터(AUX)를 스트림 기록 처리부(16)로 출력한다.
스트림 기록 처리부(16)는 외부 입력부(11) 또는 인코더(13)로부터 화상 데이터를 취득한다. 또한, 이 스트림 기록 처리부(16)는 삽입 처리부(14)로부터 카피 픽처나 스태핑 바이트가 공급되고, 보조 데이터 생성부(15)로부터 보조 데이터가 입력되고, 또한 헤더 추출부(22)로부터 각종 헤더가 입력된다. 스트림 기록 처리부(16)는 화상 데이터에 있어서의 I 픽처 또는 P 픽처로부터 시작되는 데이터 그룹 간에, 보조 데이터나 카피 픽처 등을 삽입하여 하나의 데이터 스트림을 형성한다. 이 때 스트림 기록 처리부(16)는 생성한 데이터 스트림으로부터 VBV 딜레이 추출부(23)에 의해 VBV 딜레이가 추출되는 경우도 있다. 스트림 기록 처리부(16)는 이 형성한 데이터 스트림을 ECC 처리부(17)에 송신한다.
ECC 처리부(17)는 입력된 데이터 스트림에 ECC(Error Correction Code)를 부가하고, 또한 인터리브 처리 등을 실시한다. 이 ECC 처리부(17)는 도시하지 않은 독자적인 ECCBank 메모리를 갖고, 실제로 자기 테이프(4)에 기록하는 데이터 스트림을 일시 기억시킨다.
기록 회로(18)는 ECC 처리부(17)로부터 입력된 데이터 스트림을 자기 테이프(4)에 기록한다. 이 기록 회로(18)는, 예를 들면 입력된 데이터를 직렬 데이터로 변환한 후에 증폭하고, 도시하지 않은 회전 드럼을 통하여 회전하게 되는 자기 테이프(4)에, 도시하지 않은 자기 헤드를 통하여 기록한다.
재생 회로(19)는 자기 테이프(4) 상에 기록되어 있는 화상 데이터를 재생하고, 또한 후술하는 자기 테이프(4) 상의 보조 기록 영역에 기록되어 있는 보조 데이터를 판독하여, 이를 ECC 처리부(17)에 송신한다.
스트림 재생 처리부(21)는 자기 테이프(4)로부터 재생되는 화상 데이터 및 보조 데이터가 재생 회로(19) 및 ECC 처리부(17)를 통하여 입력된다. 이 스트림 재생 처리부(21)는 입력된 화상 데이터를 외부 출력부(24) 또는 디코더(25)에 출력한다. 이 스트림 재생 처리부(21)에 입력된 보조 데이터에 있어서, PTS(Presentation Time Stamp)나 DTS(Decoding Time Stamp)에 대해서는 헤더 추출부(22)에 의해 추출되고, VBV 딜레이에 대해서는 VBV 딜레이 추출부(23)에 의해 추출된다. 그 밖의 보조 데이터에 대해서는 보조 데이터 추출부(20)에 의해 추출된다.
외부 출력부(24)는 스트림 재생 처리부(21)로부터 PES로서 입력되는 화상 데이터를 디코드하여 TS화하고, 다른 전자 기기에 전송한다. 디코더(25)는 스트림 재생 처리부(21)로부터 PES로서 입력되는 화상 데이터를 픽처 타입, 양자화 스텝 등의 부호화 파라미터에 기초하여 복호화를 행한다.
또한, 본 발명에 따른 화상 데이터 처리 장치(1)를 구성하는 회로, 요소는 제어부(26)에 의한 제어에 기초하여 동작한다.
다음으로, 본 발명을 적용한 화상 데이터 처리 장치(1)에 있어서의 자기 테이프(4)에의 기록 방식에 대하여 설명한다. 또한, 여기서 설명하는 기록 방식은 특개2001-275077 공보에 있어서 제안되어 있는 방식에 기초한다.
자기 테이프(4)는 도 3에 도시한 바와 같이 자기 헤드에 의해 영상 신호 등의 정보가 기록되는 헬리칼 트랙(32)으로 구성된다.
헬리칼 트랙(32)은 자기 테이프(4)의 길이 방향에 대하여 경사지게 형성되어 있다.
1개의 헬리칼 트랙(32)은 도 4에 도시한 바와 같이 123개의 싱크 블록과 18개의 C2 패리티 싱크 블록으로 구성된다. 이 헬리칼 트랙(32)의 16개를 ECC 처리부(17)에 있어서의 C2 ECC의 인터리브 단위로 한다. ECC 처리부(17)에서는 이 16개분의 헬리칼 트랙(32)에 있어서의 싱크 블록을 ECC면에 인터리브하여 할당하여, C2 패리티를 생성하여 이를 C2 패리티 싱크 블록에 기록한다.
1개의 싱크 블록은 95바이트의 데이터부에, 1바이트의 싱크 블록 헤더(SB 헤더)와, 트랙 페어 No.나 싱크 블록 No. 등으로 이루어지는 3바이트의 ID부와, 이들을 대상으로 한 C1 패리티의 10바이트가 첨부되어 있으며, 또한 2바이트의 싱크 패턴을 선두에 둔 111바이트로 구성되어 있다.
이 트랙 페어 No.는, -아지머스, +아지머스의 순으로 서로 인접하는 헬리칼 트랙(32) 사이에서 동일 값을 취한다. 이하 이 트랙 페어 No.를 2배하여 +아지머스 트랙만 1을 가한 No.를 트랙 No.으로 한다. 또한, SB 헤더는 그 싱크 블록에 기록되는 데이터의 종류가 기록되어 있다.
다시 말하면, MPEG2 방식의 PES 패킷으로서 구성되어 있는 Video 데이터나 Audio 데이터는 각각 싱크 블록으로 분할하여 기록되게 된다. Video 데이터는 도 5에 도시한 바와 같이 I 픽처, B 픽처, B 픽처의 3프레임, 또는 P 픽처, B 픽처, B 픽처의 3프레임의 PES를 결합하고, 이것에 PTS 시각에 따른 Audio 데이터를 가하여, Audio, Video의 순으로 교대로 싱크 블록 상에 기록한다. 이 Audio와 Video의 결합 단위를 이후, Pack이라고 한다. I 픽처, B 픽처, B 픽처의 순으로 구성되는 3프레임의 Video 데이터, 또는 P픽처, B픽처, B 픽처의 순으로 구성되는 3프레임의 Video 데이터를 데이터 그룹이라고 한다.
또한, Audio 데이터의 보조 데이터로서 AUX-A를, Video 데이터의 보조 데이터로서 AUX-V의 싱크 블록을 Pack마다 기록한다.
다음으로, 본 발명을 적용한 화상 데이터 처리 장치(1)의 동작에 대하여 설명한다.
MPEG2 방식을 채용하는 화상 데이터 처리 장치(1)는 픽처 타입마다 발생 부호량이 서로 다르므로, 자기 테이프(4)에 기록한 데이터 스트림을 재생 시에 디코더(25)에 있어서 정확하게 부호화하여 화상을 얻기 위해서는 디코더(25)에 있어서의 입력 버퍼 내의 데이터 점유량을 인코더(13)에서 항상 파악해야 한다.
도 6은 화상 데이터 처리 장치(1)에 대하여 마지막으로 공급된 데이터 그룹 L에서의, 디코더(25)의 입력 버퍼의 데이터 점유량의 추이를 나타내고 있다. 도 6에서, 횡축은 시각(t)을 나타내고 있으며, 공급되는 데이터 그룹 L을 구성하는 각 픽처의 디코드의 타이밍(P, B1, B2)이 기록되어 있다. 또한, 종축은 입력 버퍼가 저장하는 데이터 점유량을 나타내고 있다.
입력 버퍼는 MPEG2 방식으로 압축 부호화된 데이터 스트림을 그 비트 레이트에 따라서 순차적으로 저장해 간다. P 픽처가 공급되는 시각은 t11로부터 t12까지 이고, 또한 B1 픽처가 공급되는 시각은 t12으로부터 t13까지이고, 또한 B2 픽처가 공급되는 시각은 t13으로부터 t14까지이다. 또한, 디코더(25)는 디코드 처리를 위해, t21에 있어서 P 픽처를 뽑아낸다. 마찬가지로 디코더(25)는 디코드 처리를 위해, t22에 있어서 B1 픽처를 뽑아내고, 또한 t23에 있어서 B2 픽처를 뽑아낸다.
이 디코더(25)에 의해 뽑혀지는 각 픽처의 데이터량은 픽처의 데이터 사이즈(picture_size)와, 픽처 스타트 코드의 데이터 사이즈(picture_start_code)와, 시퀀스 헤더의 데이터 사이즈(sequence_header)와, GOP 헤더의 데이터 사이즈(G0P_header)를 더한 데이터량(이하, 이미지 사이즈라고 함)이다. 이 데이터 그룹 L의 선두에 위치하는 P 픽처의 픽처 스타트 코드의 최종 바이트가 공급되고 나서, 디코더(25)에 의해 뽑혀지는 시간(t11∼t21)을 VBV 딜레이(vbv_delay_l)라고 한다.
도 6에서, 데이터 그룹 L의 후방에는 데이터 그룹 L의 다음에 삽입해야 할 픽처(이하, 다음 픽처라고 함)가 나타나 있다. 이 다음 픽처의 VBV 딜레이(vbv_delay_n)는 t14로부터 t15까지의 시간이다. 화상 데이터 처리 장치(1)는 마지막으로 데이터 그룹 L이 공급되었을 때에, 좀많게 인코드함으로써, 이 다음 픽처의 vbv_delay_n을 취득할 수 있다.
화상 데이터 처리 장치(1)는, 이와 같이 하여 취득할 수 있는 VBV 딜레이(vbv_delay_l, vbv_delay_n)를 보조 데이터로 하여, 각 데이터 그룹마다 설정된 AUX-V에 기록한다. 도 6의 하단에는 데이터 그룹 L 및 다음 픽처에 대하여 설정된 AUX-V의 자기 테이프(4)에 있어서의 기록 위치를 나타내고 있다. 데이터 그룹 L에서의 AUX-V의 기록 위치는 데이터 그룹 L의 선두에 위치하는 P 픽처의 앞에 설정되어 있다. 마찬가지로, 다음 픽처의 AUX-V의 싱크 블록은 다음 픽처의 기록 위치 전방이고, 또한 데이터 그룹 L의 기록 위치 후방에 설정되어 있다.
화상 데이터 처리 장치(1)는, 데이터 그룹 L의 P 픽처에 대하여 취득한 vbv_delay_l을 데이터 그룹 L에 대하여 설정된 AUX-V에 기록한다. 마찬가지로, 다음 픽처에 대하여 취득한 vbv_delay_n을 다음 픽처에 대하여 설정된 AUX-V에 기록한다.
이러한 데이터 스트림이 기록된 자기 테이프(4)를 재생함으로써, 각 AUX-V에 기록되어 있는 vbv_delay_l, vbv_delay_n을 판독할 수 있다. 이에 의해, 화상 데이터 처리 장치(1)는 화상 데이터가 이미 기록되어 있는 자기 테이프(4)에 있어서, 그 기록 종료 위치로부터 화상 데이터를 새롭게 기록하는, 소위 연결 녹화를 하는 경우에도, 이미 기록되어 있는 화상 데이터의 정보를 얻을 수 있다. 또한, 연결 녹화하는 화상 데이터에 대하여, 이와 같이 vbv_delay_l 등을 동시에 기록해 두는 화상 데이터를 기초 화상 데이터라고 한다.
즉, 이 화상 데이터 처리 장치(1)는 다음 픽처를 연결 녹화하는 화상 데이터로서 상정함으로써, 연결 녹화하는 다음 픽처가 갖아야 되는 vbv_delay_n을 기록 시에 미리 구하여 자기 테이프(4) 상에 기록할 수 있다. 이에 의해, 재생 시에 있어서, 자기 테이프(4)로부터 vbv_delay_n을 판독하는 것만으로, VBV 버퍼에 있어서의 데이터 점유량으로 환산하여 인코더의 초기값으로서 설정할 수 있기 때문에, 1프레임의 사이즈가 변동하는 MPEG2 방식에 있어서도, 각 픽처의 발생 부호량을 제어할 수 있어, 입력 버퍼를 파탄시키지 않고 용이하게 연결 녹화를 행할 수 있다.
또한, 본 발명에 따른 화상 데이터 처리 장치(1)는, 이 데이터 그룹 L에 대하여, 마지막으로 공급된 데이터 그룹인 것을 나타내기 위한 END점 플래그를 AUX-V에 기록할 수도 있다. 이에 따라, 연결 녹화할 때에, 이 END점 플래그에 기초하여 화상 데이터가 기록되어 있는 영역을 용이하게 식별할 수 있어, 기존의 화상 데이터 상에 덮어쓰기하게 되는 문제점을 회피할 수도 있게 된다.
화상 데이터 처리 장치(1)는, 마지막으로 공급되는 데이터 그룹 L이나 다음 픽처에 한정되지 않고, 다른 모든 데이터 그룹마다 선두의 픽처의 VBV 딜레이를 식별하고, 이를 각 데이터 그룹마다 설정된 AUX-V에 기록해도 된다. 다음 픽처의 AUX-V 에서도 마찬가지로 vbv_delay_n이 기록되어 있으므로, 각 픽처마다 VBV 딜레이를 AUX-V에 기록함으로써, 기록 매체 상에 설정된 모든 AUX-V의 보조 데이터종을 공통화할 수 있다.
또한, 화상 데이터 처리 장치(1)는 보조 데이터로서, VBV 딜레이 이외에 DTS 등을 이용하여 이를 AUX-V에 기록해도 되고, 또한 VBV 딜레이의 대체로서 DTS나 PTS를 이용해도 되는 것은 물론이다.
다른 전자 기기로부터 입력된 DTS나 PTS를 그대로 AUX-V에 기록하면, 재생 시에, 기록한 DTS나 PTS가 점프하는 경우가 있으므로, 통상 이 DTS나 PTS에 오프셋값을 가산하고 나서 AUX-V에 기록한다. 데이터 그룹 L의 AUX-V로부터 취득한 DTS를 DTS0로 한다. 또한, 연결 녹화하는 다음 픽처로부터 취득한 DTS를 DTS2로 한다. 이 때, 오프셋값을 DTS0-DTS2+(카피 픽처의 매수)×(카피 픽처의 표시 시간)에 기초하여 연산하고, 이를 DTS 또는 PTS에 가산하고 나서 기록을 행한다.
부호화된 스트림이나, 다른 전자 기기로부터 입력된 스트림을 도중에 중단하는 경우에는 상술한 바와 같이 다음 픽처의 vbv_delay_n의 값을 인식할 수 있지만, 다른 전자 기기로부터 공급된 데이터 스트림을 최후의 픽처까지 모두 기록했을 때에는 다음 픽처가 존재하지 않는다. 이러한 경우에는 다음 픽처의 vbv_delay_n의 값을 인식할 수 없어, 기록 시에 AUX-V 상에 보조 데이터로서 기록할 수 없다. 이 때문에, 다른 전자 기기로부터 공급된 픽처를 자기 테이프(4) 상에 기록하는 경우에는 기록 시에 미리 다음 픽처의 vbv_delay_n의 값을 연산하고, 이를 다음 픽처의 AUX-V에 기록해 둔다. 이에 의해, 재생 시에, 이 다음 픽처의 vbv_delay_n을 용이하게 판독할 수 있어, 입력 버퍼를 파탄시키지 않고 용이하게 연결 녹화를 행할 수 있다.
도 7은 이 다음 픽처의 vbv_delay_n의 값이 미지인 경우에, 기록 시에 미리 연산하는 예를 설명하기 위한 도면이다. 화상 데이터 처리 장치(1)에는 마지막으로 공급되고, P 픽처, B1 픽처, B2 픽처의 순으로 구성되는 데이터 그룹 L이 공급된다. 이 때, 화상 데이터 처리 장치(1)는 이 마지막으로 공급되는 데이터 그룹 L의 다음에 공급되어야 되는 다음 픽처의 vbv_delay_n을 데이터 그룹 L의 선두에 위치하는 P 픽처의 vbv_delay_l과, 해당 데이터 그룹 L의 전송 시간(FT) 및 표시 시간(ET)으로부터, 이하의 수학식 1에 의해 구해진다.
여기서 전송 시간 FT에 대해서는 데이터 그룹 L을 구성하는 3프레임을 추출하여 비트 수의 합계(d 비트)를 연산한다. 그리고, 이 d를 비트 레이트(Bitrate)로 나누면 전송에 필요한 시간이 되고, 여기에 90000을 곱합으로써, VBV 딜레이와 동일한 90㎑의 시간 축에 있어서의 전송 시간(FT)으로 된다. 또한, 이 데이터 그룹 L을 구성하는 3프레임의 표시 간격(ET)은 프레임 레이트가 29.97㎐인 경우에 3003의 3배로 되고, 이것과 상술한 FT와의 차분이 VBV 딜레이의 변화량으로 된다. 이에 따라, vbv_delay_n은 또한 이하의 수학식 2에 의해 구할 수 있다.
화상 데이터 처리 장치(1)는, 이와 같이 하여 구한 vbv_delay_n을 다음 픽처의 AUX-V에 기록한다. AUX-V에 대하여 VBV 딜레이를 기록하는 경우뿐만 아니라, DTS를 기록하는 경우에도, 마찬가지의 방법에 의해 다음 픽처의 DTS를 미리 구할 수 있다.
이와 같이 본 발명에 따른 화상 데이터 처리 장치(1)는, 다음 픽처의 vbv_delay_n의 값이 미지이더라도, 상술한 계산식 1 또는 식 2에 기초하여 구할 수 있으므로, 재생 시에 인코더의 초기값을 얻기 위해서 기록 종료 위치 직전에 있어서 이미 녹화되어 있는 화상 데이터를 전부 판독하여, 픽처 사이즈를 계산할 필요가 없어진다. 이에 따라, 본 발명에 따른 화상 데이터 처리 장치(1)는 계산 시간을 줄일 수 있어, REC 조작의 천이 시간을 짧게 하는 것도 가능하게 된다.
계속해서, 연결 녹화 시에 있어서의, ECC 처리부(17)의 ECCBank 메모리의 처리에 대하여 설명한다.
우선, 녹화(REC) 중에, 일시정지(REC-PAUSE)하고, 재차 녹화(REC)함으로써 연결 녹화하는 경우에 대해서 설명한다. 인코더(13)에 의해 부호화된 데이터 스트림이나, 외부 입력부(11)를 통하여 입력된 데이더 스트림을 자기 테이프(4) 상에 기록 중에, REC-PAUSE 조작을 행한 경우, 도 8에 도시한 바와 같이 마지막으로 공급되는 3프레임의 픽처로 이루어지는 데이터 그룹 L을 ECCBank에 기입하였을 때의 싱크 블록을 기록 END점으로 하고, 그 후에 재차 REC 조작을 행함으로써 연결 녹화하는 다음 픽처가 포함되는 Pack의 AUX-A와, Audio 데이터의 싱크 블록을 기입한다. 그리고, 마지막으로 다음 픽처의 vbv_delay_n이나 END점 플래그 등의 보조 데이터를 기록하기 위한 AUX-V의 싱크 블록을 기입한다.
도 8에 도시한 AUX-A로부터 AUX-V까지가 연결 녹화 시에, 보조 데이터를 판독하고, 연결 녹화하는 데이터 스트림의 기입을 개시하는 에리어이다. 다시 말하면, 해당 에리어가 이 AUX-A의 싱크 블록을 포함하는 ECCBank로부터, 그 다음의 ECCBank까지 이르는 경우에, 기록 처리를 공통화하므로, 다음 픽처의 AUX-V에서의 싱크 블록의 다음의 싱크 블록 이후를 Null 데이터로 매립한다.
ECC 처리부(17)는 공급되는 데이터 스트림 모두를 기록하여 기초 화상 데이터를 생성하는 데 필요한 ECCBank를 싱크 블록 또는 Null 데이터로 매립한 후, 자기 테이프(4) 상에 기록할 때에 사용하는 기록 전류나, 도시하지 않은 회전 드럼 등과 같은 자기 테이프(4)에 데이터 스트림을 기록하기 위한 기구를 정지시킨다. 이는 자기 테이프(4)에 기록할 때에, 마지막으로 기록해야 할 헬리칼 트랙에 데이터를 기록한 후에 바로 기록 전류를 정지하면, 그 마지막으로 기록해야 할 헬리칼 트랙에 에러가 발생할 가능성이 있으므로, 여분으로 기록 전류를 흘려 놓기 위함이다.
자기 테이프(4)에 있어서의 기초 화상 데이터의 기록 END점으로부터 연결 녹화를 행하는 경우에는, 우선 자기 테이프(4)를 재생함으로써, 이미 기록하고 있는 기초 화상 데이터의 데이터 스트림을 한 번 ECC 처리부(17)에 있어서의 ECCBank에 기입하여, 각 AUX-V로부터 END점 플래그를 찾아낸다. 이러한 END점 플래그가 붙어 있는 AUX-V를 포함하는 ECCBank와, 그 다음에 계속되는 ECC Eank만을 ECCBank 메모리에 보존해 두고, 그 이후의 ECCBank의 메모리에의 기입을 중지하여 다음 픽처의 기록에 대비한다. 이 때, END점 플래그가 존재하는 AUX-V로부터 VBV 딜레이나 DTS 등을 추출해 두어도 된다.
계속해서, 자기 테이프(4)의 재생 화상을 보면서, 연결 녹화하는 다음 픽처의 기록을 개시하는 재기록 위치를 지정하는 경우에 대해서 설명한다. ECCBank에서, 재생 PAUSE 조작 시에 화면 상에 표시되어 있던 화상의 데이터 스트림은 나중에서 공급되는 화상의 데이터 스트림에 의해 덮어쓰기되어 있는 경우가 많다.
3프레임으로 구성되는 데이터 그룹마다 자기 테이프(4) 상에 기록해 가는 본 발명에서는, 재생 화상을 보면서 지정한 다음 픽처의 재기록 위치에, I 픽처, 또는 P 픽처가 존재하고 있는 경우에는, 해당 I 픽처, 또는 P 픽처의 직전을 다음 픽처의 재기록 위치로 하지만, 한편 지정한 다음 픽처의 재기록 위치에, B 픽처가 존재하고 있는 경우에는 해당 B 픽처를 구성하는 데이터 그룹 선두의 I 픽처, 또는 P 픽처의 직전을 다음 픽처의 재기록 위치로 한다.
ECC 처리부(17)는 이와 같이 하여 다음 픽처의 재기록 위치를 지정한 기록 위치에 존재하는 픽처 타입에 따라 결정하고, 자기 테이프(4)를 결정한 기록 위치에 따라 되감아 재생하고, 이를 순차적으로 ECCBank 메모리에 기입해 간다. 그 때에 DTS 등을 통하여, 결정한 재기록 위치나, 그 재기록 위치의 직후에 위치하는 데이터 그룹의 I 픽처 또는 P 픽처를 검색하고, 그 Pack 선두의 AUX-A를 포함하는 ECCBank와, 그 다음에 계속되는 ECCBank만을 ECCBank 메모리에 보존해 두고, 그 이후의 ECCEank의 ECCbank 메모리에의 기입을 중지하여 다음 픽처의 기록에 대비한다. 이 때도 마찬가지로, END점 플래그가 존재하는 AUX-V로부터 VBV 딜레이나 DTS 등을 추출해 두어도 된다.
자기 테이프(4)의 재생 화상을 보지 않고 재기록 위치를 선택하지 않고 연결 녹화를 행하는 경우에는 자기 테이프(4)를 재생하여 데이터 스트림을 순차적으로 ECCBank 메모리에 기입해 간다. 그 때에 재기록 위치를 데이터 그룹 단위로 재생순으로 서치한다. 그리고, 임의의 재기록 위치의 직후에 위치하는 데이터 그룹의 I 픽처 또는 P 픽처의 선두의 AUX-A를 포함하는 ECCBank와, 그 다음에 계속되는 ECCBank만을 ECCBank 메모리에 보존해 두고, 그 이후의 ECCBank의 ECCBank 메모리에의 기입을 중지하여 다음 픽처의 기록에 대비한다. 이 때도, 마찬가지로 END점 플래그가 존재하는 AUX-V로부터 VBV 딜레이나 DTS 등을 추출해 두어도 된다.
또한, 상술한 바와 같이 ECCBank 메모리에 2개의 ECCBank가 보존되어 있는 경우에, 새롭게 입력되는 데이터 스트림은 이하와 같이 하여 ECCBank로부터 다시 기입한다. 즉, 재기록 위치 직전의 싱크 블록 내의 데이터 스트림은 그대로 ECCBank 메모리에 남겨 둔다. 그리고, 재기록 위치 이후의 싱크 블록에 새롭게 입력되는 데이터 스트림을 겹쳐 기입하고, ECCBank 메모리 상에서 합성한다. 이 때, 이 새로운 데이터 스트림이 겹쳐 기입되어 합성된 ECCBank 메모리 내의 각 데이터 스트림에 대하여 각각 C2 패리티를 다시 생성한다.
그리고, 재생하는 데이터 스트림의 트랙 No.를 시인하면서 재생을 행하고, ECCBank에 첨부된 트랙 No.와 일치하는 트랙으로부터 연결 녹화를 행하도록 한다. 즉, 재기입하는 전후의 데이터 스트림을 자기 테이프(4) 상에 있어서 연속해 둠으로써, 연결 녹화를 개시하는 재기록 위치에서 특별한 처리를 실시하지 않고 원활한 재생을 실현할 수 있다.
계속해서, 상술한 바와 같이 기초 화상 데이터가 형성된 자기 테이프(4)의 재생 시에, AUX-V에 기록되어 있는 다음 픽처의 vbv_delay_n을 계승하여 인코더의 초기값으로서 설정하는 방법에 대하여 설명한다.
화상 데이터 처리 장치(1)는 재생 시에, AUX-V에 기록되어 있는 다음 픽처의 vbv_delay_n을 취득하고, 이를 인코더(13)에 있어서의 VBV 버퍼의 데이터 점유량(vbv_occupancy)으로 환산하고, 이 값을 인코더의 초기값으로서 설정한다. 이 VBV 버퍼는 디코더(25)에 있어서의 입력 버퍼에 대응하는 가상 버퍼로서 상정함으로써, 각 픽처마다 발생하는 부호량을 제어하기 위해 설치되는 것이다. 이 VBV 버퍼의 vbv_occupancy는 계승한 vbv_delay_n에 기초하여, 이하의 수학식 3에 의해 연산할 수 있다.
그런데, 이 수학식 3에 의해 구해진 vbv_occupancy는 화질에 있어서 최적의 값이 된다고는 할 수 없고, 언더플로우나 오버플로우가 발생하여, 계속적으로 화질을 열화시키는 경우가 있다. 이 때문에, 이 수학식 3에 의해 구해진 vbv_occupancy가 어떠한 값이더라도, VBV 버퍼의 용량에 따라서 이를 최적으로 컨트롤하여, 화질의 열화를 방지할 필요가 있다.
화상 데이터 처리 장치(1)는, 수학식 3에 의해 연산한 vbv_occupancy의 초기값(이하, 이 초기값을 vbv_occupancy_f라고 함)으로부터, 서서히 이 vbv_occupancy를 보정함으로써, 최적의 vbv_occupancy의 목표값(이하, 이 목표값을 vbv_occupancy_t라고 함)으로 천이시킨다. 구체적으로 설명하면, vbv_occupancy_f와 vbv_occupancy_t의 차분을 구함으로써, vbv_occupancy_t로 수속시키기 위해서 필요한 부호 발생 보정량을 구한다. 계속해서, 이 부호 발생 보정량을 vbv_occupancy_t로 천이시키는 데 필요한 GOP의 수(이하, 이 GOP의 수를 number_G0P라고 함)로 나눔으로써, 1GOP당 부호 발생량 보정값을 구한다. 즉, 이 부호 발생량 보정값은 이하의 식 4에 의해 연산할 수 있다.
이와 같이 화상 데이터 처리 장치(1)는, vbv_occupancy_f로부터 vbv_occupancy_t로 천이시키기 위해서 복수의 GOP를 소비한다. 즉, 목표로 하는 vbv_occupancy_t에 복수의 GOP 수(number_G0P)를 곱하여 서서히 보정할 수 있으므로, 1GOP당 보정량을 줄일 수 있어, 일시적인 화질의 열화를 억제할 수 있다.
도 9는 이 인코더(13)에 있어서의 부호량 제어의 흐름을 나타내고 있으며, 도면에서 화살표 방향은 시간 축을 나타내고 있다.
우선 단계 S11에서, 수학식 3으로부터 vbv_delay_n에 기초하여 연산한 vbv_occupancy_f와, vbv_occupancy_t와의 차분을 구한다. 계속해서, 단계 S12에서, 이 구해진 차분을 number_G0P로 나누어, 1GOP당 부호 발생량 보정값을 구한다. 계속해서, 단계 S13에서, 비트 레이트에 의해 제어된 각 GOP에서의 부호의 총 가산량에 대하여, 이 부호 발생량 보정값을 감산함으로써 보정한다.
한편, GOP 선두를 제외한 각 화상 데이터는 단계 S21에서, 각 프레임마다 remain_bit_GOP로부터 발생 부호량을 감산시킨다. 또한, GOP 선두에서는 단계 S22에서, 단계 S21를 거친 각 화상 데이터의 부호량에 대하여, 단계 S13에서 각 GOP마다 보정된 총 가산량이 가산되고, 또한 단계 S23의 1프레임 단위의 인코드 처리에 기초한 프레임내 발생 부호량이 감산된다. 인코더(13)는 이와 같이 하여 부호량 제어된 remain_bit_GOP를 얻을 수 있다. 이 remain_bit_GOP는 GOP 단위로 부호량을 컨트롤되어 있기 때문에, 계속적으로 화질이 열화하는 경우는 없어진다.
이 number_GOP는 어떠한 값으로 설정해도 되고, 일정한 값으로 고정해도 되고, vbv_occupancy_t-vbv_occupancy_f의 값에 따라 그 때마다 임의로 설정해도 된다. 만일, number_G0P를 일정한 값으로 고정하면, vbv_occupancy_t-vbv_occupancy_f의 값을 불문하고 각 GOP에 균등하게 할당할 수 있다. 또한, number_G0P를 vbv_occupancy_t-vbv_occupancy_f의 값에 따라 그 때마다 임의로 설정함으로써, 1GOP당 보정량을 최초로 정하고, 필요한 number_G0P를 뒤에서부터 설정하는 것도 가능하게 된다.
화상 데이터 처리 장치(1)는 상술한 remain_bit_GOP를 각 픽처에 할당한다. 이 때, 픽처 타입마다의 복잡도에 따라, 할당하는 부호량을 바꾸어도 된다.
예를 들면, I 픽처의 복잡도를 나타내는 계수를 Xi, P 픽처의 복잡도를 나타내는 계수를 Xp, B 픽처의 복잡도를 나타내는 계수를 Xb로 하고, GOP 내에 있어서의 P 픽처의 미부호화 매수를 Np, GOP 내에 있어서의 B 픽처의 미부호화 매수를 Nb로 할 때, I 픽처의 할당 계수 Y_i, P 픽처의 할당 계수 Y_p, B 픽처의 할당 계수 Y_b는, 각각 이하의 식 5, 식 6, 식 7에 의해 나타낼 수 있다.
여기서 remain_bit_GOP를 상술한 바와 같이 구해진 각 픽처의 할당 계수 Y_i, Y_p, Y_b에 의해 제산함으로써, 각 픽처 타입에 할당하는 부호량을 구할 수 있다. 또한, Xi, Xp, Xb의 각 초기값을 각각 1.39×bitrate, 0.52×bitrate, 0.37×bitrate로 해도 된다.
계속해서, 계승한 vbv_delay_n에 기초하여 연산한 vbv_occupancy_f의 값이 극단적으로 작은 경우에 있어서의 처리에 대하여 설명한다.
수학식 3에 의해 연산한 vbv_occupancy_f가 극단적으로 작으면, 식 4에 기초하여 vbv_occupancy_t로 천이시켜서도, 이하에 설명하는 이유에 의해 화질이 대폭 열화된다.
즉, 연결 녹화하는 다음 픽처의 발생 부호량과의 관계로, 극단적으로 vbv_occupancy_f가 작으면, 인코드 시에 VBV 버퍼의 언더플로우가 발생하지 않도록, 다음 픽처의 발생 부호량에 제약이 걸려, 화질이 열화된다. 또한 이러한 경우에, number_G0P를 일정한 값으로 고정하면, vbv_occupancy_t로 천이하기까지의 최초의 수 GOP는 극단적으로 vbv_occupancy가 낮은 상태이므로, 화질이 현저히 열화되고, 또한 최적의 vbv_occupancy_t로 천이할 때까지 장시간을 소비하므로, 빠른 시기에 화질을 개선할 수 없다. 또한, vbv_occupancy_t에의 천이 시간을 단축하기 위해서, 1GOP당 부호 발생 보정량을 크게 하면, vbv_occupancy_t로 천이할 때까지의 동안, 화질이 대폭 열화된다.
이 때문에, 본 발명에 따른 화상 데이터 처리 장치(1)에서는 이러한 화질의 열화를 억제하기 위하여, 수학식 3에 의해 연산한 vbv_occupancy_f에 대하여, 소정의 설정값을 하회하는 경우에 카피 픽처를 삽입함으로써, 대폭적인 화질 열화보다 오히려 화면의 홀드를 선택할 수 있도록 한다.
도 10의 (a)에 도시한 바와 같이 vbv_delay_n에 기초하여 연산한 vbv_occupancy_f가 설정값을 하회하는 경우에, 도 10의 (b)에 도시한 바와 같이 카피 픽처를 계속 삽입한다. 이에 의해, VBV 딜레이(vbv_delay_n2)는 t41로부터 t42의 시간대에 상당하게 되므로 외관상 커져, 이에 기초하여 연산된 vbv_occupancy_f2는 설정값을 상회한다. 이에 의해, 화면이 홀드되는 시간은 증가하지만, 화질의 열화를 억제할 수 있게 된다.
또한, 이 카피 픽처의 삽입 매수(N)는 다음 픽처의 vbv_delay_n2에 따라서 얻어지는 vbv_occupancy_f2가 설정값 이상이 되도록 계산하여 결정한다.
우선, 카피 픽처를 N매 삽입하면, 다음 픽처가 뽑혀지는 시각 t42이 N매분 지연되므로, vbv_delay_n2는 N매분 길어진다. 한편, 카피 픽처 1매의 전송 시간 FT의 N배만큼 다음 픽처가 뒤로 어긋나게 되므로, 그 만큼 vbv_delay_n2은 짧아진다.
여기서, 카피 픽처 1매의 표시 시간을 ET로 했을 때, vbv_delay_n2는 이하의 식 8에 의해 표시된다.
다시 말하면, 카피 픽처의 표시 시간 ET는 프레임 주파수가 29.97㎐일 때에 3003이 되고, 프레임 주파수가 25㎐일 때에는 3600이 된다.
카피 픽처의 매수(N)는 vbv_delay_n2이 vbv_occupancy의 설정값으로부터 수학식 3을 이용하여 연산한 vbv_delay의 설정값(vbv_delay_s) 이상이 되도록 계산하여 구한다. 즉, 상술한 수학식 8에 기초하여 이하에 나타내는 수학식 9를 도출할 수 있다.
이 수학식 9를 변형한 이하의 수학식 10에 의해, 카피 픽처의 삽입 매수(N)를 구한다.
본 발명을 적용한 화상 데이터 처리 장치(1)에서는, 이와 같이 연산한 카피 픽처를 N매 삽입함으로써 얻어지는 vbv_delay_n2를 취득하고, VBV 버퍼에 있어서의 데이터 점유량으로 환산하여 인코더의 초기값으로 할 수 있다. 이에 의해, 수학식 3에 의해 연산한 vbv_occupancy_f가 극단적으로 작은 경우에도, 대폭 화질을 열화시키지 않고 vbv_occupancy를 최적으로 컨트롤할 수 있다.
다음으로, 다른 전자 기기로부터 입력된 화상 데이터의 데이터 스트림을 연결 녹화하는 경우에 있어서, 계승한 vbv_delay_n의 값이 극단적으로 작을 때의 처리에 대하여 설명한다.
다른 전자 기기로부터 입력된 데이터 스트림을 연결 녹화하는 경우에는 카피 픽처 외에 스태핑 바이트를 삽입함으로써, vbv_occupancy를 컨트롤한다.
도 11에 도시한 바와 같이 vbv_delay_n에 기초하여 연산한 vbv_occupancy_f가 설정값을 하회하는 경우에, t51로부터 t52까지, 카피 픽처를 삽입하고, 또한 스태핑 바이트를 삽입한다.
이 카피 픽처의 매수나 스태핑 바이트의 양은 이하의 방법으로 결정할 수 있다.
우선, 기록 END점의 직후에 위치하는 다음 픽처의 AUX-V로부터 vbv_delay_n을 취득한다. 계속해서, 연결 녹화하는 화상 데이터가 다른 전자 기기로부터 공급되었을 때에, 해당 공급된 화상 데이터의 선두에 위치하는 I 픽처의 헤더로부터 VBV 딜레이를 취득하고, 이를 vbv_delay_n3으로 한다. 또한, 다음 픽처의 헤더로부터 400bps 단위로 표시되는 Bitrate를 취득한다.
이 때, 카피 픽처의 바이트 수를 B_copy로 했을 때, 그 전송 시간을 90㎑ 단위로 환산한 T_copy는 이하의 수학식 11로 나타낼 수 있다.
이 환산 계수는 90㎑ 단위에 있어서, 이하의 수학식 12에 의해 1800이 된다.
여기서, 취득한 VBV 딜레이의 차분값 VBVD_TN은 이하의 수학식 13에 의해 정의할 수 있다.
여기서, VBVD_TN≤O일 때, 카피 픽처의 매수(N_copy)를 O으로 하여, 스태핑 바이트의 삽입만 실행한다. 한편, VBVD_TN>O일 때, 이하의 수학식 14에 의해 구한 매수(N_copy)분, 카피 픽처를 삽입한다. 덧붙여서 말하면, 이 수학식 14에서는 구하는 N_copy를 정수로 반올림한다.
수학식 14에서, 정수로 반올림된 분을 수학식 15, 16에 의해 구해지는 스태핑 바이트(B_Stuf)에 의해 보충한다.
즉, 본 발명을 적용한 화상 데이터 처리 장치(1)는, 다른 전자 기기로부터 데이터 스트림이 입력된 경우에, 각각 취득한 vbv_delay_n과, vbv_delay_n3에 따라서, 카피 픽처를 삽입하고, 또는 스태핑 바이트를 삽입할 수 있다. 이에 의해, vbv_delay_n3에 대하여, vbv_delay_n이 어떠한 값이더라도, 카피 픽처를 삽입하고, 또한 스태핑 바이트를 삽입할 수 있으므로, 화질을 거의 열화시키지 않고 원하는 vbv_occupancy로 컨트롤할 수 있다.
기록 END점 직후의 픽처 타입이 P 픽처인 경우에, 해당 P 픽처로부터, I 픽처로 시작되는 다음 픽처를 연결 녹화하는 경우에는, 도 12에 도시한 바와 같이 시퀀스 헤더/GOP 헤더분만큼 레이트가 올라가게 된다. 이 때문에, 시퀀스 헤더/GOP 헤더분에 따른 VBV 딜레이를 보정값으로 하여, 구한 vbv_delay_n로부터 뺄 필요가 있다.
이 보정값을 계산할 때에는 정수로 스텝화한다. 이 정수에 의한 스텝화 시에, 우수리가 발생한 경우에는 반올림함으로써, 시퀀스 헤더/GOP 헤더분의 레이트를 낮추도록 한다. 연산한 보정값은 다음 픽처의 vbv_delay_n의 계승 시, 카피 픽처나 스태핑량의 계산 시에 이용한다.
계속해서, 연산한 카피 픽처나 스태핑의 기록 방법에 대하여 설명한다.
도 13에 도시한 바와 같이 자기 테이프 상에는 각각 AUX_V가 설정되고, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹이 이미 기록되어 있다. 다시 말하면, 도 13에 도시한 예에서는 기초 화상 데이터의 예로서, 화상 데이터 처리 장치(1)에 대하여 마지막으로 공급된 데이터 그룹 L이 나타나 있다.
이 데이터 그룹 L의 기록 END점 이후의 재기록 위치에는 1회째의 연결 녹화하는 다음 픽처를 포함하는 데이터 그룹 N1이 기록되게 된다. 이 데이터 그룹 N1에 있어서도 보조 데이터를 기록하기 위한 AUXV가 설정되어 있다.
또한, 데이터 그룹 L과 데이터 그룹 N1의 사이에는 삽입 보조 기록 영역(EditAUX_V_h)이 설정되고 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_h)이 기록된다. 이 EditPack_V_h는 VBV 버퍼의 비트 점유량에 따라 형성된다.
이 카피 픽처나 스태핑 바이트를 하나로 통합한 EditPack_V_h는 어디까지나 데이터 그룹 L이나 데이터 그룹 N1과 독립한 데이터 그룹으로서 기록한다. 이에 의해, 상황에 따라 이 EditPack_V_h만을 분리할 수 있게 된다. EditAUX_V_h에는 스태핑의 VBV 딜레이에 상당하는 값을 기록한다. 이 때, 데이터 그룹 N1의 AUX-V 기록되어 있는 vbv_delay_n을 계승하여, 이 EditAUX_V_h에 기록해도 된다.
이와 같이 1회째 연결 녹화가 행해진 기록 매체의 재기록 위치에서 다른 화상 데이터를 재차 녹화하는, 소위 2회째의 연결 녹화를 행하는 경우에는 이 EditPack_V_h를 분리하여 제거한다. 그리고, 도 13에 도시한 바와 같이 2회째의 연결 녹화를 행하는 데이터 그룹 N2가 기록된다. 이 데이터 그룹 N1에 있어서도 보조 데이터를 기록하기 위한 AUX_V가 설정되어 있다. 또한, 데이터 그룹 L과 데이터 그룹 N2의 사이에, 삽입 보조 기록 영역(EditAUX_V_h2)이 설정되고 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_h2)이 기록된다.
이와 같이 2회째 연결 녹화 시에, 1회째 연결 녹화 시에 기록한 EditPack_V_h를 제거함으로써, 다음과 같은 효과를 얻을 수 있다.
도 14는 1회째의 연결 녹화를 행한 데이터 그룹 N1의 선두를 재기록 위치로 하여, 2회째의 연결 녹화를 행하는 경우의, 시각에 대한 VBV 버퍼의 데이터 점유량을 나타내고 있다. 이 도 14에 도시된 바와 같이 데이터 그룹 N2의 VBV 딜레이(vbv_delay_h2)는 데이터 그룹 N1의 VBV 딜레이(vbv_delay_h1)보다 크고, 또한 데이터 그룹 L의 vbv_delay_n보다 작다. 이 때문에, vbv_delay_h2와 vbv_delay_n을 비교하여, 삽입하는 카피 픽처의 매수나 스태핑 바이트의 양을 정하면 충분한 데, 1회째 연결 녹화 시에서 vbv_delay_n과 vbv_delay_h1과의 관계에서, 이미 불필요한 스태핑 바이트 등이 EditPack_V_h를 통하여 기록되어 있다.
본 발명을 적용한 화상 데이터 처리 장치(1)에 따르면, 데이터 그룹 N2이 공급될 때까지, 1회째의 연결 녹화에 있어서의 스태핑 바이트 등을 포함하는 EditPack_V_h가 제거되어 있다. 이 때문에, vbv-delay-h1을 무시하여, vbv_delay_h2와 vbv_delay_n 사이에서, 삽입하는 스태핑 바이트의 양을 결정할 수 있다. 또한, 불필요한 스태핑 바이트 등이 기록되지 않아, 불필요한 화면 홀드의 발생을 억제할 수도 있게 된다.
한편, vbv_delay_n보다 vbv_delay_h1쪽이 크기 때문에 카피 픽처 및 스태핑 바이트가 삽입되는 경우에도, 데이터 그룹 N2이 공급될 때까지, EditPack_V_h가 제거되어 있다. 이 때문에, vbv_delay_h1을 무시하여, vbv_delay_h2와 vbv_delay_n 사이에서, 삽입하는 카피 픽처의 매수나 스태핑 바이트의 양을 결정할 수 있다. 또한, 불필요한 카피 픽처나 스태핑 바이트 등이 기록되지 않아, 인코드 후의 화질의 열화를 방지하여, 나아가서는 불필요한 화면 홀드를 억제할 수 있다.
또한, EditPack_V_h1가 스태핑 바이트만으로 구성되는 경우에는, 도 15에 도시한 바와 같이 해당 스태핑 바이트를 구성하는 ES에만 대하여 PES 헤더를 부가한다.
이에 의해, 스태핑 바이트만을 구성하는 ES를 다른 ES와 합쳐서 PES 패킷을 구성할 필요가 없어지고, 또한 스태핑의 경계가 명시되게 되므로, 디코드 시에 있어서, 해당 PES 헤더가 첨부된 스태핑 바이트를 용이하게 제거할 수 있다.
계속해서, 2회째의 연결 녹화 시에 있어서의 재기록 위치에 대하여 설명한다.
도 16은 t61로부터 시작되는 vbv_delay_n에 대하여, 카피 픽처나 스태핑을 삽입시켜 t62로부터 시작되는 vbv_delay_h1을 나타내고 있다. 이 때, 2회째의 연결 녹화가 행해지고, 또한 추가 스태핑이 첨부된 vbv_delay_h2는 t62으로부터 추가스태핑분만큼 지연된 t63으로부터 개시하게 된다.
이 때, vbv_delay_h2와 vbv_delay_n 사이에서, 정확한 추가 스태핑량을 결정해도, 기록 개시 위치를 t63이라고 하면, 2회째 연결 녹화 시에 있어서 제거되는 EditPack_V_h에서의 스태핑 바이트 등의 분만큼, 불필요한 화면 홀드가 발생한다. 이 때문에, 본 발명에서는 2회째의 연결 녹화 시에 있어서의 기록 개시 위치를 vbv_delay_n의 개시 시각인 t61로부터, 추가 스태핑량 지연시킨 시각 t71로 되도록 제어한다.
즉, 1회째의 연결 녹화 시에 있어서의 스태핑 바이트량이 기록된 EditPack_V_h를 한번 제거하고, vbv_delay_h2와 vbv_delay_n 사이에서 새롭게 추가스태핑량을 계산하고, 이 계산한 스태핑량을 다음 픽처의 앞에 삽입한다. 이에 따라, 불필요한 화면 홀드를 줄일 수 있다.
또한, EditAUX_V_h에는 카피 픽처인 것을 식별하기 위한 플래그나, 그 카피 픽처의 매수를 식별하기 위한 플래그를 기록해 두어도 된다.
또한, 카피 픽처와 스태핑 바이트의 양방을 자기 테이프(4) 상에 기록하는 경우에는 도 17에 도시한 바와 같이 우선 카피 픽처를 삽입하고, 그 후에 스태핑 바이트를 삽입한다. 이에 의해, 언더플로우의 발생을 방지할 수 있다.
또한, 본 발명은 상술한 실시 형태에 한정되는 것이 아니고, 예를 들면 자기 테이프(4)에 기록하는 경우뿐만 아니라, 다른 자기 디스크를 이용한 다른 기록 매체에도 적용 가능하다. 또한, 상술한 방법은 방송에도 적용할 수 있는 것은 물론이다.
상술한 바와 같이 본 발명은 MPEG 방식에 있어서, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로부터, I 픽처 또는 P 픽처의 VBV 딜레이를 취득하고, 다음 픽처의 VBV 딜레이(VBV_delay_N을 미리 취득하고, 또한 부호화된 화상 데이터를 데이터 그룹마다 기록 매체 상의 소정의 기록 영역에 기록할 때에, 취득한 VBV 딜레이를 데이터 그룹마다 설정된 보조 기록 영역에 기록하고, 또한 취득한 VBV_delay_N을 다음 픽처의 기록 영역에 따라 설정된 다음 픽처용 보조 기록 영역에 기록한다.
이에 의해, 본 발명은 재생 시에, 자기 테이프(4)로부터 vbv_delay_n을 판독하는 것만으로, VBV 버퍼에 있어서의 데이터 점유량으로 환산하여 인코더의 초기값으로서 설정할 수 있으므로, 1프레임의 사이즈가 변동하는 MPEG2 방식에 있어서도, 각 픽처의 발생 부호량을 제어할 수 있어, 입력 버퍼를 파탄시키지 않고 용이하게 연결 녹화를 행할 수 있다.

Claims (54)

  1. MPEG(Motion Picture Expert Group) 방식에 의해 부호화되고, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로 이루어지는 화상 데이터를 처리하는 화상 데이터 처리 장치에 있어서,
    상기 I 픽처 또는 상기 P 픽처의 VBV(Video Buffering Verifier) 딜레이를 취득하고, 최후의 픽처의 다음에 삽입해야 할 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하는 취득 수단과,
    부호화된 상기 화상 데이터를, 상기 데이터 그룹마다 상기 기록 매체 상의 소정의 기록 영역에 기록하고, 상기 취득 수단에 의해 취득된 상기 VBV 딜레이를 상기 데이터 그룹마다 설정된 보조 기록 영역에 기록하는 기록 수단을 구비하고,
    상기 기록 수단은, 상기 취득된 VBV_delay_N을 다음 픽처의 기록 영역에 따라서 설정된 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  2. 제1항에 있어서,
    상기 취득 수단은 상기 I 픽처 또는 상기 P 픽처의 DTS(Decoding Time Stamp)를 취득하고, 다음 픽처의 DTS를 미리 취득하고,
    상기 기록 수단은 상기 취득된 상기 DTS를 상기 보조 기록 영역에 기록하고, 상기 다음 픽처의 DTS를 상기 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  3. 제1항에 있어서,
    상기 기록 수단은 최후의 픽처인 것을 나타내는 최종 점 플래그를 상기 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  4. 제1항에 있어서,
    상기 취득 수단은 상기 VBV_delay_N을 최후의 픽처가 포함되는 최종 데이터 그룹에서의 I 픽처 또는 P 픽처의 VBV 딜레이(VBV_delay_L)와, 해당 최종 데이터 그룹의 전송 시간(FT) 및 표시 시간(ET)에 따라 취득하는 것을 특징으로 하는 화상 데이터 처리 장치.
  5. 제4항에 있어서,
    상기 취득 수단은 상기 VBV_delay_N을 VBV_delay_L+ET-FT로 하는 것을 특징으로 하는 화상 데이터 처리 장치.
  6. 제4항에 있어서,
    상기 취득 수단은 상기 FT를 상기 최종 데이터 그룹의 비트 수(d)와, 비트 레이트(Bitrate)로부터, 90000×d/Bitrate를 연산하여 얻는 것을 특징으로 하는 화상 데이터 처리 장치.
  7. 제1항에 있어서,
    상기 다음 픽처용 보조 기록 영역에 기입된 상기 VBV_delay_N에 기초하여, VBV(Video Buffering Verifier) 버퍼에 대한 비트 점유량을 환산하는 환산 수단을 포함하는 것을 특징으로 하는 화상 데이터 처리 장치.
  8. 제7항에 있어서,
    상기 환산 수단은 상기 비트 점유량을 VBV_delay_N×Bitrate/90000으로 하는 것을 특징으로 하는 화상 데이터 처리 장치.
  9. 제1항에 있어서,
    상기 기록 매체에서의 다음 픽처용 보조 기록 영역으로부터 판독한 VBV_delay_N에 기초하여, VBV 버퍼에 있어서의 비트 점유량의 초기값을 연산하는 연산 수단과,
    상기 연산 수단에 의해 연산된 상기 비트 점유량의 초기값과, 상기 비트 점유량에 있어서의 목표값을 비교하는 비교 수단과,
    상기 비교 수단에 의한 비교 결과에 따라, VBV 버퍼의 비트 점유량이 목표값으로 천이하도록, 부호화하는 화상 데이터에 대하여 각 GOP(Group of Pictures)마다 할당하는 비트량을 제어하는 제어 수단을 더 구비하는 것을 특징으로 하는 화상 데이터 처리 장치.
  10. 제9항에 있어서,
    상기 비교 수단은 상기 비트 점유량에 있어서의 목표값과 초기값 사이에서 차분을 구하고,
    상기 제어 수단은 상기 연산 수단에 의해 구해진 차분을 상기 GOP의 수로 나눈 값에 기초하여, 상기 각 GOP마다 할당하는 비트량을 제어하는 것을 특징으로 하는 화상 데이터 처리 장치.
  11. 제9항에 있어서,
    상기 제어 수단은 GOP마다 할당한 비트량을 픽처 타입에 따라, 해당 GOP를 구성하는 각 픽처에 다시 할당하는 것을 특징으로 하는 화상 데이터 처리 장치.
  12. 제9항에 있어서,
    상기 제어 수단은 상기 비트 점유량에 있어서의 초기값이 목표값보다 낮은 경우에, I 픽처의 앞에서, 전 픽처를 반복하여 표시하는 카피 픽처를 적어도 1매 이상 삽입하는 것을 특징으로 하는 화상 데이터 처리 장치.
  13. 제12항에 있어서,
    상기 제어 수단은 상기 비트 점유량에 있어서의 초기값이 설정값 R보다 낮은 경우에, 비디오 인코더의 초기값 VBV_delay_S를 VBV_delay_N과, 상기 카피 픽처의 삽입 매수(N)와, 카피 픽처의 표시 시간(ET)과, 카피 픽처의 전송 시간(FT)에 따라서 결정하는 것을 특징으로 하는 화상 데이터 처리 장치.
  14. 제13항에 있어서,
    상기 제어 수단은 VBV_delay_S를 이하의 식
    VBV_delay_S=VBV_delay_N+N×(ET-FT)
    에 기초하여 산출하는 것을 특징으로 하는 화상 데이터 처리 장치.
  15. 제12항에 있어서,
    상기 카피 픽처의 삽입 매수(N)는,
    N≥(설정값 R-VBV_delay_N)/(ET-FT)
    인 것을 특징으로 하는 화상 데이터 처리 장치.
  16. 제10항에 있어서,
    상기 비교 수단은 다른 전자 기기로부터 입력되는 화상 데이터의 선두에 위치하는 I 픽처의 VBV 딜레이(VBV_delay_I)를 판독하고, 상기 VBV_delay_N과, 상기 VBV-delay_I와의 차분을 구하고,
    상기 제어 수단은 해당 차분에 따라, 해당 I 픽처의 앞에 카피 픽처를 적어도 1매 이상 삽입하거나, 또는 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 장치.
  17. 제16항에 있어서,
    상기 제어 수단은 상기 VBV_delay_N과, 상기 VBV_delay_l과의 차분이 0 이하인 경우에, 카피 픽처를 삽입하지 않고 스태핑 바이트만 삽입하는 것을 특징으로 하는 화상 데이터 처리 장치.
  18. 제16항에 있어서,
    상기 제어 수단은 상기 VBV_delay_N과, 상기 VBV_delay_I와의 차분이 O보다 큰 경우에, 카피 픽처를 적어도 1매 이상 삽입하고, 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 장치.
  19. 제9항에 있어서,
    상기 제어 수단은 상기 기록 매체에서 마지막에 기록되어 있는 픽처가 P 픽처인 경우에, 시퀀스 헤더와 GOP 헤더의 사이즈에 따라, 상기 VBV_delay_N을 보정하는 것을 특징으로 하는 화상 데이터 처리 장치.
  20. 제1항에 있어서,
    상기 데이터 그룹이 이미 기록되어 있는 기록 매체의 편집점 상에, 편집되는 데이터 그룹(Pack_V_h)을 기록하고, VBV 버퍼의 비트 점유량에 따라, 해당 Pack_V_h의 앞에, 각각 삽입 보조 기록 영역(EditAUX_V_h)이 형성되고, 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_h)을 기록 매체 상에 기록하는 영역 기록 수단을 포함하고,
    상기 영역 기록 수단은 상기 기록 매체 상의 편집점에 상기 EditPack_V_h가 기록되어 있는 경우에, 해당 EditPack_V_h와 독립하여, 새롭게 입력된 데이터 그룹(Pack_V_n)의 앞에 위치하고, 각각 삽입 보조 기록 영역(EditAUX_V_n)이 형성되고 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_n)을 상기 편집점에 기초하여 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  21. 제20항에 있어서,
    상기 영역 기록 수단은 새롭게 입력된 Pack_V_n의 앞에 위치하는 EditPack_V_n을 상기 편집점에 기록할 때에 제거하는 것을 특징으로 하는 화상 데이터 처리 장치.
  22. 제20항에 있어서,
    상기 다음 픽처용 보조 기록 영역에 기록되어 있는 VBV_delay_N과, 상기 EditAUX_V_n에 기록되어 있는 VBV 딜레이(VBV_delay_n)를 판독하여 비교하는 딜레이 비교 수단과,
    상기 딜레이 비교 수단에 의한 비교 결과에 따라, 상기 EditPack_V_n을 구성하는 카피 픽처의 매수를 또는 스태핑 바이트를 제어하는 딜레이 제어 수단을 포함하는 것을 특징으로 하는 화상 데이터 처리 장치.
  23. 제20항에 있어서,
    상기 영역 기록 수단은 상기 EditPack_V_n을 구성하는 스태핑 바이트에 기초하는 VBV_delay_n을 상기 EditAUX_V_n에 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  24. 제20항에 있어서,
    상기 영역 기록 수단은 상기 EditPack_V_h가 스태핑 바이트만으로 구성되는 경우에, 해당 스태핑 바이트에 대하여, PTS와 DTS를 포함하지 않는 PES 헤더를 부가하는 것을 특징으로 하는 화상 데이터 처리 장치.
  25. 제20항에 있어서,
    상기 영역 기록 수단은 상기 기록 매체 상에서 이미 카피 픽처가 존재하는 경우에, 해당 카피 픽처를 식별하는 플래그를 상기 기록 매체 상에 기록하는 것을 특징으로 하는 화상 데이터 처리 장치.
  26. 제25항에 있어서,
    상기 영역 기록 수단은 상기 카피 픽처의 선두를 상기 편집점으로 하는 것을 특징으로 하는 화상 데이터 처리 장치.
  27. 상기 영역 기록 수단은 EditPack_V_h가 카피 픽처 및 스태핑 바이트의 쌍방으로 구성되어 있는 경우에, 기록 매체 상에 카피 픽처를 삽입한 후에 스태핑 바이트를 삽입하고,
    EditPack_V_n이 카피 픽처 및 스태핑 바이트의 쌍방으로 구성되어 있는 경우에, 기록 매체 상에 카피 픽처를 삽입한 후에 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 장치.
  28. MPEG 방식에 의해 부호화되고, I 픽처 또는 P 픽처를 선두로 하고, B 픽처를 포함하는 데이터 그룹으로 이루어지는 화상 데이터를 처리하는 화상 데이터 처리 방법에 있어서,
    상기 I 픽처 또는 상기 P 픽처의 VBV(Video Buffering Verifier) 딜레이를 취득하고, 최후의 픽처의 다음에 삽입해야 할 다음 픽처의 VBV 딜레이(VBV_delay_N)를 미리 취득하는 취득 단계와,
    부호화된 상기 화상 데이터를, 상기 데이터 그룹마다 상기 기록 매체 상의 소정의 기록 영역에 기록하고, 상기 취득 수단에 의해 취득된 상기 VBV 딜레이를 상기 데이터 그룹마다 설정된 보조 기록 영역에 기록하는 기록 단계를 포함하고,
    상기 기록 단계에서, 상기 취득된 VBV_delay_N을 다음 픽처의 기록 영역에 따라 설정된 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  29. 제28항에 있어서,
    상기 취득 단계에서, 상기 I 픽처 또는 상기 P 픽처의 DTS(Decoding Time Stamp)를 취득하여, 다음 픽처의 DTS를 미리 취득하고,
    상기 기록 단계에서, 상기 취득된 상기 DTS를 상기 보조 기록 영역에 기록하고, 상기 다음 픽처의 DTS를 상기 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  30. 제28항에 있어서,
    상기 기록 단계에서, 최후의 픽처인 것을 나타내는 최종 점 플래그를 상기 다음 픽처용 보조 기록 영역에 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  31. 제28항에 있어서,
    상기 취득 단계에서, 상기 VBV_delay_N을 최후의 픽처가 포함되는 최종 데이터 그룹에서의 I 픽처 또는 P 픽처의 VBV 딜레이(VBV_delay_L)와, 해당 최종 데이터 그룹의 전송 시간(FT) 및 표시 시간(ET)에 따라 취득하는 것을 특징으로 하는 화상 데이터 처리 방법.
  32. 제31항에 있어서,
    상기 취득 단계에서, 상기 VBV_delay_N을 VBV_delay_L+ET-FT로 하는 것을 특징으로 하는 화상 데이터 처리 방법.
  33. 제31항에 있어서,
    상기 취득 단계에서, 상기 FT를 상기 최종 데이터 그룹의 비트 수(d)와, 비트 레이트(Bitrate)로부터, 90000×d/Bitrate를 연산하여 얻는 것을 특징으로 하는 화상 데이터 처리 방법.
  34. 제28항에 있어서,
    상기 다음 픽처용 보조 기록 영역에 기입된 상기 VBV_delay_N에 기초하여, VBV 버퍼에 대한 비트 점유량을 환산하는 환산 단계를 더 포함하는 것을 특징으로 하는 화상 데이터 처리 방법.
  35. 제34항에 있어서,
    상기 환산 단계에서, 상기 비트 점유량을 VBV_delay_N×Bitrate/90000로 하는 것을 특징으로 하는 화상 데이터 처리 방법.
  36. 제28항에 있어서,
    상기 기록 매체에서의 다음 픽처용 보조 기록 영역으로부터 판독한 VBV_delay_N에 기초하여, VBV 버퍼에 있어서의 비트 점유량의 초기값을 연산하는 연산 단계와,
    상기 연산 수단에 의해 연산된 상기 비트 점유량의 초기값과, 상기 비트 점유량에 있어서의 목표값을 비교하는 비교 단계와,
    상기 비교 수단에 의한 비교 결과에 따라, VBV 버퍼의 비트 점유량이 목표값으로 천이하도록, 부호화하는 화상 데이터에 대하여 각 GOP(Group of Pictures)마다 할당하는 비트량을 제어하는 제어 단계를 더 포함하는 것을 특징으로 하는 화상 데이터 처리 방법.
  37. 제36항에 있어서,
    상기 비교 단계에서, 상기 비트 점유량에 있어서의 목표값과 초기값 사이에서 차분을 구하고, 상기 제어 단계에서, 상기 연산 수단에 의해 구해진 차분을 상기 GOP의 수로 나눈 값에 기초하여, 상기 각 GOP마다 할당하는 비트량을 제어하는 것을 특징으로 하는 화상 데이터 처리 방법.
  38. 제36항에 있어서,
    상기 제어 단계에서, GOP마다 할당한 비트량을 픽처 타입에 따라, 해당 GOP을 구성하는 각 픽처에 다시 할당하는 것을 특징으로 하는 화상 데이터 처리 방법.
  39. 제36항에 있어서,
    상기 제어 단계에서, 상기 비트 점유량에 있어서의 초기값이 목표값보다 낮은 경우에, I 픽처의 앞에서, 전 픽처를 반복 표시하는 카피 픽처를 적어도 1매 이상 삽입하는 것을 특징으로 하는 화상 데이터 처리 방법.
  40. 제39항에 있어서,
    상기 제어 단계에서, 상기 비트 점유량에 있어서의 초기값이 설정값 R보다 낮은 경우에, 비디오 인코더의 초기값 VBV_delay_S를, VBV_delay_N과, 상기 카피 픽처의 삽입 매수(N)와, 카피 픽처의 표시 시간(ET)과, 카피 픽처의 전송 시간(FT)에 따라서 결정하는 것을 특징으로 하는 화상 데이터 처리 방법.
  41. 제40항에 있어서,
    상기 제어 단계에서, VBV_delay_S를 이하의 식에 기초하여 산출하는 것 VBV_delay_S=VBV_delay_N+N×(ET-FT)을 특징으로 하는 화상 데이터 처리 방법.
  42. 제40항에 있어서,
    상기 카피 픽처의 삽입 매수(N)는,
    N≥(설정값 R-VBV_delay_N)/(ET-FT)
    인 것을 특징으로 하는 화상 데이터 처리 방법.
  43. 제37항에 있어서,
    상기 비교 단계에서, 다른 전자 기기로부터 입력되는 화상 데이터의 선두에 위치하는 I 픽처의 VBV 딜레이(VBV_delay_I)를 판독하고, 상기 VBV_delay_N과, 상기 VBV_delay_I와의 차분을 구하고,
    상기 제어 단계에서, 해당 차분에 따라서, 해당 I 픽처의 앞에 카피 픽처를 적어도 1매 이상 삽입하거나, 또는 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 방법.
  44. 제43항에 있어서,
    상기 제어 단계에서, 상기 VBV_delay_N과, 상기 VBV_delay_I와의 차분이 O 이하인 경우에, 카피 픽처를 삽입하지 않고 스태핑 바이트만 삽입하는 것을 특징으로 하는 화상 데이터 처리 방법.
  45. 제43항에 있어서,
    상기 제어 단계에서, 상기 VBV_delay_N과, 상기 VBV_delay_I와의 차분이 O보다 큰 경우에, 카피 픽처를 적어도 1매 이상 삽입하고, 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 방법.
  46. 제36항에 있어서,
    상기 제어 단계에서, 상기 기록 매체에서 마지막에 기록되어 있는 픽처가 P 픽처인 경우에, 시퀀스 헤더와 GOP 헤더의 사이즈에 따라서, 상기 VBV_delay_N을 보정하는 것을 특징으로 하는 화상 데이터 처리 방법.
  47. 제28항에 있어서,
    상기 데이터 그룹이 이미 기록되어 있는 기록 매체의 편집점 상에, 편집되는 데이터 그룹(Pack_V_h)을 기록하고, VBV 버퍼의 비트 점유량에 따라서, 해당 Pack_V_h의 앞에, 각각 삽입 보조 기록 영역(EditAUX_V_h)이 형성되고 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_h)을 기록 매체 상에 기록하는 영역 기록 단계를 더 갖고,
    상기 영역 기록 단계에서, 상기 기록 매체 상의 편집점에 상기 EditPack_V_h가 기록되어 있는 경우에, 해당 EditPack_V_h와 독립하여, 새롭게 입력된 데이터 그룹(Pack_V_n)의 앞에 위치하고, 각각 삽입 보조 기록 영역(EditAUX_V_n)이 형성되고 카피 픽처 및/또는 스태핑 바이트를 포함하는 삽입 데이터 그룹(EditPack_V_n)을, 상기 편집점에 기초하여 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  48. 제47항에 있어서,
    상기 영역 기록 단계에서, 새롭게 입력된 Pack_V_n의 앞에 위치하는 EditPack_V_n을, 상기 편집점에 기록할 때에 제거하는 것을 특징으로 하는 화상 데이터 처리 방법.
  49. 제47항에 있어서,
    상기 다음 픽처용 보조 기록 영역에 기록되어 있는 VBV_delay_N과, 상기 EditAUX_V_n에 기록되어 있는 VBV 딜레이(VBV_delay_n)를 판독하여 비교하는 딜레이 비교 단계와,
    상기 딜레이 비교 단계에 의한 비교 결과에 따라, 상기 EditPack_V_n을 구성하는 카피 픽처의 매수 또는 스태핑 바이트를 제어하는 딜레이 제어 단계를 더 포함하는 것을 특징으로 하는 화상 데이터 처리 방법.
  50. 제47항에 있어서,
    상기 영역 기록 단계에서, 상기 EditPack_V_n을 구성하는 스태핑 바이트에 기초하는 VBV_delay_n을 상기 EditAUX_V_n에 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  51. 제47항에 있어서,
    상기 영역 기록 단계에서, 상기 EditPack_V_h가 스태핑 바이트만으로 구성되는 경우에, 해당 스태핑 바이트에 대하여, PTS와 DTS를 포함하지 않는 PES 헤더를 부가하는 것을 특징으로 하는 화상 데이터 처리 방법.
  52. 제47항에 있어서,
    상기 영역 기록 단계에서, 상기 기록 매체 상에서 이미 카피 픽처가 존재하는 경우에, 해당 카피 픽처를 식별하는 플래그를 상기 기록 매체 상에 기록하는 것을 특징으로 하는 화상 데이터 처리 방법.
  53. 제52항에 있어서,
    상기 카피 픽처의 선두를 상기 편집점으로 하는 것을 특징으로 하는 화상 데이터 처리 방법.
  54. 제52항에 있어서,
    상기 영역 기록 단계에서, EditPack_V_h가 카피 픽처 및 스태핑 바이트의 쌍방으로 구성되어 있는 경우에, 기록 매체 상에 카피 픽처를 삽입한 후에 스태핑 바이트를 삽입하고, EditPack_V_n이 카피 픽처 및 스태핑 바이트의 쌍방으로 구성되어 있는 경우에, 기록 매체 상에 카피 픽처를 삽입한 후에 스태핑 바이트를 삽입하는 것을 특징으로 하는 화상 데이터 처리 방법.
KR1020057000387A 2002-07-08 2003-07-02 화상 데이터 처리 장치 및 방법 KR20050025330A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002199071A JP3736503B2 (ja) 2002-07-08 2002-07-08 画像データ処理装置及び方法
JPJP-P-2002-00199071 2002-07-08

Publications (1)

Publication Number Publication Date
KR20050025330A true KR20050025330A (ko) 2005-03-14

Family

ID=30112447

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057000387A KR20050025330A (ko) 2002-07-08 2003-07-02 화상 데이터 처리 장치 및 방법

Country Status (6)

Country Link
US (1) US20060153538A1 (ko)
EP (1) EP1534006A4 (ko)
JP (1) JP3736503B2 (ko)
KR (1) KR20050025330A (ko)
CN (1) CN100417216C (ko)
WO (1) WO2004006573A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834322B1 (ko) * 2005-10-03 2008-06-02 엔이씨 일렉트로닉스 가부시키가이샤 이미지 인코딩 장치, 화상 인코딩 방법 및 이미지 편집장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714302B2 (ja) * 2002-07-08 2005-11-09 ソニー株式会社 画像データ処理装置及び方法
JP2006066039A (ja) * 2004-08-30 2006-03-09 Sony Corp つなぎ記録方法及び記録再生装置
US8824855B2 (en) * 2007-12-13 2014-09-02 Arris Solutions, Inc. Digital program splice visual quality
US8718148B2 (en) * 2010-03-11 2014-05-06 Sony Corporation Information processing apparatus, information processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9424436D0 (en) * 1994-12-02 1995-01-18 Philips Electronics Video editing buffer management
US6034731A (en) * 1997-08-13 2000-03-07 Sarnoff Corporation MPEG frame processing method and apparatus
JP4232209B2 (ja) * 1998-01-19 2009-03-04 ソニー株式会社 圧縮画像データの編集装置及び圧縮画像データの編集方法
JP4053668B2 (ja) * 1998-09-16 2008-02-27 パイオニア株式会社 情報記録装置及び情報記録方法
JP4069524B2 (ja) * 1998-11-10 2008-04-02 ソニー株式会社 伝送方法及び装置
JP2001275077A (ja) * 2000-03-27 2001-10-05 Sony Corp 磁気テープ記録装置および方法、磁気テープ再生装置および方法、磁気テープのフォーマット、並びに記録媒体
US7292782B2 (en) * 2000-09-27 2007-11-06 Victor Company Of Japan, Limited MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834322B1 (ko) * 2005-10-03 2008-06-02 엔이씨 일렉트로닉스 가부시키가이샤 이미지 인코딩 장치, 화상 인코딩 방법 및 이미지 편집장치

Also Published As

Publication number Publication date
CN1669312A (zh) 2005-09-14
EP1534006A4 (en) 2009-08-12
CN100417216C (zh) 2008-09-03
WO2004006573A1 (ja) 2004-01-15
JP3736503B2 (ja) 2006-01-18
EP1534006A1 (en) 2005-05-25
JP2004048102A (ja) 2004-02-12
US20060153538A1 (en) 2006-07-13

Similar Documents

Publication Publication Date Title
US5740307A (en) Methods for monitoring a trick play data stream to insure MPEG compliance
KR100811962B1 (ko) 기록 장치 및 기록 방법, 재생 장치 및 재생 방법과 그기록 매체
JP3172635B2 (ja) ディジタル記録再生装置
US6654544B1 (en) Video data recording apparatus, video data recording method, video data reproducing apparatus, video data reproducing method, video data recording and reproducing apparatus, and video data recording and reproduction method
EP1565008A2 (en) Reproducing apparatus
US6314139B1 (en) Method of inserting editable point and encoder apparatus applying the same
KR100796885B1 (ko) 신호 프로세서
EP1052851A1 (en) Recording/reproducing apparatus and method
KR100975170B1 (ko) 화상 데이터 재생 장치 및 방법
KR20040080930A (ko) 정보 처리 장치 및 방법
JP3736503B2 (ja) 画像データ処理装置及び方法
JP3714302B2 (ja) 画像データ処理装置及び方法
WO2001041436A1 (en) Recording apparatus and method, and reproducing apparatus and method
JP3736504B2 (ja) 画像データ処理装置及び方法
US7239795B2 (en) Picture data reproducing apparatus and method
JP4038949B2 (ja) 再生装置および方法
JP2001155437A (ja) 記録装置および方法
JP2001268513A (ja) 動画像再生装置および動画像記録再生システム
JP2003009087A (ja) 記録装置および方法
JP2001218161A (ja) 記録装置および方法、ならびに、再生装置および方法
JP2000134577A (ja) データ記録再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application