KR20060069527A - Grouping of image frames in video coding - Google Patents

Grouping of image frames in video coding Download PDF

Info

Publication number
KR20060069527A
KR20060069527A KR1020067008830A KR20067008830A KR20060069527A KR 20060069527 A KR20060069527 A KR 20060069527A KR 1020067008830 A KR1020067008830 A KR 1020067008830A KR 20067008830 A KR20067008830 A KR 20067008830A KR 20060069527 A KR20060069527 A KR 20060069527A
Authority
KR
South Korea
Prior art keywords
image frames
image
frames
numbering
frame
Prior art date
Application number
KR1020067008830A
Other languages
Korean (ko)
Other versions
KR100959573B1 (en
Inventor
미스카 한누크셀라
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=27614673&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20060069527(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from FI20020127A external-priority patent/FI114527B/en
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20060069527A publication Critical patent/KR20060069527A/en
Application granted granted Critical
Publication of KR100959573B1 publication Critical patent/KR100959573B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

A method for coding video frames for forming a scalable, compressed video sequence comprising video frames coded according to at least a first and a second frame format. The video frames of the first frame format are independent video frames, and the video frames of the second frame format are predicted from at least one of the other video frames. The video sequence has a first sub-sequence determined therein, at least part of the first sub-sequence being formed by coding at least video frames of the first frame format; and with at least a second sub-sequence, at least part of which is formed by coding video frames of the second frame format, and at least one video frame of the second sub-sequence having been predicted from at least one video frame of the first sub-sequence. Frame identifier data of the second sub- sequence is determined into the video sequence.

Description

비디오 코딩시 이미지 프레임들의 그루핑{Grouping of image frames in video coding}Grouping of image frames in video coding

이하에서, 본 발명은 첨부된 도면 및 바람직한 실시예들과 관련지어 설명될 것이다.In the following, the invention will be described in connection with the accompanying drawings and preferred embodiments.

도 1은 본 발명의 스케일 가능 코딩 계층이 적용될 수 있는 일반 멀티미디어 데이터 스트리밍 시스템을 도시한 것이다.1 illustrates a general multimedia data streaming system to which the scalable coding layer of the present invention may be applied.

도 2는 본 발명의 바람직한 실시예의 스케일 가능 코딩 계층을 도시한 것이다.2 illustrates a scalable coding layer of a preferred embodiment of the present invention.

도 3a 및 3b는 스케일 가능성의 조정을 위한 본 발명의 실시예들을 도시한 것이다.3A and 3B illustrate embodiments of the present invention for adjusting the scalability.

도 4a, 4b 및 4c는 이미지 번호매김을 조정하기 위한 본 발명의 실시예들을 도시한 것이다.4A, 4B and 4C illustrate embodiments of the present invention for adjusting image numbering.

도 5a, 5b 및 5c는 한 스케일 가능 코딩 계층에서 B-프레임들을 이용하기 위한 본 발명의 실시예들을 도시한 것이다.5A, 5B and 5C illustrate embodiments of the present invention for using B-frames in one scalable coding layer.

도 6a, 6b 및 6c는 참조 화상 선택과 연관하여 본 발명의 바람직한 스케일 가능 코딩 계층들을 도시한 것이다.6A, 6B and 6C illustrate preferred scalable coding layers of the present invention in connection with reference picture selection.

도 7은 코딩 장면 천이를 위한 본 발명의 바람직한 실시예에 따른 구성을 도 시한 것이다.7 illustrates a configuration according to a preferred embodiment of the present invention for coding scene transition.

본 발명은 멀티미디어 파일들의 그루핑에 관한 것으로, 보다 상세하게는 특히 스트리밍과 관련한 비디오 파일들의 그루핑에 관한 것이다.The present invention relates to the grouping of multimedia files, and more particularly to the grouping of video files in connection with streaming.

'스트리밍'이라는 용어는 데이터의 보통 오디오 및 비디오 파일들과 같은 멀티미디어 데이터인 데이터의 동시적 송신 및 재생을 일컫는 것으로, 수신자는 전송될 모든 데이터가 수신되기 전에 이미 데이터 재생을 시작한다. 멀티미디어 데이터 스트리밍 시스템은 스트리밍 서버와, 일반적으로 통신 네트웍을 통해 스트리밍 서버로의 데이터 접속을 설정하기 위해 수신자가 이용하는 단말 장치들을 포함한다. 스트리밍 서버로부터 수신자들은 저장되었거나 실시간인 멀티미디어 데이터를 검색하며, 그리고 나서 그 멀티미디어 데이터의 재생이, 단말에 포함된 스트리밍 어플리케이션에 의해, 가장 바람직하게는 데이터 전송 실시간으로 시작될 수 있다.The term 'streaming' refers to the simultaneous transmission and reproduction of data, which is usually multimedia data such as audio and video files of data, and the receiver already starts playing the data before all the data to be transmitted has been received. A multimedia data streaming system includes a streaming server and terminal devices typically used by the receiver to establish a data connection to the streaming server via a communication network. Recipients from the streaming server retrieve the stored or real-time multimedia data, and then the playback of the multimedia data can be started by the streaming application included in the terminal, most preferably in real time with the data transmission.

스트리밍 서버의 관점에서 보면, 스트리밍은 단말로의 일반 스트리밍(normal streaming)이나 연속 다운로딩(progressive downloading)으로서 이뤄질 수 있다. 일반 스트리밍시 멀티미디어 데이터 및/또는 데이터 컨텐츠의 전송은, 전송 비트율이 단말 장치의 재생 레이트와 실질적으로 일치한다는 것을 보장하거나, 전송에 사용된 통신 네트웍이 데이터 전송의 애로사항을 야기할 때 그 전송 비트율이 통신 네트웍에 사용 가능한 대역폭과 실질적으로 일치함을 보장함으로써 제어된다. 연 속 다운로딩시 멀티미디어 및/또는 데이터 컨텐츠의 전송은 반드시 조금이라도 방해 받을 필요가 없지만, 멀티미디어 파일들은 보통 전송 프로토콜 플로우 제어에 의해 수신자에게 전송된다. 그리고 나서 단말들은 서버로부터 전송된 데이터의 동일 사본을 수신, 저장 및 재생하며, 그러면 그 사본은 통신 네트웍을 통해 다시 스트리밍을 시작할 필요 없이 이 단말에서 나중에 다시 재생될 수 있다. 단말에 저장된 멀티미디어 파일들은 그러나 보통 매우 크기 때문에, 그 파일들의 단말로의 전송은 시간을 소모하게 되며, 거대한 저장 메모리 용량을 필요로 한다. 이것이 흔히 일반 스트림이 선호되는 이유가 된다.From the point of view of the streaming server, the streaming can be done as normal streaming or progressive downloading to the terminal. The transmission of multimedia data and / or data content during normal streaming ensures that the transmission bit rate substantially matches the playback rate of the terminal device, or when the communication network used for transmission causes difficulties in data transmission. It is controlled by ensuring that it substantially matches the bandwidth available for this communication network. The transmission of multimedia and / or data content in continuous downloading does not necessarily have to be interrupted at all, but the multimedia files are usually transmitted to the receiver by transport protocol flow control. The terminals then receive, store and play the same copy of the data sent from the server, which can then be played back later on this terminal without having to start streaming again over the communication network. Since multimedia files stored on the terminal are usually very large, the transfer of the files to the terminal is time consuming and requires huge storage memory capacity. This is often why generic streams are preferred.

멀티미디어 파일 내 비디오 파일들은 수많은 정지 영상 프레임들을 구비하며, 이들은 연달아(보통 초당 15에서 30 프레임씩) 빠르게 디스플레이 되어져 동영상의 효과를 만든다. 이미지 프레임들은 보통 실질적으로 변함 없는 상태를 유지하는 이미지 정보에 의해 결정되는 다수의 정적 배경 오브젝트들과, 어느 정도 변화하는 이미지 정보에 의해 결정되는 약간의 동적 오브젝트들을 구비한다. 연속적으로 디스플레이되는 이미지 프레임에 의해 구성되는 정보는 일반적으로 매우 유사하다. 즉, 일련의 이미지 프레임들은 상당한 량의 여분(redundancy)을 포함한다. 비디오 파일들에 나타나는 여분은 공간적, 시간적, 및 스펙트럼적 여분들로 나눠진다. 공간적 여분은 인접한 이미지 픽셀들의 상호 상관과 관련되고, 시간적 여분은 잇따른 프레임들 내 특정 이미지 오브젝트들에서 발생하는 변화와 관련되며, 스펙트럼적 여분은 한 이미지 프레임 내 상이한 컬러 성분들의 상관과 관련된다.Video files in multimedia files have numerous still picture frames, which are displayed in quick succession (usually 15 to 30 frames per second) to create the effect of the video. Image frames usually have a number of static background objects determined by image information that remains substantially unchanged, and some dynamic objects determined by somewhat varying image information. The information organized by successively displayed image frames is generally very similar. That is, a series of image frames contain a significant amount of redundancy. The extras that appear in the video files are divided into spatial, temporal, and spectral extras. Spatial redundancy relates to the cross-correlation of adjacent image pixels, temporal redundancy relates to changes occurring in particular image objects in subsequent frames, and spectral redundancy relates to the correlation of different color components in one image frame.

비디오 파일들 내의 데이터 량을 줄이기 위해, 이미지 데이터는 이미지 프레 임들의 여분 정보량을 줄임으로써 보다 작은 형태로 압축될 수 있다. 또, 부호화 중에, 현재 사용되는 대부분의 비디오 인코더들은 비디오 정보에서 덜 중요한 이미지 프레임 섹션의 화질을 저하시킨다. 또, 많은 비디오 코딩 방법들이 이미지 데이터로부터 코딩된 비트 스트림의 여분이 VLC(가변장 코딩)라고 알려진 압축 패러미터들의 효율적이고도 손실없는 코딩에 의해 감축되는 것을 가능하게 한다.In order to reduce the amount of data in the video files, the image data can be compressed into smaller forms by reducing the amount of redundant information in the image frames. In addition, during encoding, most video encoders currently used deteriorate the picture quality of image frame sections that are less important in video information. In addition, many video coding methods allow the redundancy of the coded bit stream from the image data to be reduced by efficient and lossless coding of compression parameters known as VLC (variable coding).

또, 많은 비디오 코딩 방법들은 일련의 이미지 프레임들의 상술한 시간적 여분을 활용한다. 이 경우, 모션-보상된 시간 예측이라고 알려진 방식이 사용된다. 즉, 한 비디오 시퀀스 내 이미지 프레임들 중 일부(보통 대부분)의 컨텐츠들이, 잇따른 이미지 프레임들의 특정 오브젝트들 또는 영역들의 변화 추적에 의해 그 시퀀스 내 다른 프레임들로부터 예측되어진다. 비디오 시퀀스는, 이미지 정보가 모션-보상된 시간적 예측을 사용해 결정되어지지 않은 약간의 압축 이미지 프레임들을 항상 구비한다. 이러한 프레임들을 INTRA(인트라)-프레임들, 또는 I-프레임들이라 부른다. 이와 마찬가지로, 이전 이미지 프레임들로부터 예측된 모션-보상 비디오 시퀀스 이미지 프레임들을 INTER(인터)-프레임들, 또는 P-프레임들(Predicted)이라 부른다. P-프레임들의 이미지 정보는 하나의 I-프레임과 가능하면 하나 이상의 이전에 코딩된 P-프레임들을 이용해 정해진다. 한 프레임을 잃으면, 그 프레임에 종속된 프레임들이 더 이상 올바르게 디코딩될 수 없다.In addition, many video coding methods utilize the aforementioned temporal redundancy of a series of image frames. In this case, a scheme known as motion-compensated time prediction is used. That is, the contents of some (usually most) of the image frames in a video sequence are predicted from other frames in the sequence by tracking changes in specific objects or regions of subsequent image frames. The video sequence always has some compressed image frames whose image information has not been determined using motion-compensated temporal prediction. Such frames are called INTRA-frames, or I-frames. Similarly, motion-compensated video sequence image frames predicted from previous image frames are called INTER-frames, or P-frames (Predicted). Image information of P-frames is determined using one I-frame and possibly one or more previously coded P-frames. If one frame is lost, the frames that depend on that frame can no longer be decoded correctly.

한 I-프레임이 보통 화상 그룹(Group of Pictures, GOP)이라고 규정된 비디오 시퀀스를 일으키며, 그것의 P-프레임들은 오직 상기 I-프레임과 해당 GOP의 이전 P-프레임들에 기초해 정해질 수 있다. 다음 I-프레임은 새로운 화상 그룹(GOP) 을 시작하며, 그에 따라 구비된 이미지 정보는 이전 GOP의 프레임들에 기초해 정해질 수 없다. 즉, 화상 그룹들은 시간적으로 오버랩(중복)되지 않으며, 각 화상 그룹은 따로 따로 디코딩 될 수 있다는 것이다. 또, 많은 비디오 압축 방식들이 양방향 예측 B-프레임들(Bi-directional)을 이용하며, 이 프레임들은 화상 그룹 GOP 안의 두 앵커(anchor) 프레임들 (I- 및 P-프레임들, 또는 두개의 P-프레임들) 사이에 설정되고, B-프레임의 이미지 정보는 이전의 앵커 프레임과 그 B-프레임에 이어지는 것 모두로부터 예측된다. 따라서 B-프레임들은 P-프레임들 보다 높은 화질의 이미지 정보를 제공하나, 일반적으로 앵커 프레임들로 사용되지는 않기 때문에, 비디오 시퀀스로부터 B-프레임들을 제거하는 것이 일련의 이미지들의 화질을 저하시키지 않는다. 그러나, 어떤 것도 B-프레임들이 앵커 프레임들로도 역시 사용되는 것을 막지는 않으며, 다만 그런 경우에는 B-프레임들에 종속된 프레임들의 화질을 저하시키지 않으면서 B-프레임들이 비디오 시퀀스로부터 제거될 수는 없다.An I-frame usually produces a video sequence defined as a Group of Pictures (GOP), whose P-frames can only be determined based on the I-frame and the previous P-frames of that GOP. . The next I-frame starts a new picture group (GOP), and thus the provided image information cannot be determined based on the frames of the previous GOP. That is, picture groups are not overlapped in time, and each picture group can be decoded separately. In addition, many video compression schemes use bi-predictive B-frames, which are two anchor frames (I- and P-frames, or two P-) in a picture group GOP. Frames), the image information of the B-frame is predicted from both the previous anchor frame and what follows the B-frame. Thus, B-frames provide higher quality image information than P-frames, but are not generally used as anchor frames, so removing B-frames from a video sequence does not degrade the quality of a series of images. . However, nothing prevents B-frames from being used also as anchor frames, in which case B-frames cannot be removed from the video sequence without degrading the picture quality of the frames dependent on the B-frames. .

각 비디오 프레임은 직사각형 이미지 영역으로 된 모든 픽셀들의 컬러 성분들(Y, U, V 와 같은)을 포함하는 매크로블록들로서 알려진 것으로 분할될 수 있다. 보다 구체적으로 말해, 하나의 매크로블록은 컬러 성분 당 적어도 하나의 블록으로 이뤄지며, 블록들 각각은 관련 이미지 영역 내 하나의 컬러 레벨의 컬러 값들(Y, U, 또는 V 등의)을 포함한다. 블록들의 공간 분해능은 매크로블록들의 분해능과는 다를 수 있는데, 예를 들면, U- 및 V 성분들은 Y-성분 분해능의 오직 절반만을 이용해 디스플레이될 수 있다. 매크로블록들은 가령, 일반적으로 이미지의 스캐닝(주사) 순서로 선택되는 매크로블록들의 그룹들인 슬라이스들로 더 그루핑될 수 있 다. 시간적 예측은 비디오 코딩 방법들에서 보통 이미지 프레임에 특정하게 되는 대신 블록이나 매크로블록에 특정하게 수행된다.Each video frame can be divided into what is known as macroblocks containing the color components (such as Y, U, V) of all pixels in a rectangular image area. More specifically, one macroblock consists of at least one block per color component, each of which contains color values (such as Y, U, or V) of one color level in the associated image region. The spatial resolution of the blocks may differ from the resolution of the macroblocks, for example, the U- and V components can be displayed using only half of the Y-component resolution. Macroblocks can be further grouped into slices, for example, groups of macroblocks that are generally selected in the scanning (scanning) order of an image. Temporal prediction is performed specific to a block or macroblock instead of being specific to an image frame in video coding methods.

비디오 파일들의 융통성있는 스트리밍을 허용하도록, 많은 비디오 코딩 시스템들이 스케일 가능(scalable) 코딩을 이용하며, 이 코딩에서 한 시퀀스의 일부 요소들이나 요소 그룹들이 그 비디오 시퀀스의 다른 부분들에 대한 재구성에 영향을 미치지 않으면서 제거될 수 있다. 스케일 가능성은 보통 이미지 프레임들을 다수의 계층적 레이어들로 그루핑함으로써 구현된다. 기본 계층 스케일 가능성의 이미지 프레임들로 코딩된 이미지 프레임들은 수신단에서의 비디오 정보 디코딩을 위해 강제되는 것들만을 구비한다. 따라서 각 화상 그룹 GOP의 기본 계층은 하나의 I-프레임과 필요한 개수의 P-프레임들을 포함한다. 하나 이상의 인핸스먼트(enhancement) 계층들이 기본 계층 아래에서 결정될 수 있으며, 이 인핸스먼트 계층들 각각은 상위의 계층과 비교해 비디오 코딩의 품질을 향상시킨다. 따라서 인핸스먼트 계층은 하나 이상의 상위 계층 이미지들로부터의 모션-보상에 기반해 예측된 P- 또는 B-프레임들을 포함한다. 그 프레임들은 보통 수리적 시리즈에 따라 번호가 매겨진다.To allow for flexible streaming of video files, many video coding systems use scalable coding, where some elements or groups of elements in a sequence affect the reconstruction of other parts of the video sequence. Can be removed without reaching. Scalability is usually implemented by grouping image frames into multiple hierarchical layers. Image frames coded with image layers of base layer scalability have only those that are forced for decoding video information at the receiving end. Thus, the base layer of each picture group GOP includes one I-frame and the required number of P-frames. One or more enhancement layers may be determined below the base layer, each of which enhances the quality of video coding compared to the upper layer. Thus, the enhancement layer includes predicted P- or B-frames based on motion-compensation from one or more higher layer images. The frames are usually numbered according to the hydraulic series.

스트리밍시, 전송 비트율은 사용될 대역폭이나 수신자의 최대 디코딩 또는 비트율 값에 기반하여 제어될 수 있어야 한다. 비트율은 스트리밍 서버나, 인터넷 라우터 또는 이동 통신 네트웍의 기지국과 같은 통신 네트웍의 어떤 구성요소에서 제어될 수 있다. 비트율을 제어하기 위한 스트리밍 서버의 가장 간단한 수단이 전송시 고도의 정보 컨텐트를 가진 B-프레임들을 누락시키는 것이다. 또, 스트리밍 서버가 비디오 스트림에서 전송될 스케일 가능 계층들의 개수를 결정할 수도 있으며, 그에 따라 스케일 가능 계층들의 개수는 새로운 화상 그룹 GOP가 시작될 때 항상 변화될 것이다. 서로 다른 비디오 시퀀스 코딩 방법들을 사용하는 것 역시 가능하다. 그에 따라, B-프레임들은 인핸스먼트 계층들의 다른 P-프레임들과 마찬가지로 통신 네트웍 구성 요소의 비트 스트림으로부터 제거될 수 있다. In streaming, the transmission bit rate must be able to be controlled based on the bandwidth to be used or the maximum decoding or bit rate value of the receiver. The bit rate can be controlled by any component of the communication network, such as a streaming server, an internet router or a base station of a mobile communication network. The simplest means of a streaming server to control the bit rate is to omit B-frames with highly informational content in transmission. In addition, the streaming server may determine the number of scalable layers to be transmitted in the video stream, such that the number of scalable layers will always change when a new picture group GOP is started. It is also possible to use different video sequence coding methods. As such, B-frames may be removed from the bit stream of the communication network component like other P-frames of the enhancement layers.

상술한 구성은 여러 결함들을 수반한다. ITU-T(국제 전기토신 연합, 전기통신 표준화 섹터) 표준 H.263과 같은 많은 코딩 방법들은 참조 화상 선택이라 불리는 절차에 익숙하다. 참고 화상 선택시 적어도 P-이미지의 일부가 시간 도메인의 바로 전 P-프레임이 아닌 적어도 다른 한 이미지로부터 예측되었다. 선택된 참조 이미지는 코딩된 비트 스트림이나 비트 스트림 헤더 필드로, 이미지에 특정하거나, 이미지-세그먼트에 특정하거나 (슬라이스나 매크로블록들의 그룹 등), 매크로블록에 특정하거나, 또는 블록에 특정하게 시그날링된다. 참조 화상 선택은, 코딩될 이미지에 시간적으로 잇따르는 이미지들로부터 예측 역시 이뤄질 수 있도록 일반화될 수 있다. 또, 참조 화상 선택은 B-프레임들을 포함해 시간적으로 예측된 프레임 종류들을 모두 커버하도록 일반화될 수 있다. 참조 이미지로서 화상 그룹 GOP를 시작하는 I-이미지에 선행하는 적어도 하나의 이미지를 선택하는 것 역시 가능하므로, 참조 화상 선택을 이용하는 화상 그룹이 반드시 독자적으로 디코딩될 수 있는 것은 아니다. 또, 스트리밍 서버나 네트웍 구성요소에서 스케일 가능성이나 코딩 방식의 조정이 어려워지는데, 그것은 상이한 이미지 그룹들 사이의 어떤 종속성이라도 검출 될 수 있도록 하기 위해, 비디오 시퀀스는 긴 시간 주기 동안 디코 딩, 분석 및 버퍼링되어야 하기 때문이다.The above configuration involves several defects. Many coding methods, such as the ITU-T (International Telecommunication Union, Telecommunication Standardization Sector) standard H.263, are familiar with a procedure called reference picture selection. At least a portion of the P-image in selecting the reference picture was predicted from at least one other image than the P-frame just before the time domain. The selected reference image is a coded bit stream or bit stream header field, which is specific to the image, specific to the image-segment (such as a slice or group of macroblocks), specific to a macroblock, or signal specific to the block. . The reference picture selection can be generalized so that prediction can also be made from images subsequent to the image to be coded. In addition, reference picture selection may be generalized to cover all temporally predicted frame types, including B-frames. Since it is also possible to select at least one image preceding the I-image starting the picture group GOP as the reference image, the picture group using the reference picture selection may not necessarily be decoded independently. In addition, scaling or coding schemes become difficult to adjust in streaming servers or network components, which allows video sequences to be decoded, analyzed and buffered over long periods of time to ensure that any dependencies between different image groups can be detected. Because it must be.

또 다른 문제가 다른 비디오 시퀀스 중간에 한 비디오 시퀀스를 삽입하는 것과 관련되며, 이것은 보통 이미지 번호 매기기에서의 불연속성을 야기하였다. 비디오 시퀀스 이미지들의 번호 매김은 일반적으로 이미지 프레임들의 손실을 검출하기 위해 이용된다. 그러나, 만일 상업 광고와 같은 별개의 비디오 시퀀스가 한 비디오 시퀀스 안에 삽입될 때, 그 별개의 비디오 시퀀스는 보통 별개의 이미지 번호매긴 것으로 주어지는데, 이것은 오리지널 비디오 시퀀스의 오름차순(ascending) 이미지 번호 매김과 일치하지 않는다. 따라서 수신 단말은 그 불일치한 이미지 번호매김을 잃어버린 이미지 프레임들의 신호라고 해석하고 잃어버렸다고 추정된 이미지 프레임들을 재구성하거나 그것을 재전송하라고 요구하는데 불필요한 동작을 시작한다. Another problem involves inserting one video sequence in the middle of another video sequence, which usually caused discontinuities in image numbering. Numbering of video sequence images is generally used to detect loss of image frames. However, if a separate video sequence, such as a commercial, is inserted into a video sequence, that separate video sequence is usually given as a separate image numbering, which is consistent with the ascending image numbering of the original video sequence. I never do that. Therefore, the receiving terminal interprets the mismatched image numbering as a signal of lost image frames and starts an unnecessary operation to request to reconstruct or retransmit the image frames estimated to be lost.

인코더와 디코더에서 기준 화상들을 버퍼링 및 인덱싱할 때 이와 비슷한 문제에 맞닥뜨릴 수 있다. 인덱싱의 일부로서, 인코더는 어떤 남아있는 이미지 프레임들의 시간적 예측 프로세스를 위한 기준 이미지 프레임들로서 쓸데없는 복수의 이미지 프레임들을 고의적으로 제거할 수 있다. 디코더에 그러한 제거 이유를 알리기 위한 프로세스 역시 존재하지 않는다: 가령, 복수 개의 이미지 프레임들이 제거되면, 수신 단말은 이러한 고의적 제거 내용을 프로토콜 에러라고 불필요한 해석을 할지도 모른다. A similar problem can be encountered when buffering and indexing reference pictures at the encoder and decoder. As part of indexing, the encoder can intentionally remove a plurality of useless image frames as reference image frames for the temporal prediction process of any remaining image frames. There is also no process for informing the decoder of the reason for such removal: For example, if a plurality of image frames are removed, the receiving terminal may interpret this deliberate removal as unnecessary a protocol error.

본 발명의 목적은, 디코더로 하여금 인코더가 고의적으로 제거한 이미지 프 레임들을 고려할 수 있게 하는 개선된 방법 및 그 방법을 구현하는 장치를 제공하는 데 있다. It is an object of the present invention to provide an improved method and apparatus for implementing the method that enables the decoder to take into account image frames that the encoder deliberately removed.

이제, 본 발명의 다양한 양태들에는 독립 청구 범위들에서 기술한 것을 특징으로 하는 방법, 비디오 인코더, 비디오 디코더, 비디오 신호, 비디오 시퀀스의 비트 레이트를 조정하기 위한 장치이자 바람직하게는 스트리밍 시스템 구성 요소 및 컴퓨터 프로그램들이 포함된다. Now, various aspects of the present invention include a method, a video system, a video decoder, an apparatus for adjusting the bit rate of a video signal, a video sequence, and preferably a streaming system component, characterized in what is stated in the independent claims. Computer programs are included.

본 발명의 바람직한 실시예들은 종속 청구범위들에 개시되어 있다.Preferred embodiments of the invention are disclosed in the dependent claims.

본 발명은 압축된 비디오 시퀀스를 디코딩한다는 개념에 기반하는 것으로, 이때 이미지 프레임들이 디코딩과 관련된 버퍼 메모리로 입력된다. 비디오 시퀀스는 이미지 프레임들의 넘버링(번호 매김)시 적어도 한 번의 불연속과 관련된 표시를 포함하며, 그 표시는 비디오 시퀀스로부터 복호화된다. 그러면, 그 표시에 응하여, 버퍼 메모리가 이미지 프레임들의 넘버링시의 불연속에 대응하는 이미지 프레임들을 제공하도록 설정되고, 그 버퍼 메모리 내 이미지 프레임들이 디코딩 프로세스시 사용된다. 상기 표시는, 비디오 시퀀스 내 임지 프레임들의 넘버링시 적어도 한 번의 불연속이 고의적인 것이라는 정보로서 제공되고, 버퍼 메모리에서 발생된 이미지 프레임들이 디코더에 존재하지 않는 이미지 프레임들 대신에 사용됨이 바람직하다. 누락된 이미지 프레임들이 이미지 프레임 넘버링시 불연속을 일으킨다.The present invention is based on the concept of decoding a compressed video sequence, wherein image frames are input into a buffer memory associated with decoding. The video sequence includes an indication associated with at least one discontinuity in the numbering (numbering) of the image frames, the indication being decoded from the video sequence. Then, in response to the indication, the buffer memory is set to provide image frames corresponding to the discontinuities in the numbering of the image frames, and the image frames in the buffer memory are used in the decoding process. The indication is provided as information that at least one discontinuity is intentional in the numbering of the imposition frames in the video sequence, and it is preferred that image frames generated in the buffer memory be used in place of image frames not present in the decoder. Missing image frames cause discontinuities in image frame numbering.

일실시예에 따르면, 버퍼 메모리가 이미지 프레임 넘버링시의 불연속에 해당 하는 이미지 프레임들을 제공하도록 설정된 후, 해당 비디오 시퀀스에 구비된 이미지 프레임들의 버퍼 메모리로의 입력은 올바른 이미지 프레임 번호부터 재개된다.According to one embodiment, after the buffer memory is set to provide image frames corresponding to discontinuities in image frame numbering, the input of the image frames included in the video sequence into the buffer memory is resumed from the correct image frame number.

일실시예에 따르면, 이미지 프레임 넘버링시의 불연속에 해당하는 보충(filler) 프레임들이 버퍼 메모리로 입력된다. 상기 보충 프레임들은 이들이 실제 비디오 시퀀스에 속하는 것이 아님을 나타내는 식별자에 의해 표시된다.According to one embodiment, filler frames corresponding to discontinuities in image frame numbering are input to the buffer memory. The supplemental frames are indicated by an identifier indicating that they do not belong to the actual video sequence.

일실시예에 따르면, 버퍼 메모리가 이미지 프레임 넘버링시의 불연속에 해당하는 이미지 프레임들을 제공하도록 설정하는 단계는, 메모리 표시에 의해 수행되고, 그에 따라 아무 데이터도 버퍼 메모리로 입력되지 못한다. According to one embodiment, the step of setting the buffer memory to provide image frames corresponding to discontinuities in image frame numbering is performed by a memory indication, so that no data is input into the buffer memory.

본 발명에 의한 절차의 이점은 이미지 프레임 넘버링시의 간극(gap)이고의적이라는 정보를 디코더에 제공함으로써, 디코더가 불필요한 에러 정정 동작을 시작하지 않게 된다는 데 있다. 또 다른 이점은 인코더 및 디코더의 버퍼 메모리들이 동조(synchronism)가 유지될 수 있어, 기준 화상 선택 처리에 대한 거침없는 동작이 가능하게 된다는 데 있다. An advantage of the procedure according to the present invention is that the decoder does not start unnecessary error correction operations by providing the decoder with information that is gap and intentional in image frame numbering. Another advantage is that the buffer memories of the encoder and decoder can be kept in synch, thereby enabling a rough operation for the reference picture selection process.

이하에서, 범용 멀티미디어 데이터 스트리밍 시스템이 개시되며, 그 시스템의 기본 원리들은 임의의 전기통신 시스템과 관련되어 적용될 수 있다. 본 발명은 여기서 스트리밍 시스템이라고 특정하게 참조하여 설명되며 그 시스템에서 멀티미디어 데이터가 가장 바람직하게는 IP 메트웍과 같은 패킷-교환 데이터 프로토콜을 이용하는 전기통신 네트웍을 통해 전송되지만, 본 발명은 고정 전화 네트웍 PSTN/SDN(공공 교환 전화 네트웍/통합 서비스 디지털 네트웍)과 같은 회로 교환 네트웍들이나 이동 통신 네트웍 PLMN(공공 지상 이동 네트웍)에서도 똑같이 잘 구현 될 수 있다. 또한 본 발명은 일반 스트리밍 및 연속 다운로딩 둘 모두의 형태로 멀티미디어 파일들의 스트리밍에서 적용될 수 있고, 가령 비디오 통화를 구현하기 위해 적용될 수 있다.In the following, a general purpose multimedia data streaming system is disclosed, the basic principles of which can be applied in connection with any telecommunication system. The present invention is described herein with particular reference to a streaming system where multimedia data is most preferably transmitted over a telecommunications network using a packet-switched data protocol, such as an IP scheme, but the present invention provides a fixed telephone network PSTN. It can be equally well implemented in circuit-switched networks such as / SDN (public switched telephone networks / integrated services digital networks) or in mobile telecommunication networks PLMNs (public land mobile networks). The invention can also be applied in the streaming of multimedia files in the form of both general streaming and continuous downloading, for example to implement a video call.

여기서 본 발명이 스트리밍 시스템을 특정하게 참조하여 설명되고 있고 또한 그 시스템 안에 적용됨이 바람직하지만, 본 발명은 스트리밍 시스템에만 한정되지 않으며, 디코딩 되어야 할 비디오 파일이 어떻게 다운로드되고 어디에서 다운로드 되는지와 관계없이 임의의 비디오 재생 시스템 안에서 적용될 수 있다. 따라서 본 발명은 가령 비디오 재생에 사용 가능한 가변 프로세싱 용량과 관련하여, DVD 디스크나 어떤 다른 컴퓨터 메모리 캐리어로부터 다운로드될 비디오 파일의 재생에 적용될 수 있다. 특히, 본 발명은 대역폭 제한을 필요로 하는 전기 통신 시스템에 통상적으로 사용되는 낮은 비트율의 여러가지 비디오 코딩에 적용될 수 있다. 한 예가 ITU-T 표준 H.263과 (아마도 나중에 H.264가 된) H.26L에 정의된 시스템이다. 이들과 관련해, 본 발명은 가령 이동국들에 적용될 수 있고, 이 경우, 이동국이 비디오 재생이 아닌 다른 어플리케이션을 실행하기 위해 사용될 때에도, 비디오 재생은 변화하는 전송 용량이나 채널 품질과 현재 사용중인 프로세서 파워 모두에 대해 맞춰지도록 행하여 질 수 있다.Although the invention is described herein with particular reference to streaming systems and is preferably applied within the systems, the invention is not limited to streaming systems, but the invention is not limited to how and where a video file to be decoded is downloaded. Can be applied within a video playback system. Thus, the present invention can be applied to the playback of video files to be downloaded from a DVD disc or any other computer memory carrier, for example with respect to the variable processing capacity available for video playback. In particular, the present invention is applicable to various low bit rate video codings typically used in telecommunication systems requiring bandwidth limitations. One example is the system defined in ITU-T standard H.263 and H.26L (possibly later H.264). In this regard, the present invention can be applied, for example, to mobile stations, in which case, even when the mobile station is used to execute an application other than video playback, video playback can vary both in varying transmission capacity or channel quality and in the processor power currently in use. It can be done to fit about.

명료성을 위해, 본 발명은 아래에서 이미지 프레임 코딩과, 이미지 프레임 레벨의 시간적 예측에 관한 서술을 제공함으로써 설명될 것임을 더 유의해야 한다. 그러나, 실제로 코딩 및 시간적 예측은 통상적으로 상술한 바와 같이 블록 또는 매크로블록 레벨에 대해 일어난다.For clarity, it should be further noted that the present invention will be described below by providing a description of image frame coding and temporal prediction of image frame levels. In practice, however, coding and temporal prediction typically occur at the block or macroblock level as described above.

도 1을 참조할 때, 일반적 멀티미디어 스트리밍 시스템이 도시되며, 이것은 본 발명의 절차를 적용하기 위한 바람직한 시스템이다.Referring to Figure 1, a general multimedia streaming system is shown, which is a preferred system for applying the procedure of the present invention.

멀티미디어 데이터 스트리밍 시스템은 보통, 비디오 카메라 및 마이크로폰, 또는 메모리 캐리어에 저장된 비디오 이미지나 컴퓨터 그래픽 파일들과 같은 하나 이상의 멀티미디어 소스들(100)을 포함한다. 서로 다른 멀티미디어 소스들(100)로부터 얻은 비가공 데이터는 편집기라고도 불릴 수 있는 인코더(102)의 멀티미디어 파일 안에 결합된다. 하나 이상의 멀티미디어 소스들(100)로부터 도달한 비가공 데이터는 먼저 인코더(102) 안에 포함된 포획수단(104)을 이용해 포획되며, 그 포획수단(104)은 일반적으로 서로 다른 인터페이스 카드, 드라이버 소프트웨어, 또는 카드의 기능을 제어하는 어플리케이션 소프트웨어로서 구현될 수 있다. 예를 들어, 비디오 데이터는 비디오 포획 카드와 그 관련 소프트웨어를 이용해 획득될 수 있다. 비디오 포획 카드가 관련될 때, 포획 수단(104)의 출력은, 보통 예를 들어 YUV 4:2:0 포맷이나 모션-JPEG 이미지 포맷의 비압축 비디오 프레임들과 같은, 압축되지 않거나 약간만 압축된 데이터 플로우일 수 있다.A multimedia data streaming system typically includes one or more multimedia sources 100, such as video images and computer graphics files stored in a video camera and microphone, or a memory carrier. Raw data from different multimedia sources 100 are combined into a multimedia file of encoder 102, which may also be called an editor. Raw data arriving from one or more multimedia sources 100 is first captured using capture means 104 contained within encoder 102, which capture means 104 typically comprise different interface cards, driver software, Or as application software that controls the function of the card. For example, video data can be obtained using a video capture card and its associated software. When a video capture card is involved, the output of the capture means 104 is usually uncompressed or slightly compressed data, such as, for example, uncompressed video frames in the YUV 4: 2: 0 format or the Motion-JPEG image format. It may be a flow.

편집기(106)는 서로 다른 미디어 플로우들을 함께 링크하여 비디오 및 오디오 플로우들이 원하는 대로 동시에 재생될 수 있도록 한다. 편집기(106)는 또한 가령 프레임 레이트를 절반으로 하거나, 공간적 해상도(resolution)를 줄임으로써 비디오 플로우와 같은 각각의 미디어 플로우를 편집한다. 동기되었더라도 독자적인 미디어 플로우들은 압축기(108)에서 압축되며, 여기서 각 미디어 플로우는 그 미디어 플로우에 적합한 압축기를 이용해 독자적으로 압축된다. 예를 들어, YUV 4:2:0 포맷의 비디오 프레임들은 ITU-T 권고 H.263 또는 H.26L에 의한 저비트율 비디오 코딩을 이용해 압축될 것이다. 개별적으로 동기된 압축 미디어 플로우들은 보통 멀티플렉서(110)에서 인터리빙되며, 인코더(102)로부터 얻어지는 출력은 복수개의 미디어 플로우들로 된 데이터를 구비하여 멀티미디어 파일이라 부를 수 있는 단일의 규칙적 비트 플로우가 된다. 멀티미디어 파일의 생성이 반드시 복수개의 미디어 플로우들을 하나의 파일로 멀티플렉싱(다중화)할 것을 요구하지는 않는다는 것에 유의해야 한다. 그러나, 스트리밍 서버가, 미디어 플로우들을 전송하기 전에 그 미디어 플로우들을 인터리빙할 것이다.The editor 106 links the different media flows together so that the video and audio flows can be played simultaneously as desired. The editor 106 also edits each media flow, such as a video flow, by halving the frame rate or reducing the spatial resolution. Although synchronized, the independent media flows are compressed in the compressor 108, where each media flow is compressed independently using a compressor suitable for that media flow. For example, video frames in YUV 4: 2: 0 format will be compressed using low bit rate video coding according to ITU-T Recommendation H.263 or H.26L. Individually synchronized compressed media flows are usually interleaved in the multiplexer 110, and the output obtained from the encoder 102 is a single regular bit flow that can be called a multimedia file with data consisting of a plurality of media flows. Note that creation of a multimedia file does not necessarily require multiplexing multiple media flows into one file. However, the streaming server will interleave the media flows before sending them.

멀티미디어 파일들은 스트리밍 서버(112)로 전송되고, 그러면 스트리밍 서버는 실시간 스트리밍이나 연속 다운로딩 형식으로 스트리밍을 수행할 수 있다. 연속 다운로딩시, 멀티미디어 파일들은 먼저 서버(112)의 메모리에 저장되며, 수요가 발생하면 전송을 위해 그 메모리에서 상기 멀티미디어 파일들이 검색된다. 실시간 스트리밍시 편집기(102)는 스트리밍 서버(112)로 멀티미디어 파일들의 연속되는 미디어 플로우를 전송하고, 서버(112)는 그 플로우를 클라이언트(114)에게 직접 보낸다. 추가 옵션으로서, 실시간 스트리밍은 또한 멀티미디어 파일들이 서버(112)로부터 억세스 가능한 저장부 안에 저장되도록 수행될 수 있고, 그 저장부로부터 실시간 스트리밍이 행해질 수 있고 수요가 일어나면 멀티미디어 파일들의 연속적인 미디어 플로우가 개시된다. 상기의 경우, 편집기(102)가 반드시 스트리밍을 꼭 제어하지는 않는다. 스트리밍 서버(112)가 사용 가능한 대역폭이나 클라이언트(114)의 최대 디코딩 및 재생율에 관해 멀티미디어 데이터의 트래픽 정형화를 수행하며, 스트리밍 서버는 가령 전송시 B-프레임들을 누락시키거나 스케일 가능 계층들의 개수를 조정함으로써 미디어 플로우의 비트율을 조정할 수 있다. 또, 스트리밍 서버(112)는 다중화된 미디어 플로우의 헤더 필드들을 변형해 크기를 줄이고 멀티미디어 데이터를 사용중인 전기통신 네트웍의 전송에 적합한 데이터 패킷들로 감싼다. 클라이언트(114)는 일반적으로, 적절한 제어 프로토콜을 이용해 적어도 어느 정도까지는 서버(112)의 동작을 조정할 수 있다. 클라이언트(114)는 적어도, 원하는 멀티미디어 파일이 클라이언트로 전송되게 선택될 수 있도록 하는 방식으로 서버(112)를 제어할 수 있고, 그에 더하여 클라이언트는 통상적으로 멀티미디어 파일의 전송을 중단 및 인터럽트할 수 있다.The multimedia files are transmitted to the streaming server 112, and the streaming server may perform streaming in a real time streaming or continuous downloading format. In continuous downloading, the multimedia files are first stored in the memory of the server 112, and when demand arises, the multimedia files are retrieved from the memory for transmission. In real time streaming, the editor 102 sends a continuous media flow of multimedia files to the streaming server 112, which sends the flow directly to the client 114. As an additional option, real-time streaming can also be performed such that the multimedia files are stored in storage accessible from server 112, where real-time streaming can be done from that storage and a continuous media flow of multimedia files commences when demand arises. do. In this case, the editor 102 does not necessarily control streaming. The streaming server 112 performs traffic shaping of the multimedia data in terms of the available bandwidth or the maximum decoding and refresh rate of the client 114, which may omit B-frames or adjust the number of scalable layers, for example, in transmission. By doing this, the bit rate of the media flow can be adjusted. In addition, streaming server 112 transforms the header fields of the multiplexed media flow to reduce its size and wrap it with data packets suitable for transmission in a telecommunications network that is using multimedia data. The client 114 may generally coordinate the operation of the server 112 to at least some extent using an appropriate control protocol. The client 114 can control the server 112 at least in such a way that the desired multimedia file can be selected to be sent to the client, and in addition, the client can typically interrupt and interrupt the transmission of the multimedia file.

클라이언트(114)가 멀티미디어 파일을 수신하고 있을 때, 그 파일은 먼저 디멀티플렉서(116)로 보내지고, 여기서 그 멀티미디어 파일을 구성하는 미디어 플로우들이 분리된다. 그러면 그 분리된, 압축 미디어 플로우들은 압축해제기(118)로 보내져서 각각의 분리된 미디어 플로우가 그 각각에 적합한 압축해제기에 의해 압축해제된다. 압축해제되고 재구성된 미디어 플로우들은 재생부(120)로 보내져서 그들의 동기 데이터에 의해 올바른 페이스(pace)로 렌더링되고 표시수단(124)으로 보내진다. 실제 표시수단(124)은 가령 컴퓨터나 이동국 디스플레이, 및 스피커 수단을 구비할 수 있다. 클라이언트(114)는 또한 통상적으로 최종 사용자가 보통은 사용자 인터페이스를 통해 제어하는, 상술한 제어 프로토콜을 통한 서버의 동작과 최종 사용자가 내린 명령에 기초한 재생부(120)의 동작 모두를 제어하는 제어부(122)를 포함한다.When the client 114 is receiving a multimedia file, the file is first sent to a demultiplexer 116, where the media flows that make up the multimedia file are separated. The separated, compressed media flows are then sent to a decompressor 118 where each separated media flow is decompressed by a decompressor suitable for each. The decompressed and reconstructed media flows are sent to playback unit 120 where they are rendered at the correct pace by their synchronization data and sent to display means 124. Actual display means 124 may comprise, for example, a computer or mobile station display and speaker means. The client 114 also includes a control unit for controlling both the operation of the server through the above-described control protocol and the operation of the playback unit 120 based on the command issued by the end user, which is normally controlled by the end user, usually through a user interface. 122).

스트리밍 서버(112)로부터 클라이언트(114)로의 멀티미디어 파일들의 전송은 전기통신 네트웍을 통해 발생함을 유의해야 하며, 그 전송 경로는 일반적으로 복수개의 전기통신 네트웍 구성요소들을 포함한다. 따라서 사용가능한 대역폭이나 클라이언트(114)의 최대 디코딩 및 재생율에 관한 멀티미디어 데이터의 트래픽 정형화를, 적어도 일부가 스트리밍 서버와 관련해 위에서 설명한 것과 동일한 방식으로 수행할 수 있는 적어도 몇몇의 네트웍 구성요소들이 존재할 수 있다.It should be noted that the transmission of multimedia files from the streaming server 112 to the client 114 takes place over a telecommunications network, the transmission path of which generally includes a plurality of telecommunications network components. Thus, there may be at least some network components that can perform traffic shaping of multimedia data in terms of available bandwidth or maximum decoding and refresh rate of the client 114 in the same way as at least some of those described above in connection with streaming servers. .

스케일 가능 코딩이 도 2에 도시된 예 및 본 발명의 바람직한 실시예를 참조해 이하에서 설명될 것이다. 도 2는 인트라(INTRA) 프레임, 또는 I-프레임인 제1프레임(200)으로, 그 이미지 정보가 모션-보상 시간적 예측을 이용하지 않고 결정되는, 독립적으로 결정된 비디오 프레임을 구비하는 압축된 비디어 시퀀스의 일부를 도시한다. I-프레임(200)은 인트라(INTRA) 계층이라 부를 수 있는 제1스케일 가능 계층 위에 놓여진다. 각 스케일 가능 계층에는 계층 번호와 같은 고유한 식별자가 할당된다. 그에 따라 인트라 계층은 가령 번호 0이나, 가령 어떤 하나의 문자와 같은 다른 문자/숫자 식별자, 또는 문자와 숫자의 조합 형태의 식별자가 주어질 수 있다.Scalable coding will be described below with reference to the example shown in FIG. 2 and preferred embodiments of the present invention. FIG. 2 is a compressed video having an independently determined video frame, the first frame 200 being an intra frame, or an I-frame, whose image information is determined without using motion-compensated temporal prediction. Show part of the sequence. I-frame 200 is placed on a first scalable layer, which may be called an INTRA layer. Each scalable layer is assigned a unique identifier, such as a layer number. The intra layer may thus be given a number 0, for example another letter / number identifier, such as any one character, or an identifier in the form of a combination of letters and numbers.

이와 유사하게, 하나 이상의 비디오 프레임들의 그룹들로 이뤄진 서브-시퀀스들이 각각의 스케일 가능 계층마다 정해지고, 한 그룹안의 이미지들 중 적어도 하나(보통은 최초이거나 마지막의 것)는 적어도 보통 다른 상위의, 또는 동일 스케일 가능 계층의 비디오 프레임으로부터 시간적으로 예측되고, 나머지 비디오 프레임들은 통상적으로, 오직 동일한 서브-시퀀스의 비디오 프레임들로부터, 혹은 아마 도 상기 제2서브-시퀀스의 하나 이상의 비디오 프레임들로부터도 시간적으로 예측되어진다. 한 서브-시퀀스는 상기 제2서브-시퀀스를 제외한 다른 서브-시퀀스들과 무관하게 독자적으로 디코딩될 수 있다. 각각의 스케일 가능 계층의 서브-시퀀스들은 그 스케일 가능 계층의 제1서브-시퀀스가 번호 0으로 주어져 시작되는 것과 같이 연속적 번호 매기기를 이용한 고유 식별자가 할당된다. I-프레임(200)은 독자적으로 정해지고 또한 다른 이미지 프레임들과 무관하게 수신시 독자적으로 디코딩될 수 있으므로 역시 개별적 서브-시퀀스 방식으로 형성된다.Similarly, sub-sequences of groups of one or more video frames are defined for each scalable layer, and at least one of the images in the group (usually the first or last) is at least usually the other parent, Or temporally predicted from video frames of the same scalable layer, and the remaining video frames are typically temporally only from video frames of the same sub-sequence, or perhaps from one or more video frames of the second sub-sequence. Is predicted. One sub-sequence may be independently decoded independently of other sub-sequences except the second sub-sequence. Sub-sequences of each scalable layer are assigned a unique identifier using consecutive numbering, such that the first sub-sequence of that scalable layer begins with the number zero. The I-frame 200 is also formed in a separate sub-sequence manner since it can be determined independently and can be decoded independently upon receipt, independent of other image frames.

본 발명의 실질적 양상은 서브-시퀀스가 종속되는 서브-시퀀스들의 입장에서 각 서브-시퀀스를 결정하는 것이다. 즉, 한 서브-시퀀스는 그 서브-시퀀스의 이미지 프레임들을 예측하기 위해 바로 사용되었던 모든 서브-시퀀스들에 대한 정보를 포함한다. 이 정보는 비디오 시퀀스 비트 스트림으로 시그날링되며 실질적 이미지 정보와는 별개의 것임이 바람직하므로, 나머지 이미지 데이터의 디코딩에 영향을 주지 않으면서 독자적으로 디코딩되고 제거될 수 있는 비디오 시퀀스 부분을 결정하는 것이 용이하다는 이유 때문에 비디오 시퀀스의 이미지 데이터가 바람직하게 조정될 수 있다.A practical aspect of the present invention is to determine each sub-sequence in terms of the sub-sequences on which the sub-sequence is dependent. That is, one sub-sequence contains information about all sub-sequences that were used immediately to predict the image frames of that sub-sequence. Since this information is signaled as a video sequence bit stream and preferably separate from the actual image information, it is easy to determine the portion of the video sequence that can be decoded and removed independently without affecting the decoding of the remaining image data. Image data of the video sequence can be preferably adjusted.

다음으로, 각 서브-시퀀스 내에서, 그 서브-시퀀스의 비디오 프레임들에는 가령, 그 버스-시퀀스의 첫번째 비디오 프레임에 번호 0이 주어지는 것으로 시작하는 연속적 번호 매기기를 이용한 이미지 번호들이 주어진다. I-프레임(200) 역시 독립적인 서브-시퀀스를 형성하므로, 그 이미지 번호는 0이 된다. 도 2에서, I-프레임(200)은 유형 (I)에, 프레임의 서브 시퀀스 식별자 및 이미지 번호 (0.0)인 것 을 보인다.Next, within each sub-sequence, video frames of that sub-sequence are given image numbers using consecutive numbering, for example, beginning with the number 0 being given to the first video frame of the bus-sequence. Since I-frame 200 also forms an independent sub-sequence, its image number is zero. In FIG. 2, I-frame 200 is shown in type (I), which is the subsequence identifier and image number (0.0) of the frame.

도 2는 또한 인트라 계층의 다음 I-프레임(202)을 도시하고 있으며, 그 프레임 역시 모션-보상된 시간적 예측을 이용하지 않고 결정되었던, 독자적으로 정해진 비디오 프레임이다. I-프레임들의 시간적 전송 주파수는 비디오 코딩, 이미지 정보 컨텐츠 및 사용될 대역폭과 관련된 많은 요인들에 좌우되며, 어플리케이션이나 어플리케이션 환경에 따라 I-프레임들이 가령 0.5 에서 10초의 간격의 비디오 시퀀스로 전송된다. I-프레임(202)은 독립적으로 디코딩될 수 있기 때문에 역시 독자적인 서브-시퀀스를 형성한다. 이것이 인트라 계층의 두번째 서브-시퀀스이기 때문에, I-프레임(202)의 서브-시퀀스 식별자에 대한 연속 번호는 1이다. 또, I-프레임(202) 역시 독자적 서브-시퀀스를 형성하기 때문에, 즉, 그것이 그 서브-시퀀스 내 유일한 비디오 프레임이므로, 그 이미지 번호는 0이다. 따라서 I-프레임(202)은 식별자 (I.1.0)으로 지정될 수 있다. 마찬가지로, 인트라 계층의 다음 I-프레임의 식별자는 (I.2.0)이 되고, 계속 이런 방식으로 식별자가 정해진다. 결국, 이미지 정보가 모션-보상된 시간적 예측을 이용해 정해진 것이 아닌, 독자적으로 정해진 I-프레임들만이 제1스케일 가능 계층, 즉 인트라 계층 안에 코딩된다. 서브-시퀀스들이 서로 서로 구별될 수 있으면, 이들은 다른 종류의 번호 매김 방식이나 다른 식별자들을 이용해 정해질 수도 있다.2 also shows the next I-frame 202 of the intra layer, which is also a uniquely defined video frame that has been determined without using motion-compensated temporal prediction. The temporal transmission frequency of I-frames depends on many factors related to video coding, image information content and bandwidth to be used, and depending on the application or application environment, the I-frames are transmitted in video sequences at intervals of, for example, 0.5 to 10 seconds. Since I-frame 202 can be decoded independently, it also forms its own sub-sequence. Since this is the second sub-sequence of the intra layer, the consecutive number for the sub-sequence identifier of I-frame 202 is one. In addition, since the I-frame 202 also forms its own sub-sequence, that is, it is the only video frame in that sub-sequence, its image number is zero. Thus, I-frame 202 may be designated with an identifier (I.1.0). Similarly, the identifier of the next I-frame of the intra layer is (I.2.0), which continues to be identified in this way. As a result, only I-frames that are uniquely defined are not coded using motion-compensated temporal prediction, but coded within the first scalable layer, i.e., the intra layer. If the sub-sequences can be distinguished from each other, they may be determined using different kinds of numbering schemes or other identifiers.

가령 계층 번호 1을 갖는 다음 스케일 가능 계층을 베이스(Base) 계층이라 칭할 때, 그 계층은 코딩되고, 일반적으로 이전 이미지 프레임들로부터만(즉, 이 경우에는 상위의 인트라 계층의 I-프레임들로부터) 예측되는 모션-보상 인 터(INTER) 또는 P-프레임들을 구비한다. 도 2에 도시된 베이스 계층의 제1P-프레임(204)의 이미지 정보는 인트라 계층의 I-프레임(200)을 이용해 정해진다. P-프레임(204)은 베이스 계층의 첫번째 서브-시퀀스를 시작하며, 그에 따라 P-프레임(204)의 서브-시퀀스 식별자는 0이 된다. 또, P-프레임(204)이 베이스 계층의 제1서브-시퀀스의 제1이미지 프레임이므로, 그 P-프레임(204)의 이미지 번호는 0이다. 따라서 P-프레임(204)은 (P.0.0)로 식별될 수 있다.For example, when the next scalable layer with layer number 1 is called the base layer, the layer is coded and generally only from previous image frames (ie in this case from I-frames of the upper intra layer). ) With predicted motion-compensated inter (INTER) or P-frames. Image information of the first P-frame 204 of the base layer illustrated in FIG. 2 is determined using the I-frame 200 of the intra layer. P-frame 204 starts the first sub-sequence of the base layer, such that the sub-sequence identifier of P-frame 204 becomes zero. Further, since the P-frame 204 is the first image frame of the first sub-sequence of the base layer, the image number of the P-frame 204 is zero. Therefore, the P-frame 204 may be identified as (P.0.0).

시간적으로 이어지는 베이스 계층의 P-프레임(206)은 이전 P-프레임(204)으로부터 예측된다. 따라서 P-프레임들(204 및 206)은 동일한 서브-시퀀스에 속하고, 그에 따라 P-프레임(206) 역시 서브-시퀀스 식별자 0를 받는다. P-프레임(206)이 서브-시퀀스 0의 두번째 이미지 프레임이므로, P-프레임(206)의 이미지 번호는 1이므로, P-프레임(206)은 (P.0.1)로 식별될 수 있다.The P-frame 206 of the base layer following in time is predicted from the previous P-frame 204. P-frames 204 and 206 thus belong to the same sub-sequence, so that P-frame 206 also receives sub-sequence identifier 0. Since P-frame 206 is the second image frame of sub-sequence 0, since P-frame 206 has an image number of 1, P-frame 206 may be identified as (P.0.1).

베이스 계층에 이어 계층 번호 2를 갖는 스케일 가능 계층을 인핸스먼트(enhancement) 계층 1이라 부른다. 이 계층은 코딩되고, 여기서는 인트라 계층의 I-프레임들이나 베이스 계층의 P-프레임들인 이전 이미지 프레임들로부터만 예측되는 모션-보상 P-프레임들을 구비한다. 도 2는 인핸스먼트 계층 1의 제1이미지 프레임(208)과 제2이미지 프레임(210)을 도시하며, 이들은 모두 인트라 계층의 제1이미지 프레임(200)으로부터만 예측된다. P-프레임(208)은 인핸스먼트 계층 1의 첫번째 서브-시퀀스를 시작하며, 따라서 P-프레임의 그 서브-시퀀스 식별자는 0이 된다. 또, P-프레임(208)이 상기 서브-시퀀스의 최초의 이미지 프레임이므로 P-프레임(208)은 이미지 번호 0을 받는다. 따라서 P-프레임(208)은 (P.0.0)으로 식별 될 수 있다.The scalable layer with layer number 2 following the base layer is called enhancement layer 1. This layer is coded and has motion-compensated P-frames that are predicted only from previous image frames that are I-frames of the intra layer or P-frames of the base layer. 2 shows a first image frame 208 and a second image frame 210 of enhancement layer 1, both of which are predicted only from the first image frame 200 of the intra layer. P-frame 208 starts the first sub-sequence of enhancement layer 1, so that sub-sequence identifier of the P-frame becomes zero. Also, since P-frame 208 is the first image frame of the sub-sequence, P-frame 208 receives image number zero. Therefore, the P-frame 208 can be identified as (P.0.0).

제2이미지 프레임(210) 역시 인트라 계층의 제1이미지 프레임(200)으로부터만 예측되므로, P-프레임(210)은 인핸스먼트 계층 1의 제2서브-시퀀스를 시작하고 그 P-프레임(210)의 서브-시퀀스 식별자는 그래서 1이 된다. P-프레임(210)이 그 서브-시퀀스의 첫번째 이미지 프레임이므로, P-프레임(210)의 이미지 번호는 0이다. P-프레임은 따라서 (P.1.0)으로 식별될 수 있다. 시간적으로 이어지는 인핸스먼트 계층 1의 P-프레임(212)은 이전의 P-프레임(210)으로부터 예측된다. P-프레임들(210 및 212)은 동일한 서브-시퀀스에 속하므로, 그 P-프레임(212) 역시 서브-시퀀스 식별자 1을 받는다. P-프레임(212)은 서브-시퀀스 1의 두번째 이미지 프레임이므로, P-프레임은 이미지 번호 1을 받아 (P.1.1)로 식별될 수 있다.Since the second image frame 210 is also predicted only from the first image frame 200 of the intra layer, the P-frame 210 starts the second sub-sequence of enhancement layer 1 and the P-frame 210. The sub-sequence identifier of is thus one. Since P-frame 210 is the first image frame of its sub-sequence, the image number of P-frame 210 is zero. The P-frame can thus be identified as (P.1.0). P-frame 212 of enhancement layer 1 that follows in time is predicted from the previous P-frame 210. Since P-frames 210 and 212 belong to the same sub-sequence, that P-frame 212 also receives sub-sequence identifier 1. Since P-frame 212 is the second image frame of sub-sequence 1, P-frame may receive image number 1 and may be identified as (P.1.1).

인핸스먼트 계층 1의 시간적으로 네 번째 이미지 프레임(214)은 베이스 계층의 제1이미지 프레임(204)로부터 예측된다. 따라서 P-프레임(214)은 제3서브-시퀀스를 시작하므로 P-프레임(214)은 서브-시퀀스 식별자 2를 받는다. 또, P-프레임(214)이 그 서브-시퀀스 안에서 최초의 유일한 이미지 프레임이므로 P-프레임(214)의 이미지 번호는 0이다. 따라서, P-프레임(208)은 (P.2.0)으로 식별될 수 있다.The temporally fourth image frame 214 of enhancement layer 1 is predicted from the first image frame 204 of the base layer. Thus, the P-frame 214 starts the third sub-sequence so that the P-frame 214 receives the sub-sequence identifier 2. Also, since P-frame 214 is the first and only image frame in its sub-sequence, the image number of P-frame 214 is zero. Therefore, the P-frame 208 can be identified as (P.2.0).

인핸스먼트 계층 1의 시간적으로 다섯번째인 이미지 프레임(216) 역시 베이스 계층의 제1이미지 프레임(204)으로부터만 예측되므로, 그 P-프레임(216)은 인핸스먼트 계층 1의 네 번째 서브-시퀀스를 시작하여, P-프레임(216)의 서브-시퀀스 식별자가 3이 된다. 또, P-프레임(216)이 해당 서브-시퀀스에서 첫번째이므로, P- 프레임(216)의 이미지 번호는 0이 된다. 따라서 P-프레임(216)은 (P.3.0)으로 식별될 수 있다. 시간적으로 이어지는 인핸스먼트 계층 1의 P-프레임(218)은 이전 P-프레임(216)으로부터 예측된다. P-프레임들(216 및 218)이 동일한 서브-시퀀스에 속하므로, P-프레임(218)의 서브-시퀀스 식별자 역시 3이 된다. P-프레임(218)이 서브-시퀀스 3의 두번째 이미지 프레임이므로, P-프레임(218)의 이미지 번호는 1이고 따라서 P-프레임(218)의 식별자는 (P.3.1)이 된다.Since the temporally fifth image frame 216 of enhancement layer 1 is also predicted only from the first image frame 204 of the base layer, the P-frame 216 is adapted to the fourth sub-sequence of enhancement layer 1. Beginning, the sub-sequence identifier of P-frame 216 becomes three. Also, since the P-frame 216 is first in the sub-sequence, the image number of the P-frame 216 is zero. Therefore, the P-frame 216 may be identified as (P.3.0). The P-frame 218 of the enhancement layer 1 that follows in time is predicted from the previous P-frame 216. Since P-frames 216 and 218 belong to the same sub-sequence, the sub-sequence identifier of P-frame 218 also becomes three. Since P-frame 218 is the second image frame of sub-sequence 3, the image number of P-frame 218 is 1 and therefore the identifier of P-frame 218 is (P.3.1).

설명의 단순성 및 명료성을 위해, 위에서 개시된 것은 단지 I- 및 P-프레임들만을 연관짓는다. 그러나, 이 분야의 당업자라면 본 발명의 스케일 가능한 비디오 코딩이 상술한 B-프레임들 및 적어도 SI-프레임들, SP-프레임들 및 MH-프레임들과 같은 다른 기존의 이미지 프레임 유형들을 이용해서도 구현될 수 있음을 알 수 있을 것이다. SI-프레임들은 I-프레임들에 해당하지만, SP-프레임과 함께 동일 이미지 재구성을 가능하게 한다. SP-프레임은 SI-프레임이나 다른 SP-프레임과 함께 동일 이미지가 재구성될 수 있게 하는 특정한 코딩을 경험하는 P-프레임이다. SP-프레임들은 일반적으로, 한 억세스 포인트 또는 스캐닝 포인트가 요망되거나 비디오 스트림의 코딩 패러미터들의 변화가 가능해야 하는 포인트들로의 비디오 시퀀스 안에 놓여진다. 프레임들은 에러 정정 및 에러 내성 증대를 위해 사용될 수도 있다. SP-프레임들은, 이들이 SP- 또는 SI-유혀의 다른 비디오 프레임으로 대체될 수 있도록 규정된다는 점을 제외히면 이전 프레임들로부터 예측되는 일반적인 P-프레임들과 동일하며, 새 프레임에 대한 디코딩 결과는 비디오 스트림 안에 있엇던 오리지널 SP-프레임의 디코딩 결과와 동일하게 된다. 즉, 비디오 스트림안에 있었 던 것을 대체하는데 사용된 새 SP-프레임은 다른 시퀀스나 비디오 스트림으로부터 예측되며 또한 그 재구성 프레임은 동일한 컨텐츠를 포함한다. SP-프레임들은 가령 본 출원인의 이전 출원 PCT/FI02/00004에서 설명되고 있다.For simplicity and clarity of explanation, what is disclosed above associates only I- and P-frames. However, those skilled in the art will realize that the scalable video coding of the present invention is also implemented using the aforementioned B-frames and at least other existing image frame types such as SI-frames, SP-frames and MH-frames. It will be appreciated. SI-frames correspond to I-frames, but enable the same image reconstruction with an SP-frame. An SP-frame is a P-frame that experiences certain coding that allows the same image to be reconstructed with an SI-frame or another SP-frame. SP-frames are generally placed in a video sequence into points where one access point or scanning point is desired or where changes in coding parameters of the video stream should be possible. Frames may be used for error correction and error tolerance enhancement. SP-frames are the same as normal P-frames predicted from previous frames, except that they are specified so that they can be replaced with other video frames of the SP- or SI-type, and the decoding result for the new frame is the video This will be the same as the decoding result of the original SP-frame in the stream. That is, a new SP-frame used to replace what was in the video stream is predicted from another sequence or video stream and the reconstructed frame contains the same content. SP-frames are described, for example, in our previous application PCT / FI02 / 00004.

B-프레임들과 유사하게, 모션-보상 예측에 기반한 MH(Multi Hypothesis) 프레임들의 매크로블록들은 두 개의 다른 프레임들로부터 예측되나, 반드시 한 MH-프레임 다음에 위치되는 것은 아니다. 보다 자세히 말하면, 예측된 매크로블록들은 두개의 다른 프레임들의 두 매크로블록들의 평균치로서 산출된다. 두 프레임 대신, MH-프레임 매크로블록들이 다른 한 프레임으로부터 자연스럽게 예측될 수도 있다. 참조 이미지들은 매크로블록에 따라 변화할 있다, 즉, 하나의 동일 이미지 안의 모든 매크로블록들이 꼭 동일한 프레임들을 이용해 예측되는 것은 아니다.Similar to B-frames, macroblocks of MH (Multi Hypothesis) frames based on motion-compensated prediction are predicted from two different frames, but not necessarily located after one MH-frame. More specifically, the predicted macroblocks are calculated as the average of two macroblocks of two different frames. Instead of two frames, MH-frame macroblocks may naturally be predicted from another frame. Reference images may vary with macroblocks, ie, not all macroblocks in one and the same image are predicted using exactly the same frames.

따라서 서브-시퀀스는 비디오 시퀀스의 어떤 특정 시간 주기를 커버한다. 동일 계층이나 다른 계층들의 서브-시퀀스들은 일부 혹은 전부가 중복될 수 있다. 만일 시간적으로 중복된 이미지 프레임들이 동일 계층 위에 존재하면, 그 프레임들은 동일 이미지 컨텐츠의 대안적 표현들로 해석되어 어떤 모드의 이미지 표현이라도 사용될 수 있게 된다. 한편, 만일 서로 다른 계층들에서 시간적으로 중복된 이미지 프레임들이 존재하면, 그 이미지 프레임들은 동일 이미지 컨텐츠에 대한 상이한 표현들을 생성하며, 그에 따라 표현들마다 화질에서 차이가 나게 된다. 말하자면, 이미지 품질은 하위 계층에서 보다 우수하다.The sub-sequence therefore covers some particular time period of the video sequence. Sub-sequences of the same layer or other layers may overlap some or all. If temporally overlapping image frames exist on the same layer, they are interpreted as alternative representations of the same image content so that any mode of image representation can be used. On the other hand, if there are temporally overlapping image frames in different layers, the image frames produce different representations for the same image content, and thus the representations differ in image quality. In other words, the image quality is better at the lower layers.

도 2를 참조한 상기 내용은 본 발명의 실시예에 따른 스케일 가능 코딩 구성, 계층 구조 및 이미지 프레임들의 번호매기기에 대해 예시한 것이다. 이 실시 예에서, 인트라 계층만이 I-프레임들을 구비하며, 베이스 계층은 인트라 계층으로부터 수신된 정보를 이용해서만 디코딩될 수 있다. 이와 마찬가지로, 인핸스먼트 계층 1의 디코딩은 일반적으로 베이스 계층 및 인트라 계층 모두로부터의 정보를 필요로 한다.The above description with reference to FIG. 2 illustrates a scalable coding scheme, hierarchy and numbering of image frames in accordance with an embodiment of the invention. In this embodiment, only the intra layer has I-frames, and the base layer can only be decoded using information received from the intra layer. Similarly, decoding of enhancement layer 1 generally requires information from both the base layer and the intra layer.

스케일 가능 계층의 수는 위에서와 같이 3 개로 한정되지 않으며, 임의의 개수의 인핸스먼트 계층들이라도 충분한 스케일 가능성을 제공하는데 필요하다고 생각되면 사용될 수 있다. 결과적으로, 인핸스먼트 계층 2의 계층 수는 4이고, 인핸스먼트 계층 3의 계층 수는 5가 되는 식이다. 상술한 예의 몇 몇 이미지 프레임들에는 동일한 식별자가 주어지므로 (가령, 이미지 프레임들(204, 208)은 모두 그 식별자가 (P.0.0)), 식별자에 계층 번호를 포함함으로써 각 이미지 프레임은 고유하게 식별될 수 있고, 동시에 각 이미지 프레임의 다른 이미지 프레임들에 대한 종속성이 바람직하게 정해진다. 따라서 각 이미지 프레임은 고유하게 식별되며, 이미지 프레임(204)의 식별자는, 가령 (P.1.0.0), 또는 단순히 (1.0.0)이 되고, 마찬가지로 이미지(208)의 식별자는 (P.2.0.0), 또는 (2.0.0)이 된다.The number of scalable layers is not limited to three as above, and any number of enhancement layers may be used if deemed necessary to provide sufficient scalability. As a result, the number of layers of enhancement layer 2 is four, and the number of layers of enhancement layer 3 is five. Some of the image frames in the above example are given the same identifier (e.g., all of the image frames 204 and 208 have their identifier (P.0.0)), so that each image frame is unique by including a layer number in the identifier. It can be identified and at the same time a dependency on other image frames of each image frame is preferably determined. Thus, each image frame is uniquely identified, and the identifier of the image frame 204 is, for example, (P.1.0.0), or simply (1.0.0), and similarly, the identifier of the image 208 is (P.2.0). .0), or (2.0.0).

본 발명의 바람직한 실시예에 따르면, 참조 이미지 프레임의 개수는, 예를 들어 0에서 255 사이의 정수와 같이 특정한 소정 문자-숫자 시리즈들에 따라 정해진다. 패러미터 값이 관련 시리즈의 최대값 N(가령, 255)에 도달할 때, 패러미터 값의 결정은 처음부터, 즉 시리즈의 최소값(가령, 0)에서부터 시작된다. 따라서 이미지 프레임은 동일한 이미지 번호가 다시 사용되는 지점까지 특정 서브-시퀀스 안에서 고유하게 식별된다. 서브-시퀀스 식별자는 또한 특정한, 소정 수리적 시리 즈에 따라 정해질 수도 있다. 서브-시퀀스 식별자의 값이 시리즈의 최대값 N에 도달할 때, 식별자를 정하는 것은 그 시리즈의 처음부터 다시 시작된다. 그러나, 서브-시퀀스에는 (동일 계층 안에서) 사용 중인 식별자가 할당될 수 없다. 사용중인 시리즈는 또한 수리적 방식 외에 다른 방법으로 정해질 수도 있다. 다른 한 대안으로서, 할당된 식별자가 다시 사용되지 않는다는 것을 감안하여 무작위의 서브-시퀀스 식별자들을 할당하는 것이다.According to a preferred embodiment of the present invention, the number of reference image frames is determined according to certain predetermined alphanumeric series, for example an integer between 0 and 255. When the parameter value reaches the maximum value N (eg 255) of the relevant series, the determination of the parameter value starts from the beginning, ie from the minimum value of the series (eg 0). Thus, image frames are uniquely identified within a particular sub-sequence up to the point where the same image number is used again. The sub-sequence identifier may also be determined according to a particular, certain mathematical sequence. When the value of the sub-sequence identifier reaches the maximum value N of the series, determining the identifier starts again from the beginning of the series. However, sub-sequences cannot be assigned identifiers in use (in the same layer). The series in use may also be determined in a manner other than mathematically. Another alternative is to assign random sub-sequence identifiers in consideration that the assigned identifier is not used again.

사용자가 비디오 시퀀스의 중간에 비디오 파일 검색을 시작하고자 할 때 이미지 프레임들에 대한 번호 매기기의 문제가 발생한다. 가령, 사용자가 국부적으로 저장된 비디오 파일을 앞뒤로 검색하고자 하거나 특정 지점의 스트리밍 파일을 검색하고자 할 때; 사용자가 한 무작위 지점으로부터 스트리밍 파일의 재생을 시작할 때; 또는 재생될 비디오 파일이 그 재생을 방해하는 에러를 포함하고 있음이 검출되거나 그 에러에 뒤 이은 지점에서 재생을 다시 재개할 필요가 있을 때, 그러한 경우들이 일어난다. 비디오 파일이 이전의 검색 후 한 무작위 지점에서 재개될 때, 보통 이미지 번호 매기기의 불연속성이 발생한다. 일반적으로 디코더는 이것을 이미지 프레임들의 비의도적 손실로 해석하여 잃어버렸다고 추정한 이미지 프레임들을 재구성하려고 불필요하게 시도한다.The problem of numbering for image frames occurs when the user wants to start searching for a video file in the middle of a video sequence. For example, when a user wishes to search back and forth a locally stored video file or search for a streaming file at a specific point; When the user starts playing the streaming file from one random point; Or such cases occur when it is detected that the video file to be played contains an error that prevents its playback, or when it is necessary to resume playback at a point following the error. When a video file is resumed at one random point after a previous search, discontinuities in image numbering usually occur. In general, the decoder interprets this as an unintentional loss of image frames and unnecessarily attempts to reconstruct the image frames that it assumes are lost.

본 발명의 바람직한 실시예에 따르면, 이러한 것은 디코더에서, 비디오 파일의 무작위 지점에서 활성화되는, 독자적으로 디코딩 가능한 화상 그룹 GOP에 한 시작 이미지를 규정함으로써 회피될 수 있으며, 그 시작 이미지의 번호는 0으로 정해진다. 따라서 그 독자적으로 디코딩 가능한 이미지 그룹은 인트라 계층의 서브-시 퀀스일 수 있고, 가령, 이 경우 I-프레임이 그 시작 이미지로서 사용되며, 만일 베이스 계층에서 일어난 스케일링이 이용될 때 독자적으로 디코딩 가능한 이미지 그룹은 베이스 계층의 서브-시퀀스이고, 이 경우 통상적으로 I-프레임인, 그 서브-시퀀스의 제1이미지 프레임이 시작 이미지로서 보통 사용된다. 결과적으로, 무작위 지점에서 활성화될 때, 디코더는, 독자적으로 디코드 가능한 서브-시퀀스의 제1이미지 프레임, 바람직하게는 I-프레임을 0이라고 정한다. 디코딩될 서브-시퀀스 역시 (가령 상술한 문자-숫자 시리즈가 처음부터 시작될 때) 식별자가 0인 다른 이미지 프레임들을 구비할 수 있으므로, 서브-시퀀스의 시작, 즉 제1이미지 프레임은 그 이미지 프레임의 일부분 중 헤더 필드에 부가되는 개별 플래그 등에 의해 디코더로 지시될 수 있다. 이것은 디코더로 하여금 이미지 번호들을 바르게 해석하고 비디오 시퀀스 이미지 프레임들로부터 서브-시퀀스를 개시하는 바른 이미지 프레임을 알 수 있도록 한다.According to a preferred embodiment of the invention, this can be avoided by defining, at the decoder, a starting image in the independently decodable picture group GOP, which is activated at a random point in the video file, the starting image number being zero. It is decided. Thus the independently decodable image group may be a sub-sequence of the intra layer, for example in this case an I-frame is used as its starting image, and the independently decodable image if scaling takes place in the base layer is used. The group is a sub-sequence of the base layer, in which case the first image frame of that sub-sequence, which is typically an I-frame, is usually used as the starting image. As a result, when activated at a random point, the decoder sets the first image frame, preferably the I-frame, of the independently decodable sub-sequence to zero. Since the sub-sequence to be decoded may also have other image frames with an identifier of zero (eg when the above-mentioned alpha-numeric series starts from the beginning), the beginning of the sub-sequence, ie the first image frame is part of that image frame. It may be indicated to the decoder by an individual flag added to the header field. This allows the decoder to correctly interpret the image numbers and to know the correct image frame starting the sub-sequence from the video sequence image frames.

상술한 번호 매김 시스템은 본 발명의 고유한 이미지 프레임 식별을 어떻게 수행하고 그에 따라 동시에 어떻게 이미지 프레임들 사이의 상호의존성을 나타내도록 하는지에 대한 오직 하나의 예를 제공한다. 그러나, ITU-T 표준 H.263 및 H.26L에 따른 비디오 코딩 방법들과 같은, 본 발명의 방법이 적용될 수 있는 비디오 코딩 방법들은 가변장 코드들을 사용하는 코드 테이블들을 사용한다. 가변장 코드들이 코딩 계층 번호들을 위해 사용될 때, 가령, 하위 코드워드 인덱스, 즉 작은 계층 번호는 더 짧은 코드워드를 나타낸다. 실제로 본 발명의 스케일 가능 코딩은 베이스 계층이 인트라 계층 보다 훨씬 더 많은 이미지 프레임들로 이뤄질 수 있도록 대부분의 경우들에서 사용될 것이다. 이것은 인트라 계층상에서 보다 베이스 계층 상에서, 하위 인덱스, 즉 보다 작은 계층 번호의 사용을 정당화하는데, 그 이유는 코딩된 비디오 데이터의 양이 그에 따라 바람직하게 감소되기 때문이다. 결국, 인트라 계층은 계층 번호 1이 할당되고 베이스 계층은 계층 번호 0이 주어진다. 이와 다른 선택사항으로서, 인트라 계층 번호 보다 베이스 계층 번호를 코딩하는데 더 적은 비트들을 사용해 코드가 만들어질 수 있고, 이 경우 실제 계층 번호치는 생성된 코드 길이 쪽과는 무관하다.The numbering system described above provides only one example of how to perform the unique image frame identification of the present invention and thus simultaneously indicate interdependence between image frames. However, video coding methods to which the method of the present invention can be applied, such as video coding methods according to the ITU-T standards H.263 and H.26L, use code tables that use variable length codes. When variable length codes are used for coding layer numbers, for example, a lower codeword index, i.e., a small layer number, indicates a shorter codeword. Indeed the scalable coding of the present invention will be used in most cases so that the base layer can consist of much more image frames than the intra layer. This justifies the use of a lower index, i.e., a smaller layer number, on the base layer than on the intra layer, since the amount of coded video data is preferably reduced accordingly. Eventually, the intra layer is assigned layer number 1 and the base layer is assigned layer number 0. Alternatively, the code can be made using fewer bits to code the base layer number than the intra layer number, in which case the actual layer number value is independent of the generated code length side.

또, 본 발명의 바람직한 제2실시예들에 따르면, 스케일 가능 계층들의 수는 낮게 유지되어져야 할 때, 특별히 제1스케일 가능 계층은 인트라 계층과 베이스 계층 모두를 구비하도록 코딩될 수 있다. 코딩 계층성의 관점에서 볼 때, 이것을 계획하는 가장 간단한 방법이 인트라 계층을 통째로 배제하고, 이미지 정보가 모션-보상된 시간적 예측을 이용해 결정된 것이 아니며 독자적으로 규정된 I-프레임들과, 이미지 프레임들이 동일 계층의 I-프레임들로부터 예측된 모션-보상된 P-프레임들인, 이전 프레임들로부터 예상된 이미지 프레임들 모두로 이뤄진 코딩 프레임들이 베이스 계층에 제공되도록 하는 것이다. 따라서 계층 번호 0는 베이스 계층에 대해 사용될 수 있고, 인핸스먼트 계층들이 비디오 시퀀스 안에 코딩될 때, 인핸스먼트 계층 1은 계층 번호 1이 할당된다. 이것이 도 3a 및 3b를 참조하여 이하에서 예시될 것이다.Further, according to the second preferred embodiment of the present invention, when the number of scalable layers should be kept low, in particular, the first scalable layer can be coded to have both an intra layer and a base layer. From the point of view of coding hierarchical, the simplest way to plan this is to exclude the entire intra layer, and the image information is not determined using motion-compensated temporal prediction, and the image frames are identical to the independently defined I-frames. Coding frames consisting of all of the image frames expected from previous frames, which are motion-compensated P-frames predicted from the I-frames of the layer, are provided to the base layer. Thus layer number 0 can be used for the base layer, and when enhancement layers are coded in a video sequence, enhancement layer 1 is assigned layer number 1. This will be illustrated below with reference to FIGS. 3A and 3B.

도 3a는 스케일 불가능한 비디오 시퀀스 구조를 보이며, 이 구조에서 모든 이미지 프레임들이 동일한 스케일 가능 계층, 즉 베이스 계층 상에 위치된다. 비 디오 시퀀스는 I-프레임 (I.0.0)으로 제1서브-시퀀스를 시작하는 제1이미지 프레임(300)을 구비한다. 이미지 프레임(300)은 그 서브-시퀀스의 제2이미지 프레임(302), 즉 P-프레임 (P.0.1)을 예측하는데 사용되고, 프레임(302)은 그 서버-시퀀스의 제3이미지 프레임(304), 즉 P-프레임 (P.0.2)을 예측되는데 사용되며, 프레임(304)은 다음 이미지 프레임(306), 즉 P-프레임 (P.0.3)을 예측하는데 사용된다. 그리고 나서 비디오 시퀀스에는 그 안에서 코딩된 I-프레임 (I.1.0), 즉 I-프레임(308)이 제공되며, 그것은 비디오 시퀀스의 제2서브-시퀀스를 시작하게 한다. 이런 종류의 스케일 불가능 코딩은 가령 사용중인 어플리케이션이 스케일 가능 코딩이 사용되는 것을 허용하지 않거나 그 사용의 필요가 없을 때 사용될 수 있다. 회로 교환 비디오 폰 어플리케이션에서, 예를 들어, 채널 대역폭은 일정하게 유지되고 비디오 시퀀스는 실시간으로 코딩되므로, 보통 스케일 가능 코딩을 할 필요가 없게 된다.3A shows a non-scalable video sequence structure in which all image frames are located on the same scalable layer, ie, the base layer. The video sequence has a first image frame 300 that starts the first sub-sequence with an I-frame (I.0.0). Image frame 300 is used to predict the second image frame 302 of that sub-sequence, ie P-frame (P.0.1), and frame 302 is the third image frame 304 of its server-sequence. In other words, it is used to predict the P-frame (P.0.2), and the frame 304 is used to predict the next image frame 306, ie the P-frame (P.0.3). The video sequence is then provided with an I-frame (I.1.0), that is, an I-frame 308, coded therein, which starts a second sub-sequence of the video sequence. This kind of non-scalable coding may be used, for example, when the application in use does not allow or need no use of scalable coding. In circuit-switched video phone applications, for example, the channel bandwidth remains constant and the video sequence is coded in real time, so there is usually no need for scalable coding.

도 3b는 필요할 때 인트라- 및 베이스 계층 결합에 스케일 가능성이 어떻게 추가될 수 있는지에 대한 예를 도시한다. 여기에서도 역시, 비디오 시퀀스 베이스 계층은 I-프레임 (I.0.0)이고 베이스 계층의 제1서브-시퀀스를 시작하는 제1이미지 프레임(310)을 포함한다. 이미지 프레임(310)은 서브-시퀀스의 제2이미지 프레임(312), 즉 P-프레임 (P.0.1)을 예측하는데 사용되고, 제2이미지 프레임(312)은 서브-시퀀스의 제3이미지 프레임(314), 즉, P-프레임 (P.0.2)를 예측하는데 사용된다. 그러나, 인핸스먼트 계층 1 역시 이 비디오 시퀀스 안에 코딩되고 제1서브-시퀀스를 포함한다. 그 제1서브-시퀀스의 오직 하나인 유일한 이미지 프레임(316)이 P-프레임 (P.0.0)이며, 이것은 베이스 계층의 제1이미지 프레임(310)으로부터 예측된다. 인핸스먼트 계층의 제2ㅅ브-시퀀스의 제1이미지 프레임(318)이 베이스 계층의 제2이미지 프레임(312)로부터 예측되고, 그에 따라 P-프레임은 (P.1.0)이 된다. 인핸스먼트 계층의 다음 이미지 프레임(320)은 같은 계층의 이전 이미지 프레임(318)으로부터 다시 예측되고, 동일한 서브-시퀀스에 속하므로, 식별자가 (P.1.1)이 된다.3B shows an example of how scalability can be added to intra- and base layer combining when needed. Here too, the video sequence base layer is an I-frame (I.0.0) and comprises a first image frame 310 which starts the first sub-sequence of the base layer. The image frame 310 is used to predict the second image frame 312 of the sub-sequence, ie P-frame (P.0.1), and the second image frame 312 is the third image frame 314 of the sub-sequence. ), Ie, to predict the P-frame (P.0.2). However, enhancement layer 1 is also coded in this video sequence and includes the first sub-sequence. The only image frame 316 that is only one of the first sub-sequences is a P-frame (P.0.0), which is predicted from the first image frame 310 of the base layer. The first image frame 318 of the second sub-sequence of the enhancement layer is predicted from the second image frame 312 of the base layer, so that the P-frame is (P.1.0). The next image frame 320 of the enhancement layer is predicted again from the previous image frame 318 of the same layer and belongs to the same sub-sequence, so that the identifier is (P.1.1).

본 발명의 이러한 실시예에서, 한 베이스 계층 서브-시퀀스가 다른 베이스 계층 서브-시퀀스에 종속되더라도, 베이스 계층의 서브-시퀀스들은 독립적으로 디코딩될 수 있다. 베이스 계층 서브-시퀀스들의 디코딩은 베이스 계층 및/또는 인핸스먼트 계층 1의 제2서브-시퀀스로부터의 정보를 필요로하며, 인핸스먼트 계층 2의 서브-시퀀스들은 인핸스먼트 계층 1 및/또는 인핸스먼트 계층 2의 서브-시퀀스로부터의 정보를 필요로 하는 식이 된다. 한 실시예에 따르면, I-프레임들은 베이스 계층에만 유일하게 한정되는 것이 아니며, 인핸스먼트 계층들 역시 I-프레임들을 구비할 수 있다.In this embodiment of the invention, even if one base layer sub-sequence is dependent on another base layer sub-sequence, the sub-sequences of the base layer can be decoded independently. Decoding of base layer sub-sequences requires information from the second sub-sequence of base layer and / or enhancement layer 1, wherein the sub-sequences of enhancement layer 2 are enhancement layer 1 and / or enhancement layer. An equation that requires information from a sub-sequence of two is given. According to an embodiment, I-frames are not limited to the base layer alone, and enhancement layers may also have I-frames.

상기 실시예들 이면의 기본 사상이, 한 서브-시퀀스가 자신이 종속된 모든 서브-시퀀스들, 즉 문제의 서브-시퀀스의 이미지 프레임들 중 적어도 하나를 예측하는데 사용되었던 모든 서브-시퀀스들에 대한 정보를 구비한다는 것이다. 그러나, 일실시예에 따르면, 한 서브-시퀀스가 그 서브-시퀀스에 종속된 모든 서브-시퀀스들에 대한, 즉 그 서브-시퀀스의 적어도 한 이미지 프레임을 이용해 예측되었던 적어도 한 이미지 프레임이 있는 모든 서브-시퀀스들에 대한 정보를 포함하는 것 역시 가능하다. 후자의 경우 종속성이 보통 시간상 앞쪽으로 결정되므로, 다음에 설명될 방식에 따른 코딩시 이미지 프레임 버퍼들이 바람직하게 활용될 수 있다.The basic idea behind the above embodiments is that one sub-sequence for all sub-sequences that it was used to predict at least one of the image frames of the sub-sequence in question, i.e. To have information. However, according to one embodiment, all sub-sequences for all sub-sequences dependent on that sub-sequence, ie all subs with at least one image frame that were predicted using at least one image frame of that sub-sequence. It is also possible to include information about sequences. In the latter case, since the dependency is usually determined forward in time, image frame buffers may be preferably utilized in coding according to the manner described below.

상기 모든 실시예들에서 이미지 프레임의 번호 매기기는 서브-시퀀스에 특정한 것이다. 즉 새로운 서브-시퀀스는 항상 처음부터 번호매김을 시작한다. 따라서 개별 이미지 프레임의 식별은 계층 번호, 서브-시퀀스 식별자 및 정해질 이미지 프레임 번호를 필요로 한다. 본 발명의 바람직한 실시예에 따르면, 이미지 프레임들은 코딩 순서 상의 연속 참조 이미지 프레임들이 하나씩 중가되는 번호들로서 표시되는 연속 번호매김 방식을 이용해 독립적으로 번호 매김될 수 있다. 계층 번호들과 서브-시퀀스 식별자들과 관련하여, 상술한 번호매김 방식이 사용될 수 있다. 이것은 계층 번호와 서브-시퀀스 식별자를 사용하지 않고 필요할 때마다 각 이미지 프레임이 고유하게 식별될 수 있도록 한다.In all the above embodiments the numbering of the image frames is specific to the sub-sequence. The new sub-sequence always starts numbering from the beginning. Thus identification of individual image frames requires a layer number, a sub-sequence identifier, and an image frame number to be determined. According to a preferred embodiment of the present invention, image frames may be independently numbered using a continuous numbering scheme in which consecutive reference image frames in coding order are represented as weighted numbers one by one. With regard to layer numbers and sub-sequence identifiers, the above-mentioned numbering scheme can be used. This allows each image frame to be uniquely identified whenever needed without using layer numbers and sub-sequence identifiers.

이것은 베이스 계층이 시간상으로 첫번째 I-프레임(400) (I.0.0)을 포함하는 도 4a에 도시된 예로서 예시된다. 이 프레임은 인핸스먼트 계층 1의 제1이미지 프레임(402), 즉 (P.0.1)을 예측하는데 사용되며, 제1이미지 프레임(402)은 동일한 서브-시퀀스 (서브-시퀀스 식별자 0)에 속한 제2이미지 프레임(404), 즉 (P.0.2)를 예측하는데 사용되고, 제2이미지 프레임(404)은 동일한 서브-시퀀스의 제3이미지 프레임(406), 즉 (P.0.3)을 예측하는데 사용되고, 제3이미지 프레임(406)은 제4이미지 프레임(408) (P.0.4)을 예측하는데 사용되고, 마지막으로, 제4프레임은 제5이미지 프레임(410) (P.0.5)을 예측하는데 사용된다. 시간상 다음 비디오 시퀀스 이 미지 프레임(412)은 베이스 계층 위에 위치하고, 여기서 그것은 I-프레임(400)과 동일한 서브-시퀀스 안에 있지만, 시간적으로는 단지 일곱번째로 코딩된 이미지 프레임일 뿐이므로, 그 식별자는 (P.0.6)이 된다. 그 일곱번째 프레임은 인핸스먼트 계층 1의 제2서브-시퀀스의 제1이미지 프레임(414), 즉 (P.1.7)을 예측하는데 사용되고, 제1이미지 프레임(414)은 동일한 서브-시퀀스(서브-시퀀스 식별자 1)에 속하는 제2이미지 프레임(416), 즉 (P.1.8)을 예측하는데 사용되고, 제2이미지 프레임(416)은 제3이미지 프레임(418) (P.1.9)을 예측하는데 사용되고, 제3이미지 프레임은 제4이미지 프레임(420) (P.1.10)을 예측하는데 사용되며, 마지막으로 제4이미지 프레임은 제5이미지 프레임(422) (P.1.11)을 예측하는데 사용된다. 다시, 시간적으로 그 다음 비디오 시퀀스 이미지 프레임(424)이 베이스 계층상에 위치하고, 그것은 I-프레임(400) 및 P-프레임(412)과 동일한 서브-시퀀스 안에 있지만, 시간적으로는 13번째 코딩된 이미지 프레임에 불과하므로 그 식별자는 (P.0.12)가 된다. 예시의 명료함을 위해, 상기 실시예에 대한 설명에서는 계층 식별자들을 포함하지 않았지만, 스케일 가능성을 구현하기 위해, 보통 계층 식별자가 이미지 프레임 식별자들의 일부로서 비디오 시퀀스와 합쳐져 시그날링되어야 한다는 것은 명백한 사실이다.This is illustrated by the example shown in FIG. 4A where the base layer includes the first I-frame 400 (I.0.0) in time. This frame is used to predict the first image frame 402 of the enhancement layer 1, i.e. (P.0.1), the first image frame 402 belonging to the same sub-sequence (sub-sequence identifier 0). Used to predict two image frames 404, i.e. (P.0.2), second image frames 404 are used to predict third image frames 406, i.e. (P.0.3), of the same sub-sequence, The third image frame 406 is used to predict the fourth image frame 408 (P.0.4), and finally, the fourth frame is used to predict the fifth image frame 410 (P.0.5). The next video sequence image frame 412 in time is located above the base layer, where it is in the same sub-sequence as I-frame 400, but in time it is only the seventh coded image frame, so the identifier is (P. 0.6). The seventh frame is used to predict the first image frame 414 of the second sub-sequence of enhancement layer 1, i.e. (P.1.7), and the first image frame 414 is the same sub-sequence (sub-sequence). Used to predict the second image frame 416 (P.1.8) belonging to the sequence identifier 1), the second image frame 416 is used to predict the third image frame 418 (P.1.9), The third image frame is used to predict the fourth image frame 420 (P.1.10), and finally the fourth image frame is used to predict the fifth image frame 422 (P.1.11). Again, in time the next video sequence image frame 424 is located on the base layer, which is in the same sub-sequence as the I-frame 400 and the P-frame 412, but in time the thirteenth coded image. Since it is only a frame, its identifier becomes (P.0.12). For the sake of clarity of illustration, the description of the embodiment did not include layer identifiers, but in order to implement scalability, it is obvious that layer identifiers should usually be combined and signaled with the video sequence as part of the image frame identifiers. .

도 4b 및 4c는 도 4a에 도시된 비디오 시퀀스의 이미지 프레임들을 그루핑하기 위한 다른 선택적 실시예들을 도시한다. 도 4b의 이미지 프레임들은 서브-시퀀스에 따라 번호가 매겨진다. 즉, 새 서브-시퀀스는 항상 처음부터(0 부터) 번호 매기기를 시작한다. 도 4c는 이와 달리, 베이스 계층의 P-프레임들이 SP-프레임 쌍들로 대체되어 이미지 정보의 동일한 재구성을 가능하게 한다는 것만을 빼면 도 4a에 사용된 것에 상응하는 이미지 프레임 번호 매김을 이용한다. 4B and 4C show other optional embodiments for grouping image frames of the video sequence shown in FIG. 4A. The image frames of FIG. 4B are numbered according to sub-sequences. That is, the new sub-sequence always starts numbering from the beginning (from zero). FIG. 4C otherwise uses image frame numbering corresponding to that used in FIG. 4A except that P-frames in the base layer are replaced with SP-frame pairs to enable the same reconstruction of the image information.

상술한 바와 같이, 본 발명의 방식은 B-프레임들을 이용해 구현될 수도 있다. 이것의 한 예가 도 5a, 5b, 및 5c에 도시된다. 도 5a는 시간 도메인 상의 한 비디오 시퀀스를 보인다. 그 시퀀스는 P-프레임들인 P1, P4, 및 P7과 그들 사이에 놓인 B-프레임들을 포함하고, 시간적 예측과 관련해 B-프레임들의 종속성이 화살표로서 도시되고 있다. 도 5b는 비디오 시퀀스 이미지 프레임들의 바람직한 그루핑을 보인 것으로, 이때 도 5a에서 보여지는 상호 종속성들이 표시되고 있다. 도 5b는 서브-시퀀스에 특정한 이미지 프레임 번호 매기기를 도시하고 있으며, 여기서 새 서브-시퀀스는 항상 0부터 이미지 프레임들의 번호 매김을 시작한다. 도 5c는 시간적 예측 순으로 연속되는 이미지 프레임 번호 매기기를 도시하고 있고, 여기서 이어지는 참조 프레임은 항상 이전 인코딩된 참조 프레임으로서 다음 이미지 번호를 받는다. 이미지 프레임 (B1.8) (및 (B2.10))은 어떤 다른 프레임에도 참조 예측 프레임으로서 제공되지 않으므로, 이미지 프레임 번호 매기는데 영향을 미치지 않는다.As mentioned above, the scheme of the present invention may be implemented using B-frames. One example of this is shown in FIGS. 5A, 5B, and 5C. 5A shows one video sequence in the time domain. The sequence includes P-frames P1, P4, and P7 with B-frames lying between them, and the dependencies of the B-frames in relation to temporal prediction are shown as arrows. FIG. 5B shows a preferred grouping of video sequence image frames, with the interdependencies shown in FIG. 5A being indicated. 5B shows image frame numbering specific to a sub-sequence, where the new sub-sequence always starts numbering image frames from zero. FIG. 5C shows image frame numbering consecutive in temporal prediction order, where subsequent reference frames always receive the next image number as the previous encoded reference frame. Image frame B1.8 (and (B2.10)) is not provided as a reference prediction frame in any other frame, and thus does not affect image frame numbering.

상기 예들은 비디오 시퀀스 코딩의 스케일 가능성이 본 발명의 방법을 이용해 어떻게 조정될 수 있는지에 대한 서로 다른 선택적 대안들을 도시한다. 그 비디오 시퀀스를 재생하는 단말 장치의 관점으로 볼 때, 더 많은 스케일 가능 계층들이 사용가능하거나, 더 많은 스케일 가능 계층들을 디코딩할 수 있수록, 더 좋은 화질을 얻게 된다. 즉, 이미지 정보량과 그 정보를 전송하는데 사용되는 비트율의 증가가 시간 또는 공간적 해상도나 이미지 데이터의 공간적 품질을 향상시킨다. 마찬가지로, 더 많은 수의 스케일 가능 계층들은 디코딩을 수행하는 단말 장치의 프로세싱 용량에 대해 훨씬 더 높은 요구들을 역시 마련한다.The above examples illustrate different optional alternatives to how the scalability of video sequence coding can be adjusted using the method of the present invention. From the perspective of the terminal device playing the video sequence, the more scalable layers are available, or the more scalable layers can be decoded, the better the picture quality. That is, an increase in the amount of image information and the bit rate used to transmit that information improves the temporal or spatial resolution or spatial quality of the image data. Likewise, a larger number of scalable layers also place even higher demands on the processing capacity of the terminal device to perform the decoding.

또, 상기 예들은 서브-시퀀스들을 이용함으로써 얻어지는 이점을 예시한다. 이미지 프레임 식별자들을 가지고, 서브 시퀀스 안의 각 이미지 프레임의 다른 이미지 프레임들에 대한 종속성들이 분명한 방식으로 표시된다. 따라서 버스-시퀀스는, 그 비ㅣㄷ오 시퀀스의 일련의 이미지 프레임들에 대한 디코딩에 영향을 주지 않으면서 필요할 때 비디오 시퀀스로부터 누락될 수 있는 독립적인 통일체를 형성한다. 그 경우, 동일하고/하거나 그에 종속되는 하위의 스케일 가능 계층들 상의 해당 서브-시퀀스 및 다른 서브-시퀀스들의 이미지 프레임들만이 디코딩되지 않는다.Again, the examples illustrate the benefits obtained by using sub-sequences. With image frame identifiers, dependencies on the other image frames of each image frame in the subsequence are indicated in a clear manner. The bus-sequence thus forms an independent entity that can be missed from the video sequence when needed without affecting the decoding of the series of image frames of the video sequence. In that case, only image frames of that sub-sequence and other sub-sequences on the lower scalable layers that are the same and / or dependent thereon are not decoded.

비디오 시퀀스와 함께 전송되는 이미지 프레임 식별자 데이터는 비디오 시퀀스 헤더 필드들이나 비디오 시퀀스 전송에 상요될 전송 프로토콜의 헤더 필드들에 포함됨이 바람직하다. 즉, 예측된 이미지 프레임들의 식별자 데이터는 코딩된 비디오 시퀀스의 이미지 데이터 안에 포함되지 않고, 항상 헤더 필드들 안에 들어감으로써, 이미지 프레임들의 종속성들은 실제 비디오 시퀀스의 이미지들을 디코딩하지 않고도 검출될 수 있다. 이미지 프레임들의 식별자 데이터는, 비디오 시퀀스가 전송을 위해 코딩되고 있을 때 가령 스트리밍 서버의 버퍼 메모리에 저장될 수 있다. 또, 서브-시퀀스들은 각 스케일 가능 계층 위에서 독립적으로 디코딩될 수 있는데, 이는 한 서브-시퀀스의 이미지 프레임은 동일한 스케일 가능 계층의 다른 서 브-시퀀스들에 종속되지 않기 때문이다.The image frame identifier data transmitted with the video sequence is preferably included in the video sequence header fields or in the header fields of the transport protocol to be used for video sequence transmission. That is, the identifier data of the predicted image frames are not included in the image data of the coded video sequence, and always fall into the header fields, so that the dependencies of the image frames can be detected without decoding the images of the actual video sequence. Identifier data of the image frames may be stored, for example, in a buffer memory of the streaming server when the video sequence is being coded for transmission. In addition, the sub-sequences can be decoded independently on each scalable layer, since an image frame of one sub-sequence is not dependent on other sub-sequences of the same scalable layer.

본 발명의 일실시예에 따르면, 서브-시퀀스에 구비된 이미지 프레임들은 동일한 스케일 가능 계층의 다른 서브-시퀀스들에도 종속될 수 있다. 그러면 이 종속성은 트래픽 정형화(shaping)를 수행하는 스트리밍 서버 등으로 시그날링되어져야 하는데, 이는 동일 계층 상에 위치된 독립적 서브-시퀀스들은 전송될 비디오 시퀀스로부터 별도로 제거될 수 없기 때문이다. 시그날링을 수행하는 바람직한 방법이, 가령 해당 서브-시퀀스가 의존하는 계층-서브-시퀀스 쌍들을 리스트화함으로써, 전송될 이미지 프레임 식별자들 안에 그 종속성을 포함시키도록 하는 것이다. 이것은 또한 동일한 스케일 가능 계층의 다른 서브-시퀀스로부터의 종속성을 나타내는 바람직한 방법을 제공한다.According to an embodiment of the present invention, image frames included in a sub-sequence may depend on other sub-sequences of the same scalable layer. This dependency must then be signaled to a streaming server or the like that performs traffic shaping, since independent sub-sequences located on the same layer cannot be removed separately from the video sequence to be transmitted. A preferred way of performing signaling is to list the layer-sub-sequence pairs on which the sub-sequence depends, so as to include that dependency in the image frame identifiers to be transmitted. This also provides a preferred way of indicating dependencies from other sub-sequences of the same scalable layer.

상기 예들은 이미지 프레임들이 이전 이미지 프레임들로부터 시간적으로 예측되는 상황을 예시한다. 그러나 어떤 코딩 방식들에서는, 참조 화상 선택이, 시간적으로 이어지는 이미지 프레임들로부터의 이미지 프레임들의 이미지 정보에 대해 예측하는 것 역시 포함하도록 더 확장되었다. 참조 화상 선택은 시간적으로 상이한 스케일 가능 이미지 프레임 구조들을 생성하기 위해 가장 다각화된 수단을 제공하고 비디오 시퀀스의 에러 감도(sensitivity)가 줄어질 수 있도록 한다. 참조 화상 선택에 기반한 코딩 기술들 중 하나가 인트라 프레임 연기(postponement)이다. 인트라 프레임은 비디오 시퀀스 안에서 시간적으로 "바른" 위치에 자리하지 않고 그 위치가 시간적으로 뒤에 온다. 인트라 프레임의 "바른" 위치와 실제 위치 사이에 있는 비디오 시퀀스 이미지 프레임들은 해당 인트라 프레임으로부터 시간적 으로 역행하는 방향으로 예측된다. 이것은 당연히, 디스플레이될 모든 이미지 프레임들이 재현 순서에 맞게 코딩 및 배치될 수 있도록, 코딩되지 않은 이미지 프레임들이 충분하게 긴 시간 주기 동안 버퍼링될 것을 요구한다. 본 발명에 따른, 인트라 프레임 전송 및 그 관련 서브-시퀀스들의 결정은 도 6을 참조해 이하에서 설명될 것이다.The above examples illustrate the situation in which image frames are predicted in time from previous image frames. In some coding schemes, however, reference picture selection has been further extended to include predicting image information of image frames from temporally subsequent image frames. Reference picture selection provides the most diversified means for generating temporally different scalable image frame structures and allows the error sensitivity of the video sequence to be reduced. One of the coding techniques based on reference picture selection is intra frame postponement. An intra frame does not sit in a "right" position in time within the video sequence, but that position follows in time. Video sequence image frames that are between the "right" position and the actual position of an intra frame are predicted in the direction temporally backward from the intra frame. This naturally requires that the uncoded image frames be buffered for a sufficiently long period of time so that all image frames to be displayed can be coded and placed in the order of reproduction. In accordance with the present invention, determination of intra frame transmission and its associated sub-sequences will be described below with reference to FIG. 6.

도 6a는 어떤 비디오 시퀀스 부분을 도시하며, 여기서 인트라 프레임은 단일 I-프레임(600)을 포함하고, 이것은 도 6에 도시된 위치로 시간상 이동되었으나, 그 비디오 시퀀스에서의 "올바른" 위치는 첫번째 이미지 프레임이었을 것이다. "올바른" 위치와 실제 위치(600) 사이의 비디오 시퀀스 이미지 프레임들은 시간적으로 역행하여 예측된다. 이는 인핸스먼트 계층 1 안에 코딩된 서브-시퀀스에 의해 예시되며, 시간적으로 역행한 첫번째 예측 이미지 프레임(602)인 P-프레임 (P.0.0)을 포함한다. 이 프레임은 이전 이미지 프레임(604), 즉 P-프레임 (P.0.1)의 시간적 예측을 위해 사용되고, 이미지 프레임(604)은 이미지 프레임(606), 즉 P-프레임 (P.0.2)를 예측하는데 사용되며, 마지막으로 프레임(606)은 이미지 프레임(608), 즉, 이 비디오 시퀀스에서 I-프레임(600)의 "올바른" 위치였었을 위치에 있는 P-프레임 (P.0.3)을 예측하는데 사용된다. 이와 마찬가지로, 베이스 계층상의 I-프레임(600)이 네 개의 P-프레임들(610, 612, 614, 616) (P.0.0), (P.0.1), (P.0.2), 및 (P.0.3)을 포함하는 서브-시퀀스의 시간적으로 전진하는 방향의 예측을 위해 사용된다.FIG. 6A shows a portion of a video sequence, where the intra frame includes a single I-frame 600, which has been moved in time to the position shown in FIG. 6, but the “right” position in the video sequence is the first image. It would have been a frame. Video sequence image frames between the "correct" position and the actual position 600 are predicted in time backwards. This is illustrated by the sub-sequence coded in enhancement layer 1 and includes a P-frame (P.0.0), which is the first predictive image frame 602 temporally backwarded. This frame is used for temporal prediction of the previous image frame 604, i.e., P-frame (P.0.1), and the image frame 604 predicts the image frame 606, i.e., P-frame (P.0.2). Finally, frame 606 is used to predict an image frame 608, i.e., a P-frame (P.0.3) at a position that would have been the "right" position of I-frame 600 in this video sequence. do. Similarly, I-frame 600 on the base layer is divided into four P-frames 610, 612, 614, 616 (P.0.0), (P.0.1), (P.0.2), and (P. 0.3) is used for prediction of the temporally advancing direction of the sub-sequence.

이 예에서, 역행 예측 이미지 프레임들이 전진 예측 이미지 계층들 보다 하 위 계층에 위치한다는 사실은, 예시할 목적으로 역행 예측 이미지 프레임들이 이 코딩 예에서는 전진 에측 이미지 프레임들 보다 주관적으로 덜 중요하다고 간주되고 있음을 나타낸다. 당연히, 상기 서브-시퀀스들은 둘 다 동일한 계층에 위치될 수 있으며, 그 경우 그들은 같다고 간주되고, 역행 예측 서브-시퀀스가 상위 계층에 있는 경우 그 시퀀스가 주관적으로 더 중요하다고 간주될 수 있다.In this example, the fact that retrograde predictive image frames are located in a lower layer than forward predictive image layers, for purposes of illustration, retrograde predictive image frames are considered to be subjectively less important in this coding example than forward predictive image frames. It is present. Naturally, the sub-sequences can both be located in the same layer, in which case they are considered equal, and if the retrograde prediction sub-sequence is in a higher layer, the sequence can be considered subjectively more important.

도 6b 및 6c는 도 6a에 따른 비디오 시퀀스를 코딩하는 어떤 다른 선택사항을 도시한 것이다. 도 6b에서 전진 및 역행 예측 서브-시퀀스들은 베이스 계층 위에 위치하며, I-프레임은 인트라 계층에만 위치한다. 이 계층의 전진 예측 서브-시퀀스는 제2서브-시퀀스이고 그 서브-시퀀스 식별자는 1이다. 도 6c에서, I-프레임과 그에 기반한 전진 예측 서브-시퀀스는 베이스 계층에 위치하고, 한편 역행 예측 서브-시퀀스는 인핸스먼트 계층 1에 위치된다.6b and 6c illustrate some other options for coding the video sequence according to FIG. 6a. In FIG. 6B the forward and backward prediction sub-sequences are located above the base layer and the I-frame is located only in the intra layer. The forward prediction sub-sequence of this layer is the second sub-sequence and its sub-sequence identifier is one. In FIG. 6C, the I-frame and the forward prediction sub-sequences based thereon are located in the base layer, while the backward prediction sub-sequence is located in enhancement layer 1. FIG.

또, 본 발명의 바람직한 실시예에 따르면, 상술한 스케일 가능성은 비디오 시퀀스로의 장면 전환이라고 알려진 코딩을 위해 활용될 수 있다. 뉴스, 뮤직 비디오 및 영화 보여주기와 같은 비디오물은 흔히 각각의 이미지 구성 장면들 사이에서 빠른 장면 바꾸기(cut)들을 포함한다. 때때로 이 장면 바꾸기들은 급작스럽지만, 장면 전환이라고 알려지는 방식은 흔하게 사용되는 것으로 한 장면에서 다른 장면으로의 전환은 디밍(dimming), 와이핑(wiping), 모자이크 디졸브(dissolving) 또는 이전 장면의 이미지 프레임들을 스크롤링하고 마찬가지로 나중 장면의 이미지 프레임들을 제공함으로써 발생된다. 코딩 효율성의 관점에서 볼 때, 장면 전환의 비디오 코딩은 흔히 가장 문제가 많은데, 이는 장면 전환 도중에 나타나는 이미지 프레임들이 장면을 제거 및 개시하는 이미지 프레임들에 대한 정보를 포함하고 있기 때문이다.Further, according to a preferred embodiment of the present invention, the above described scalability can be utilized for coding known as scene transitions into video sequences. Video material such as news, music videos, and movie shows often include fast scene cuts between individual image composition scenes. Sometimes these scene changes are abrupt, but what's known as a transition is a common one, and the transition from one scene to another is dimming, wiping, dissolving, or image frames from previous scenes. By scrolling them and likewise providing image frames of later scenes. In terms of coding efficiency, video coding of scene transitions is often the most problematic, since the image frames that appear during the scene transition contain information about the image frames that remove and initiate the scene.

통상적인 장면 전환인 페이딩(fading)은 제1장면의 이미지 프레임들의 강도나 휘도를 0으로 점진적으로 줄이면서 제2장면의 이미지 프레임들의 강도는 점진적으로 최대값까지 증가시킴으로써 수행된다. 이 장면 전환을 크로스-페이디드(cross-faded, 교차 페이딩) 장면 전환이라고 한다.Fading, a typical scene transition, is performed by gradually decreasing the intensity or luminance of the image frames of the first scene to zero while gradually increasing the intensity of the image frames of the second scene to a maximum value. This scene transition is called a cross-faded scene transition.

일반적으로 말할 때, 컴퓨터로 만든 이미지는 계층들이나 이미지 오브젝트들로 이뤄진다고 생각될 수 있다. 각 오브젝트는 적어도 세 가지 정보 유형들을 참조해 규정될 수 있다. 그 세 정보 유형은, 이미지 오브젝트의 구조, 그 모양과 투과도, 및 이미지의 배경 및 다른 이미지 오브젝트들과 관련된 계층 순서(깊이)를 말한다. 모양과 투과도는 흔히 알파 평면이라고 알려진 것을 이용해 정해지는 것으로, 불투명도를 측정하고 그 값은 보통 각 이미지 오브젝트마다 따로 따로 정해지며, 보통 비투과적이라고 판단되는 배경은 배제한다. Generally speaking, a computer-generated image can be thought of as layers or image objects. Each object may be defined with reference to at least three types of information. The three types of information refer to the structure of the image object, its shape and transmission, and the hierarchical order (depth) associated with the background of the image and other image objects. Shape and transmittance are often determined using what is known as the alpha plane, and opacity is measured and its value is usually set separately for each image object, usually excluding backgrounds that are considered non-transparent.

그래서, 배경과 같은 비투과 이미지 오브젝트의 알파 평면 값은 1.0으로 정해질 수 있는 반면, 완전 투과 이미지 오브젝트의 알파 평면 값은 0.0이 된다. 그 사이 값들은, 배경 및 해당 이미지 오브젝트에 비해 더 큰 깊이를 가진 적어도 부분적으로 중복되는 이미지 오브젝트들에 비한, 화면 내 특정 이미지 오브젝트의 가시도의 세기를 규정한다.Thus, the alpha plane value of a non-transparent image object, such as a background, can be set to 1.0, while the alpha plane value of a fully transparent image object is 0.0. The values in between define the intensity of the visibility of a particular image object in the screen as compared to the background and at least partially overlapping image objects having a greater depth than the corresponding image object.

이미지 오브젝트들의 모양, 투과도 및 깊이 위치(depth position)에 따른 계층들에서의 이미지 오브젝트들의 중첩을 장면 합성이라 부른다. 실제로, 그 방식 은 가중된 평균치들의 사용에 기반한다. 먼저, 배경에 가장 가까운, 즉 그 깊이 위치에 따라 가장 깊은 이미지 오브젝트가 배경 위에 놓여지고 그 둘로 된 결합 이미지가 생성된다. 결합 이미지의 픽셀 값들은 배경 이미지 및 해당 이미지 오브젝트의 알파 평면 값들로 가중된 평균으로서 형성된다. 결합 이미지의 알파 평면 값은 1.0으로 정해지고, 그런 다음 다음 이미지 오브젝트에 대한 배경 이미지로서 사용된다. 이 프로세스는 모든 이미지 오브젝트들이 그 이미지에 부가될 때까지 계속된다.The superposition of image objects in layers according to the shape, transmittance and depth position of the image objects is called scene synthesis. In practice, the approach is based on the use of weighted averages. First, the closest image object closest to the background, i.e., the deepest image object, is placed on the background and a combined image of the two is created. The pixel values of the combined image are formed as a weighted average of the alpha plane values of the background image and the corresponding image object. The alpha plane value of the combined image is set to 1.0 and then used as the background image for the next image object. This process continues until all image objects have been added to the image.

이하에서, 본 발명의 바람직한 실시예에 따른 방식이 설명될 것이며, 여기서 비디오 시퀀스 스케일 가능 계층들은 상술한 이미지 프레임들의 이미지 오브젝트들 및 그들의 정보 유형과 결합되어, 장면 전환에 대해 역시 양호한 압축 효율을 가진 스케일 가능 비디오 코딩을 제공한다.In the following, a scheme according to a preferred embodiment of the present invention will be described, wherein the video sequence scalable layers are combined with the image objects of the above-described image frames and their information type, which also has good compression efficiency for scene transitions. Provides scalable video coding.

본 발명의 이러한 실시예가, 하나는 교차 페이딩 장면 전환을 다른 하나는는 급격한 장면 전환 등을 이용하여, 예를 들어가며 단순화된 방식으로 이하에서 설명될 것이다. 장면 전환 중에 디스플레이될 이미지 프레임들은 보통 두 중첩 이미지 프레임들로 이뤄지며, 그 이미지 프레임들 중 제1이미지 프레임은 제1이미지 장면을 제2이미지 프레임은 제2이미지 장면을 포함한다. 이미지 프레임들 중 하나는 배경 이미지로서 사용되고 전경(foreground) 이미지로 불리는 다른 하나는 그 배경 이미지 위에 위치된다. 배경 이미지의 불투명도, 즉 비투과도 값은 일정하다. 즉, 픽셀-고유의 알파 평면값들은 조정되지 않는다.This embodiment of the present invention will be described below in a simplified manner, for example, using one crossover fading transition and the other abrupt transition. Image frames to be displayed during a scene change usually consist of two overlapping image frames, wherein a first image frame includes a first image scene and a second image frame includes a second image scene. One of the image frames is used as the background image and the other, called the foreground image, is located above the background image. The opacity, or non-transparency value, of the background image is constant. That is, pixel-specific alpha plane values are not adjusted.

본 발명의 이러한 실시예에서, 배경과 전경 이미지들은 모두 스케일 가능 계 층에 따라 규정될 수 있다. 이것이 도 7에 예시되고 있는데, 도 7은 본 발명의 장면 전환 도중에 두 개의 서로 다른 장면들의 이미지 프레임들이 어떻게 스케일 가능 계층들 위에 놓여질 수 있는가에 대한 예를 보인 것이다. 도 7은 베이스 계층 상에 위치한 제1 (제거) 장면의 제1이미지 프레임(700)을 보인다. 이미지 프레임(700)은 모션 보상된 시간적 예측을 이용해 결정되지 않았던 이미지 정보를 포함하는 I-프레임일 수 있고, 아니면 이전 이미지 프레임들로부터 예측된 모션 보상 이미지 프레임인 P-프레임일 수 있다. 제2 (시작) 장면의 코딩은 시간적으로 다음 이미지 프레임 도중에 시작하며, 본 발명에 따라 그 장면의 이미지 프레임들은 베이스 계층 상에 역시 위치된다. 그러면 제2 (제거) 장면의 이미지 프레임들(702, 704)은 인핸스먼트 계층 1에 위치한다. 이들 이미지 프레임들은 보통 P-프레임들이다.In this embodiment of the invention, both the background and foreground images can be defined according to the scalable layer. This is illustrated in FIG. 7, which shows an example of how image frames of two different scenes can be placed on scalable layers during a scene transition of the present invention. 7 shows a first image frame 700 of a first (removal) scene located on a base layer. Image frame 700 may be an I-frame that includes image information that was not determined using motion compensated temporal prediction, or it may be a P-frame that is a motion compensated image frame predicted from previous image frames. Coding of the second (start) scene begins in time during the next image frame, and according to the invention the image frames of that scene are also located on the base layer. The image frames 702, 704 of the second (removed) scene are then located in enhancement layer 1. These image frames are usually P-frames.

이 실시예에서, 제2 (시작) 장면의 이미지 프레임들은 적어도 장면 전환 도중에는 베이스 계층 상에 위치된다. 그 장면의 제1이미지 프레임(706)은 보통 I-프레임이며, 그 장면의 연속되는 이미지 프레임들을 시간적으로 예측하는데 사용된다. 결국, 제2장면의 연속 이미지 프레임들은, 도 7에 도시된 프레임들(708 및 710)과 같이 시간적으로 예측된 프레임들인, 통상적 P-프레임들이다.In this embodiment, the image frames of the second (start) scene are located on the base layer at least during the scene change. The first image frame 706 of the scene is usually an I-frame and is used to temporally predict successive image frames of the scene. After all, the continuous image frames of the second scene are conventional P-frames, which are temporally predicted frames, such as frames 708 and 710 shown in FIG.

본 발명의 바람직한 실시예에 따르면, 이러한 이미지 프레임들의 스케일 가능 계층들 상의 위치시키기는, 베이스 계층에 있는 이미지 계층을 항상 최대 불투명도(100%), 또는 비투과도의 배경 이미지로 결정함으로써 교차 페이딩 장면 전환을 구현하는데 사용될 수 있다. 장면 전환 도중, 인핸스먼트 계층들 위에 놓여진 이미지 프레임들은 배경 이미지 위로 놓여져서 그들의 불투명도는 가령 적절한 필터들에 의해 그 프레임들이 비투과적인 것에서 투과적인 것으로 차츰 바뀌도록 조정된다.According to a preferred embodiment of the present invention, positioning on the scalable layers of such image frames is such that cross fading scene transitions are determined by always determining the image layer in the base layer as the maximum opacity (100%), or non-transparent background image. Can be used to implement During the transition, image frames placed on the enhancement layers are placed over the background image so that their opacity is adjusted such that the frames gradually change from non-transparent to transparent by appropriate filters.

도 7의 비디오 시퀀스에서, 제1베이스 계층 이미지 프레임(700) 도중에는 그 보다 하위의 스케일 가능 계층들 위에 어떤 이미지 프레임들도 존재하지 않는다. 이 때의 시간 동안, 제1이미지 프레임(700) 만이 비디오 스퀀스 안에 코딩된다.In the video sequence of FIG. 7, no image frames exist above the lower scalable layers during the first base layer image frame 700. During this time, only the first image frame 700 is coded in the video sequence.

베이스 계층의 다음 이미지 프레임(706)은 새(제2의) 장면을 개시시키며, 그 동안 이미지 프레임(706)에는 그것을 배경 이미지로 놓는 깊이 위치가 제공되고, 그 불투명도 값은 최대로 설정된다. 베이스 계층의 이미지 프레임(706)과 시간적으로 동일하게, 인핸스먼트 계층 1 위에 제거(제1) 장면의 이미지 프레임(702)이 존재한다. 교차 페이딩 장면 전환이 일어날 수 있도록 하기 위해, 프레임(702)의 투과도가 증가되어야 한다. 도 7의 예는 이미지 프레임(702)의 불투명도가 67%로 정해지고, 또 이미지 프레임(702)에 그것을 전경 이미지로 결정하는 깊이 위치가 주어진다고 전제한다. 이 순간 동안, 이미지 프레임들(706 및 702)을 결합한 이미지가 비디오 시퀀스 안에 코딩되고, 이때 이미지(706)는 배경 상의 보다 약한 이미지로서 보여지고 이미지(702)는 그 불투명도 값이 실질적으로 높기(67%) 때문에 전면에서의 보다 강한 이미지로서 보여진다.The next image frame 706 of the base layer initiates a new (second) scene, during which the image frame 706 is provided with a depth position that places it as a background image, with its opacity value set to maximum. In time temporally the same as the image frame 706 of the base layer, there is an image frame 702 of the removed (first) scene above enhancement layer 1. In order for cross fading cutaway to occur, the transmittance of frame 702 must be increased. The example of FIG. 7 assumes that the opacity of the image frame 702 is set to 67% and that the image frame 702 is given a depth position that determines it as a foreground image. During this moment, the image combining the image frames 706 and 702 is coded into the video sequence, where the image 706 is shown as a weaker image on the background and the image 702 has a substantially high opacity value (67). %) Is seen as a stronger image from the front.

시간적으로 이어지는 다음 이미지 프레임 도중에는, 베이스 계층 상의 제2장면의 제2이미지 프레임(708)이 존재하고, 이에 따라 프레임(708)에는 자신을 배경 이미지로 정하는 깊이 위치가 주어지고 그 불투명도 값은 최대로 정해진다. 인핸 스먼트 계층 1은 시간적으로 동시에 제거되는 (제1) 장면의 마지막 이미지 프레임(704)을 더 포함하며, 그 프레임의 불투명도 값은 33%로 정해진다. 또한, 이미지 프레임(704)에는 그 자신을 전경 이미지로도 정하는 깊이 위치 역시 주어진다. 결국, 이 순간 동안, 이미지 프레임들(708 및 704)이 결합된 이미지가 비디오 시퀀스 안에 코딩되고, 이때 이미지(708)는 배경 위의 보다 강한 이미지로서 디스플레이되고 이미지(704)는 그 불투명도 값이 더 이상 33% 이상이 아니기 때문에 전경 위의 보다 약한 이미지로서 디스플레이된다.During a subsequent image frame in time, there is a second image frame 708 of the second scene on the base layer, whereby the frame 708 is given a depth position that defines itself as the background image and its opacity value is maximized. It is decided. Enhancement layer 1 further includes the last image frame 704 of the (first) scene, which is removed simultaneously in time, with an opacity value of 33%. Image frame 704 is also given a depth position that also defines itself as the foreground image. Finally, during this moment, the image with combined image frames 708 and 704 is coded into the video sequence, where image 708 is displayed as a stronger image on the background and image 704 has a higher opacity value. Since it is not more than 33%, it is displayed as a weaker image on the foreground.

시간상 다음에 이어지는 이미지 프레임 동안, 베이스 계층은 제2장면의 제3이미지 프레임(710)을 포함한다. 제1장면이 제거되었기 때문에, 이미지 프레임(710) 만이 비디오 시퀀스 안에 코딩되며, 제2장면의 디스플레이는 프레임(710)부터 지속된다.During the subsequent image frame in time, the base layer comprises a third image frame 710 of the second scene. Since the first scene has been removed, only the image frame 710 is coded in the video sequence, and the display of the second scene continues from frame 710.

예로 든 상기 개시 내용은 코딩 효율성의 면에서 볼 때 유리한 방식으로 교차 페이딩 장면 전환을 구현하기 위해, 본 발명에 따른 이미지 프레임들의 스케일 가능 계층들 상으로의 위치시키기(positioning)를 설명하였다. 그러나, 비디오 시퀀스가 전송되거나 디코딩되고 있을 때, 비디오 시퀀스의 비트율이 데이터 전송을 위한 대역폭의 최대값 및/또는 사용 가능한 단말장치 디코딩율에 따라 조정되어야만 하는 상황이 발생한다. 이러한 유형의 비트율 제어는, 장면 전환이 종래의 비디오 코딩 방법을 이용해 구현될 때 문제를 일으킨다.The example disclosure described positioning of image frames onto scalable layers in accordance with the present invention to implement cross fading scene transitions in an advantageous manner in terms of coding efficiency. However, when a video sequence is being transmitted or decoded, a situation arises in which the bit rate of the video sequence must be adjusted according to the maximum value of the bandwidth for data transmission and / or the terminal decoding rate available. This type of bit rate control causes problems when scene transitions are implemented using conventional video coding methods.

본 발명의 바람직한 실시예는 이제 하나 이상의 스케일 가능 계층들, 또는 그 안에 포함된 독자적으로 디코딩 가능한 서브-시퀀스들이 비디오 시퀀스로부터 제거될 수 있도록 함으로써, 비디오 시퀀스의 비트율이 떨어질 수 있게 하고, 또 동시에 비디오 시퀀스가 이미지 주파수를 감소시키지 않으면서 디코딩 될 수 있게 한다. 도 7에 따른 이미지 프레임 위치시키기에 있어, 이러한 것은 인핸스먼트 계층 1을 비디오 시퀀스로부터 제거함으로써 구현될 수 있다. 따라서 비디오 시퀀스는 베이스 계층의 이미지 프레임들(700, 706, 708, 및 710)을 디스플레이 하는 데만 사용된다. 즉, 제1(제거) 장면으로부터 제2(개시) 장면으로의 직접 전환이 급격한 장면 전환의 형태, 즉 제1장면의 이미지 프레임(700)에서 제2장면을 시작하게 하는 I-이미지 프레임(706)으로 바로 전환하는 형태로 일어난다. 따라서 이러한 전환은 교차 페이딩 장면 전환이 아니라 급격한 장면 전환이 된다. 그럼에도 불구하고, 이 장면 전환은 비디오 시퀀스 이미지의 품질에 영향을 주지 않으면서 바람직한 방식으로 수행될 수 있으며, 보는 사람은 보통 어떤 불안하거나 잘못된 방식으로든 교차 페이딩 장면 전환 대신 수행된 급격한 장면 전환을 경험하지 않는다. 이와 반대로, 종래의 구성은 스케일 가능 계층들이 제거되는 것을 허용하지 않기 때문에, 보는 사람은 화면이 단속적이고도 불안하다는 것을 알게 될 것이다.A preferred embodiment of the present invention now allows one or more scalable layers, or independently decodable sub-sequences contained therein, to be removed from the video sequence, thereby allowing the bit rate of the video sequence to drop and at the same time video Allows the sequence to be decoded without reducing the image frequency. In positioning the image frame according to FIG. 7, this may be implemented by removing enhancement layer 1 from the video sequence. The video sequence is thus only used to display image frames 700, 706, 708, and 710 of the base layer. That is, an I-image frame 706 in which a direct transition from the first (removed) scene to the second (initiated) scene is in the form of a sharp transition, i. In the form of a direct conversion. Therefore, this transition is not a cross fading scene transition but an abrupt scene transition. Nevertheless, this transition can be performed in a desirable way without affecting the quality of the video sequence image, and the viewer usually does not experience any abrupt transitions performed in place of cross-fading transitions in any anxious or wrong way. Do not. On the contrary, since the conventional configuration does not allow the scalable layers to be removed, the viewer will find that the screen is intermittent and unstable.

따라서 본 발명은 비디오 시퀀스의 서로 다른 서브-시퀀스들에 대한 정보, 즉 그들의 평균 비트율, 전체 비디오 시퀀스와 관련된 위치, 듀레이션 및 계층들에 관한 상호의존성의 정보를 포함하는 스트리밍 서버에서, 멀티미디어 데이터 트래픽 정형화를 수행하는 바람직한 수단을 제공한다. 스트리밍 서버는 또 데이터 전송에 사용가능한 대역폭 및/또는 단말 장치의 디코딩율의 최대값을 결정한다. 이 정보에 기초해, 스트리밍 서버는 얼마나 많은 스케일 가능 계층들과 어떤 서브-시퀀스 들이 비디오 시퀀스로서 전송되는지를 결정한다. 그러면, 스케일 가능 계층들의 개수에 대한 대강의 조정을 먼저 수행하고 그 다음에 보다 정밀한 서브-시퀀스-고유의 조정이 쉽게 이뤄질 수 있게 됨으로써 필요할 때마다 비트율 제어가 이뤄질 수 있다. 가장 간단한 것으로서, 비트율 제어 수단이 특정 서브-시퀀스가 비디오 시퀀스에 추가될 것인지 제거될 것인지에 대한 서브-시퀀스-고유의 결정을 내릴 수 있다. 제거할 경우, 전체 서브-시퀀스들을 비디오 시퀀스에서 제거함이 권장할 만한데, 이는 개별 이미지들의 제거가 동일한 서브-시퀀스의 다른 이미지들에 에러를 일으킬 수 있기 때문이다. 같은 이유로, 하위 인핸스먼트 계층의 모든 서브-시퀀스들도 그들이 제거된 상위 계층의 서브-시퀀스에 의존하고 있었다면 제거되어야 한다. 하나의 동일한 스케일 가능 계층 상에서 독립적인 서브-시퀀스들이 존재하면, 이전의 서브 시퀀스에 의존하는 서브-시퀀스들은 그 이전의 서브-시퀀스가 제거될 때 제거되어야 한다.Thus, the present invention relates to a multimedia data traffic shaping in a streaming server that includes information about different sub-sequences of a video sequence, that is, their average bit rate, location, duration, and interdependence information relating to the entire video sequence. It provides a preferred means to carry out. The streaming server also determines the maximum value of the bandwidth available for data transmission and / or the decoding rate of the terminal device. Based on this information, the streaming server determines how many scalable layers and which sub-sequences are transmitted as the video sequence. Then, rough adjustments to the number of scalable layers can be performed first, and then finer sub-sequence-specific adjustments can be easily made so that bit rate control can be achieved whenever needed. As the simplest one, the rate control means can make a sub-sequence-specific decision as to whether a particular sub-sequence is to be added or removed from the video sequence. When removing, it is advisable to remove the entire sub-sequences from the video sequence, since the removal of individual images can cause errors in other images of the same sub-sequence. For the same reason, all sub-sequences of the lower enhancement layer should also be removed if they were dependent on the sub-sequence of the higher layer being removed. If there are independent sub-sequences on one and the same scalable layer, sub-sequences that depend on the previous subsequence should be removed when the previous sub-sequence is removed.

이미지 프레임 식별자 데이터가 전송될 비디오 시퀀스에 추가될 때, 트래픽 정형화 또한, 가령 인터넷 라우터, 다른 게이트웨이들, 또는 기지국이나 이동 통신 네트웍의 기지국 제어기 등의, 비디오 시퀀스 전송에 이용될 전기통신 네트웍 구성요소에서 수행될 수 있다. 서브-시퀀스 정보를 유지하고 처리할 수 있도록 된 네트웍 구성요소들을 위해, 트래픽 정형화는 여분의 메모리와 프로세싱 용량을 가져야만 한다. 이런 이유 때문에 네트웍 내에서 수행될 트래픽 정형화는 DiffServ, 즉 어떤 IP-기반 네트웍들에 의해 지원되는 절차인 차별화된 서비스들과 같은 간단한 처리 방식을 이용해 실행될 가능성이 크다. DiffServ 방식에 있어서, 각 IP 데 이터 패킷에는 우선순위가 할당되어져, 보다 높은 우선순위의 데이터 패킷들이 낮은 우선순위의 패킷들 보다 빠르고 안전하게 수신자에게 전달된다. 이것은 스케일 가능 계층에 고유한 것만이 아닌 서브-시퀀스에 고유한 우선순위들을 정하여 매우 진보한 우선순위화를 가능하게 함으로써 본 발명의 스케일 가능성에 바람직하게 적용된다.When image frame identifier data is added to a video sequence to be transmitted, traffic shaping may also be used in a telecommunications network component to be used for video sequence transmission, such as, for example, an Internet router, other gateways, or a base station controller in a base station or mobile communication network. Can be performed. For network components to be able to maintain and process sub-sequence information, traffic shaping must have extra memory and processing capacity. For this reason, traffic shaping to be performed within a network is likely to be performed using simple processing methods such as DiffServ, a differentiated service that is a procedure supported by some IP-based networks. In the DiffServ scheme, each IP data packet is assigned a priority, so that higher priority data packets are delivered to the receiver faster and more securely than lower priority packets. This is preferably applied to the scalability of the present invention by setting priorities unique to the sub-sequence as well as unique to the scalable layer to enable very advanced prioritization.

전송될 비디오 시퀀스에 이미지 프레임 식별자 데이터를 추가시키는 많은 선택 가능한 방법들이 존재한다. 또, 어떤 식별자 데이터를 비디오 시퀀스 안에 포함시키지 않는 것 역시 가능하며, 이 경우 트래픽 정형화는 스트리밍 서버에서만 수행된다. 식별자 데이터는 비디오 시퀀스의 헤더 필드들 또는 RTP (실시간 프로토콜)과 같은, 사용할 전송 프로토콜의 헤더 필드들 안에 포함될 수 있다. 바람직한 실시예에 따르면, 식별자 데이터는 추가 보완적 개선 정보(SEI, Supplemental Enhancement Information) 메커니즘을 이용해 전송될 수 있다. SEI는 비디오 데이터 컨텐츠와 동기되어 전송되는 데이터 운반 메커니즘을 제공하여, 비디오 시퀀스의 디코딩 및 디스플레이를 돕는다. 특히 계층 및 서브-시퀀스 정보를 전송하는데 사용될 때의 SEI 메커니즘이 ITU-T 표준 문서 ITU-T 권고안 H.264(ISO/IEC 14496 -10:2002), 부록 D에 상세히 개시되어 있다. 별개의 전송 프로토콜 또는 메커니즘이 식별자 데이터 전송에 사용되는 이런 경우들에서, 트래픽 정형화는 전송 경로에 있는 네트웍 구성요소들 중 하나에서 역시 수행될 수 있다. 또, 수신 단말 장치가 디코딩을 제어할 수 있다.There are many selectable ways of adding image frame identifier data to the video sequence to be transmitted. It is also possible not to include any identifier data in the video sequence, in which case traffic shaping is only performed on the streaming server. Identifier data may be included in header fields of a video sequence or header fields of a transport protocol to use, such as RTP (Real Time Protocol). According to a preferred embodiment, the identifier data may be transmitted using a Supplemental Enhancement Information (SEI) mechanism. SEI provides a data carrying mechanism that is transmitted in synchronization with the video data content to assist in decoding and displaying video sequences. In particular, the SEI mechanism when used to transmit layer and sub-sequence information is described in detail in ITU-T standard document ITU-T Recommendation H.264 (ISO / IEC 14496-10: 2002), Appendix D. In such cases where a separate transport protocol or mechanism is used for the identifier data transmission, traffic shaping may also be performed at one of the network components in the transmission path. In addition, the receiving terminal device can control decoding.

인코더 또는 디코더가 참조 화면 선택을 지원할 때, 비디오 시퀀스 코딩은 서로 다른 이미지 프레임들 사이의 관계가 하나 이상의 다른 이미지 프레임들로부터 시간적으로 예측될 수 있도록, 디코딩된 이미지 프레임들이 그 코딩 이전에 버퍼링될 것을 필요로 한다. 이미지 프레임 버퍼링은 적어도 두 가지 서로 다른 방식인, 슬라이딩 윈도윙(sliding windowing)이나 적응적 버퍼 메모리 제어로서 이뤄질 수 있다. 슬라이딩 윈도윙시, 마지막으로 코딩된 M 이미지 프레임들이 버퍼로 사용된다. 버퍼 메모리에 있는 프레임들은 디코딩 및 재구성 형식으로 되어 있어, 코딩시 참조 이미지들로서 사용될 수 있도록 한다. 코딩이 진행될 때, 이미지 프레임 버퍼링은 FIFO 원리(Fisrt-In-Fisrt-Out, 먼저 들어간 것이 먼저 나오는 원리)에 따라 동작한다. 통상적 B-이미지들과 같이 참조 이미지로 사용되지 않는 이미지들은 버퍼에 저장될 필요가 없다. 이와 다른 선택 사항으로서, 버퍼링은 적응적 버퍼 메모리 제어로 구현될 수도 있으며, 이 경우 이미지 버퍼링은 FIFO 원리에 국한되지 않으며 필요로 되지 않는 이미지 프레임들이 프로세스 도중에 버퍼로부터 제거될 수 있고, 혹은 마찬가지로 어떤 이미지 프레임들이 나중의 이미지 프레임들에 대한 참조 이미지들로서 필요로 될 때에는 보다 긴 시간 주기 동안 버퍼에 저장될 수 있다. 알려진 참조 화상 선택은 버퍼 메모리에 있는 이미지 프레임들을 특정 순서로 색인화함으로써 구현되고, 그 이미지 색인들은 모션 보상 등과 관련하여 한 이미지를 참조하는데 사용된다. 이러한 색인화 방식은, 가령, 모션-보상 참조 이미지들이 시그날링되어야 할 때 특정 이미지를 참조하는데 있어, 일반적으로 이미지 번호를 사용하는 것과 비교해 더 우수한 압축 효율을 제공한다.When an encoder or decoder supports reference picture selection, video sequence coding allows decoded image frames to be buffered prior to that coding so that the relationship between different image frames can be predicted in time from one or more other image frames. in need. Image frame buffering may be accomplished as sliding windowing or adaptive buffer memory control, at least two different ways. In sliding windowing, the last coded M image frames are used as buffers. Frames in the buffer memory are in a decoded and reconstructed format, so that they can be used as reference images in coding. As coding progresses, image frame buffering works according to the FIFO principle (Fisrt-In-Fisrt-Out, which first comes first). Images that are not used as reference images, such as conventional B-images, do not need to be stored in a buffer. Alternatively, buffering may be implemented with adaptive buffer memory control, in which case image buffering is not limited to the FIFO principle and image frames that are not needed may be removed from the buffer during the process, or similarly any image When frames are needed as reference images for later image frames, they may be stored in a buffer for a longer period of time. Known reference picture selection is implemented by indexing image frames in the buffer memory in a particular order, the image indices being used to reference an image in terms of motion compensation and the like. This indexing scheme, for example, refers to a particular image when the motion-compensated reference images are to be signaled, providing better compression efficiency compared to using image numbers in general.

상기 참조 이미지 색인화 방법은 에러 전송에 민감한데, 그 이유는 전송자의 인코더의 버퍼와 수신자의 디코더의 버퍼가 상호적으로 상응하는 재구성 이미지들을 동일한 순서로 포함하고 있어서 인코더 및 디코더가 모두 동일한 색인화 순서를 형성함을 보장할 수 있어야 하기 때문이다. 이미지 프레임들이 인코더 및 디코더의 버퍼들에서 서로 다른 순서로 색인화되면, 디코더에서 틀린 참조 이미지가 사용될 수 있다. 이를 방지하기 위해, 디코더는 인코더가 고의적으로 비디오 시퀀스로부터 제거했던 이미지 프레임들과 서브-시퀀스들을 감안하도록 제어될 수 있어야 한다는 것이 중요하게 된다. 이 경우 이미지 프레임 번호 매기기는, 디코더가 통상적으로 에러들이라고 해석하여 잃어버렸다고 해석한 이미지 프레임들을 재구성하려고 시도하는, 공백들을 포함할 수 있다. 이러한 이유 때문에, 인코더가 디코더에게, 전송된 이미지 프레임들의 이미지 번호 매기기에 있어서의 불연속성이 의도적이라는 것을 알릴 수 있는 것이 중요하다.The reference image indexing method is sensitive to error transmission because the buffer of the sender's encoder and the receiver's decoder contain mutually corresponding reconstructed images in the same order so that both the encoder and the decoder use the same indexing order. It should be able to guarantee the formation. If the image frames are indexed in different orders in the buffers of the encoder and decoder, the wrong reference image may be used at the decoder. To prevent this, it becomes important that the decoder be able to be controlled to account for image frames and sub-sequences that the encoder has deliberately removed from the video sequence. In this case the image frame numbering may include spaces, which the decoder typically tries to reconstruct the image frames which it interprets as missing and interprets them as lost. For this reason, it is important for the encoder to inform the decoder that the discontinuity in image numbering of transmitted image frames is intentional.

이에 반응하여, 그리고 슬라이딩 윈도윙이 이미지 프레임을 버퍼링하는데 사용되었다고 할 때, 디코더는 버퍼 메모리를, 그 내용이 완전히 무작위적이고 잃어버린 이미지 수에 해당하는, 다수의 이미지 프레임들이라고 간주한다. 이 무작위적인 이미지 프레임들은, 그 프레임들이 실제 비디오 시퀀스에 속하지 않고 단지 버퍼 메모리 관리용으로 입력된 버퍼 칸 채우기 프레임들임을 나타내도록 "무효(invalid)"라는 식별자가 지정된다. 버퍼 채우기 프레임은 당연히 메모리 지시자들만을 이용해 구현될 수 있다. 즉 어떤 데이터도 그 버퍼 메모리에 입력되지 않음이 바람직하며, 다만 메모리 관리는 포괄적 "무효" 프레임에 대한 참고 사항만을 저장하는데 이용된다. 실제 비디오 시퀀스의 이미지 프레임들의 입력은 누락된 이미지 번호들에 의해 지시된 채우기 프레임들의 개수가 버퍼에 입력된 다음에, 바른 이미지 프레임 번호로부터 재개되며, 이러한 것이 인코더 및 디코더의 버퍼 메모리들이 바람직하게는 동기 상태로 유지될 수 있도록 한다. 디코딩 도중에 이미지 번호에 대한 참조가 검출되고 나서 그것이 버퍼에 위치한 채우기 프레임을 나타내는 것임이 밝혀질 때, 실제 참조 이미지를 재구성하기 위해 디코더에서 가령 인코더에 해당 참조 이미지를 재전송하라는 요청을 함으로써 에러 정정 조치가 시작된다.In response, and when sliding windowing is used to buffer image frames, the decoder considers the buffer memory to be multiple image frames whose contents are completely random and correspond to the number of images lost. These random image frames are designated as "invalid" to indicate that they are input buffer buffer fill frames for buffer memory management only and do not belong to the actual video sequence. The buffer fill frame can of course be implemented using only memory indicators. That is, no data is preferably entered into the buffer memory, except that memory management is used to store only references to generic "invalid" frames. The input of the image frames of the actual video sequence is resumed from the correct image frame number after the number of fill frames indicated by the missing image numbers is entered into the buffer, which is preferably the buffer memories of the encoder and decoder. To be kept in sync. When a reference to the image number is detected during decoding, and then it is found that it represents a fill frame located in the buffer, the error correction action is triggered by the decoder asking the encoder to retransmit the reference image, for example, to reconstruct the actual reference image. Begins.

또, 본 발명의 방법은 별개의 버퍼 메모리들이 서로 다른 스케일 가능 계층들에 대해 사용될 수 있도록, 혹은 이와 마찬가지로 서브-시퀀스에 고유하게 사용될 수 있도록 한다. 따라서 각각의 스케일 가능 계층들은 개념적으로 분리되고 슬라이딩 윈도우 원리에 따라 동작하는 개별적인 버퍼 메모리를 포함한다. 이와 유사하게, 각각의 서브-시퀀스 역시, 개념적으로 분리되어 역시 슬라이딩 윈도우 원리에 따라 동작하는 버퍼 메모리가 제공된다. 이는 한 서브-시퀀스가 중단될 때 그 버퍼 메모리가 항상 비어 있게 됨을 의미한다. 각각의 버퍼 메모리들은 일반적인 슬라이딩 윈도우 버퍼링이 부적절하여 대신 실제로 적응적 버퍼 메모리 관리가 필요로 되는 어떤 상황에서 시그날링에 대한 수요를 줄일 수 있는 바람직한 방식으로 이용될 수 있다.In addition, the method of the present invention allows separate buffer memories to be used for different scalable layers, or likewise uniquely to sub-sequences. Each scalable layer thus includes a separate buffer memory that is conceptually separate and operates according to the sliding window principle. Similarly, each sub-sequence is also provided with a buffer memory that is conceptually separate and also operates according to the sliding window principle. This means that when one sub-sequence is interrupted, its buffer memory is always empty. Each of the buffer memories can be used in a preferred way to reduce the need for signaling in some situations where general sliding window buffering is inadequate and actually requires adaptive buffer memory management.

H.26L 표준은 화상 순서 카운트를 출력 순서 상의 화상 위치로 규정한다. H.26L 표준에 명시된 디코딩 프로세스는 화상 순서 카운트를 이용해 B 슬라이스의 참조 화상들에 대한 디폴트 색인 순서를 결정하고, 모션 벡터 예측시의 벡터 스케 일링과 B 슬라이스의 함축 모드 가중 예측(implicit mode weighted prediction)에 대한 프레임들 및 필드들 사이의 화상 순서 차를 나타내고, 디코딩 순서로 연속된 슬라이스들이 서로 다른 화상들에 속할 때를 결정한다. 화상 순서 카운트는 각 화상별로 코딩 및 전송된다.The H.26L standard defines the picture order count as the picture position in the output order. The decoding process specified in the H.26L standard uses picture order counts to determine the default index order for the reference pictures of B slices, vector scaling in motion vector prediction, and implicit mode weighted prediction of B slices. Picture order difference between frames and fields, and determine when successive slices belong to different pictures in decoding order. The picture order count is coded and transmitted for each picture.

본 발명의 일실시예에서, 디코더는 화상 순서 카운트를 이용하여 화상들이 시간적으로 중복됨을, 즉 같은 화상 순서 카운트를 가진 화상들이 시간적으로 중복된다고 추론한다. 디코더가 최상위 수신 계층의 화상만을 출력함이 바람직하다. 계층 정보가 없을 때, 디코더는 디코딩 순서에서 시간적으로 가장 최근에 중복된 화상이 최상위 수신 계층상에 존재한다고 추론한다.In one embodiment of the invention, the decoder uses the picture order count to infer that pictures are overlapping in time, i.e., pictures with the same picture order count are overlapping in time. Preferably, the decoder outputs only the picture of the highest reception layer. In the absence of layer information, the decoder infers that the most recently duplicated picture in time in the decoding order exists on the highest receiving layer.

위에서는 스케일 가능한 압축 비디오 시퀀스를 발생할 목적으로 비디오 프레임들을 코딩하는 방법이 설명되었다. 실제 방법은 도 1의 압축기(108)와 같이, 기존의 어떤 비디오 인코더라도 될 수 있는 비디오 인코더 내에서 수행된다. 예를 들어, ITU-T 권고안 H.263 또는 H.26L에 따른 비디오 인코더가 사용될 수 있으며, 그 비디오 인코더는 본 발명에 의해, 서브-시퀀스의 적어도 일부가 I-프레임들을 코딩함으로써 형성되는 제1서브-시퀀스를 비디오 시퀀스 안에 생성하고; 서브-시퀀스의 적어도 일부가 적어도 P- 또는 B-프레임들을 코딩함으로써 형성되고 제1서브-시퀀스의 적어도 한 비디오 프레임으로부터 예측되는 적어도 제2서브-시퀀스를 비디오 시퀀스 안에 형성하고; 적어도 제2서브-시퀀스의 비디오 프레임들의 식별 데이터를 비디오 시퀀스 안에 정하도록 구성된다.In the above, a method of coding video frames for the purpose of generating a scalable compressed video sequence has been described. The actual method is performed in a video encoder, which can be any existing video encoder, such as compressor 108 of FIG. For example, a video encoder according to ITU-T Recommendation H.263 or H.26L may be used, wherein the video encoder is, according to the invention, at least part of a first sub-sequence formed by coding I-frames. Generate a sub-sequence into a video sequence; Forming at least a second sub-sequence in the video sequence, wherein at least a portion of the sub-sequence is formed by coding at least P- or B-frames and predicted from at least one video frame of the first sub-sequence; And to identify identification data of at least a second sub-sequence of video frames in the video sequence.

본 발명의 방법에 따르면, 특정한 스케일 가능 계층의 각 서브-시퀀스는 독 립적으로 디코딩될 수 있음이 바람직한데, 이때 당연히 상위 스케일 가능 계층들 및 같은 스케일 가능 계층의 아마도 다른 서브-시퀀스들로부터의 의존성이 감안되어야 한다. 상술한 것과 같이 스케일 가능하게 압축된 비디오 시퀀스는, 적어도 일부가 적어도 I-프레임들을 코딩함으로써 형성된 것인 비디오 시퀀스의 제1서브-시퀀스를 디코딩하고, 적어도 일부가 적어도 P- 또는 B-프레임들을 코딩함으로써 형성된 것이고 구비된 적어도 한 비디오 프레임이 제1서브-시퀀스의 적어도 한 비디오 프레임으로부터 예측되었던 비디오 시퀀스의 적어도 제2서브-시퀀스를 디코딩하며, 비디오 시퀀스의 적어도 제2서브-시퀀스에 구비된 비디오 프레임들의 식별자 및 종속성 데이터를 결정하고, 그 서브-시퀀스들의 종속성들에 기반해 비디오 시퀀스의 적어도 일부를 재구성함으로써 디코딩된다.According to the method of the invention, it is preferred that each sub-sequence of a particular scalable layer can be decoded independently, of course with dependencies from higher scalable layers and possibly other sub-sequences of the same scalable layer. This should be taken into account. A scalable video sequence, as described above, decodes a first sub-sequence of the video sequence, wherein at least a portion is formed by coding at least I-frames, and at least a portion codes at least P- or B-frames. Wherein at least one video frame formed and provided decodes at least a second sub-sequence of the video sequence that was predicted from at least one video frame of the first sub-sequence, and the video frame provided in the at least second sub-sequence of the video sequence. Is determined by determining their identifier and dependency data and reconstructing at least a portion of the video sequence based on the dependencies of the sub-sequences.

실제 디코딩은 도 1의 압축해제기(118)와 같은 임의의 알려진 비디오 디코더인 비디오 디코더에서 일어난다. 예를 들어, ITU-T 권고안 H.263 또는 H.26L에 따른 저비트율 비디오 디코더가 사용되며, 이러한 디코더는 본 발명에서, 일부가 I-프레임들을 코딩하여 형성된 것인 비디오 시퀀스의 제1서브-시퀀스를 디코딩하고; 적어도 일부가 적어도 P- 또는 B-프레임들을 코딩함으로써 형성된 것이고 포함한 적어도 한 비디오 프레임이 제1서브-시퀀스의 적어도 한 비디오 프레임으로부터 예측된 것인 비디오 시퀀스의 적어도 제2서브-시퀀스를 디코딩하도록 구성된다. 비디오 디코더는, 비디오 시퀀스의 적어도 제2서브-시퀀스에 구비된 비디오 프레임들의 식별자 및 종속성 데이터를 결정하도록 되고, 그 서브-시퀀스들의 종속성들에 기반해 비디오 시퀀스의 적어도 일부를 재구성하도록 구성된다.The actual decoding takes place in the video decoder, which is any known video decoder such as decompressor 118 of FIG. For example, a low bit rate video decoder in accordance with ITU-T Recommendation H.263 or H.26L is used, which in the present invention is the first sub- of the video sequence, some of which is formed by coding I-frames. Decode the sequence; Is configured to decode at least a second sub-sequence of the video sequence wherein at least a portion is formed by coding at least P- or B-frames and wherein at least one video frame including is predicted from at least one video frame of the first sub-sequence. . The video decoder is configured to determine identifier and dependency data of video frames included in at least a second sub-sequence of the video sequence and is configured to reconstruct at least a portion of the video sequence based on the dependencies of the sub-sequences.

본 발명의 스트리밍 시스템의 동작의 실질적 양상은, 인코더와 디코더가 인코더는 스트리밍 서버와 동작가능하게 연결되고 디코더는 수신 단말 장치와 동작가능하게 연결되도록 위치된다는 것이다. 그러나, 스트리밍 시스템의 서로 다른 구성욧들, 특히 단말 장치들이 멀티미디어 파일들의 두 방향 전송, 즉 송신 및 수신을 가능하게 하는 기능들을 포함할 수도 있다. 그러면 인코더와 디코더는 인코더 및 디코더 성능을 모두 합친 비디오 코덱이라 알려진 것의 형태로 구현될 수 있다.A substantial aspect of the operation of the streaming system of the present invention is that the encoder and the decoder are positioned such that the encoder is operably connected with the streaming server and the decoder is operably connected with the receiving terminal device. However, different configurations of the streaming system, in particular terminal devices, may include functions that enable two-way transmission, ie transmission and reception of multimedia files. The encoder and decoder can then be implemented in the form of what is known as a video codec that combines both encoder and decoder capabilities.

본 발명에 따르면, 상술한 스트리밍 시스템의 기능적 구성 요소들과, 스트리밍 서버, 비디오 인코더, 비디오 디코더 및 단말과 같은 구성요소들은 소프트웨어, 하드웨어 솔루션, 또는 그 둘의 결합에 의해 구현됨이 바람직하다. 본 발명의 코딩 및 디코딩 방법은 본 발명의 프로세스 단계들을 실행하기 위한 컴퓨터 판독가능 명령들을 구비한 컴퓨터 소프트웨어로서의 구현에 특히 적합하다. 인코더 및 디코더를 구현하는 바람직한 방법은 이들을, 개인용 컴퓨터(PC) 또는 이동국과 같은 컴퓨터 유사 장치에 의해 실행될 수 있는 프로그램 코드로서 저장 수단에 저장하여, 해당 장치에 코딩/디코딩 기능을 제공하는 것이다.According to the present invention, the functional components of the above-described streaming system and components such as a streaming server, a video encoder, a video decoder and a terminal are preferably implemented by software, a hardware solution, or a combination of the two. The coding and decoding method of the present invention is particularly suitable for implementation as computer software with computer readable instructions for executing the process steps of the present invention. A preferred method of implementing the encoder and decoder is to store them in storage means as program code that can be executed by a computer-like device such as a personal computer (PC) or a mobile station to provide a coding / decoding function for the device.

다른 선택사항이 본 발명을 비디오 신호로서 구현하는 것으로, 상기 비디오 신호는 스케일 가능하게 압축된 비디오 시퀀스를 구비하고, 비디오 시퀀스는 적어도 제1 및 제2프레임 포맷에 따라 코딩된 비디오 프레임들을 포함하며, 이때 제1프레임 포맷에 따른 비디오 프레임들은 다른 비디오 프레임들에 독립적이고 제2프레임 포맷의 비디오 프레임들은 다른 비디오 프레임들 중 적어도 하나로부터 예측된다. 본 발명에 따르면, 해당 비디오 신호는, 적어도 일부가 적어도 제1프레임 포 맷의 비디오 프레임들을 코딩함으로써 형성된 것인 적어도 제1서브-시퀀스; 적어도 일부가 적어도 제2프레임 포맷의 비디오 프레임들을 코딩함으로써 형성된 것이고, 포함하는 적어도 한 비디오 프레임이 제1서브-시퀀스의 적어도 한 비디오 프레임으로부터 예측되는 제2서브-시퀀스; 및 제2서브-시퀀스에 속하는 비디오 프레임들을 결정하는 적어도 한 데이터 필드를 포함한다.Another option is to implement the invention as a video signal, the video signal having a scalable video sequence, the video sequence comprising video frames coded according to at least the first and second frame formats, In this case, video frames according to the first frame format are independent of other video frames, and video frames of the second frame format are predicted from at least one of the other video frames. According to the invention, the video signal comprises at least a first sub-sequence, at least in part formed by coding video frames of at least a first frame format; A second sub-sequence, wherein at least a portion is formed by coding video frames of at least a second frame format, wherein at least one video frame comprising is predicted from at least one video frame of the first sub-sequence; And at least one data field that determines video frames belonging to the second sub-sequence.

이 분야의 당업자에게는 기술이 발전함에 따라 본 발명의 기본적인 사상이 여러 방식으로 구현될 수 있음이 자명할 것이다. 따라서 본 발명과 그 실시예들은 상술한 예들에만 한정되지 않고 청구항들의 범주 안에서 변형될 수 있다.It will be apparent to those skilled in the art that as the technology evolves, the basic idea of the present invention can be implemented in various ways. The invention and its embodiments are thus not limited to the examples described above but may be modified within the scope of the claims.

본 발명에 의해, 이미지 프레임 넘버링시의 간극(gap)이 고의적이라는 정보를 디코더에 제공함으로써, 디코더가 불필요한 에러 정정 동작을 시작하지 않게 되고, 인코더와 디코더의 버퍼 메모리들의 동조(synchronism)가 유지될 수 있어, 기준 화상 선택 처리에 대한 거침없는 동작이 가능하게 된다. According to the present invention, by providing the decoder with information that the gap in image frame numbering is intentional, the decoder does not start unnecessary error correction operations, and synchronization of the buffer memories of the encoder and decoder is maintained. This makes it possible to perform a rough operation for the reference image selection process.

Claims (31)

디코딩과 관련된 버퍼 메모리로 이미지 프레임들이 입력되는, 압축된 비디오 시퀀스를 디코딩하는 방법에 있어서,A method of decoding a compressed video sequence, wherein image frames are input into a buffer memory associated with decoding. 비디오 시퀀스로부터 이미지 프레임들의 넘버링 (번호매김; numbering)에 있어 적어도 한 번의 불연속과 관련한 표시를 복호화하는 단계;Decoding an indication relating to at least one discontinuity in the numbering of image frames from the video sequence; 상기 표시에 반응하여, 버퍼 메모리가 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정하는 단계; 및In response to the display, setting a buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames; And 디코딩 프로세스시 상기 버퍼 메모리 내 이미지 프레임들을 사용하는 단계를 포함함을 특징으로 하는 디코딩 방법.Using the image frames in the buffer memory in a decoding process. 제1항에 있어서, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 적어도 한 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 디코딩 방법.2. The method of claim 1 wherein the indication indicates that at least one discontinuity in image frame numbering in the video sequence is intentional. 제1항 또는 제2항에 있어서, The method according to claim 1 or 2, 이미지 프레임들의 넘버링시의 불연속으로 인해 디코더에 존재하지 않는 이미지 프레임들 대신, 상기 버퍼 메모리 내 이미지 프레임들을 이용하는 단계를 더 포함함을 특징으로 하는 디코딩 방법. Using image frames in the buffer memory instead of image frames not present in the decoder due to a discontinuity in the numbering of the image frames. 제1항 내지 제3항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 3, 상기 버퍼 메모리 내 이미지 프레임들은, 이미지 프레임들에 대한 슬라이딩 윈도 버퍼링 (sliding window buffering)에 사용됨을 특징으로 하는 디코딩 방법.And image frames in the buffer memory are used for sliding window buffering for the image frames. 제1항 내지 제4항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 4, 상기 버퍼 메모리가 이미지 프레임들의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정된 다음, 해당 비디오 시퀀스에 구비된 이미지 프레임들의 상기 버퍼 메모리로의 입력이 올바른 이미지 프레임 번호부터 재개하는 단계를 더 포함함을 특징으로 하는 디코딩 방법. Setting the buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames, and then resuming input of the image frames included in the video sequence into the buffer memory starting from the correct image frame number; Decoding method characterized in that. 제1항 내지 제5항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 5, 상기 버퍼 메모리로, 상기 이미지 프레임들의 넘버링시의 불연속에 대응되는 보충(filler) 프레임들을 입력하는 단계를 더 포함함을 특징으로 하는 디코딩 방법. And inputting, into the buffer memory, filler frames corresponding to discontinuities in the numbering of the image frames. 제6항에 있어서, 상기 보충 프레임들은 실제 비디오 시퀀스에 속하지 않는다는 것을 나타내는 식별자에 의해 표시됨을 특징으로 하는 디코딩 방법.7. The method of claim 6 wherein the supplemental frames are indicated by an identifier indicating that they do not belong to an actual video sequence. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 버퍼 메모리가 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정하는 단계는 메모리 표시에 따라 수행되고, 그에 따라 어떤 데이터도 상기 버퍼 메모리로 입력되지 않음을 특징으로 하는 디코딩 방법.6. The method according to any one of claims 1 to 5, wherein the setting of the buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames is performed according to the memory indication, and thus no data Decoding is not input to the buffer memory. 제3항 또는 제6항에 있어서, The method according to claim 3 or 6, wherein 디코딩 프로세스시 이미지 프레임들의 넘버링시의 불연속에 대응하는 한 이미지 프레임에 대한 참조를 기반으로, 상기 압축된 비디오 시퀀스 내 에러를 검출하는 단계를 더 포함함을 특징으로 하는 디코딩 방법.Detecting an error in the compressed video sequence based on a reference to an image frame corresponding to a discontinuity in the numbering of image frames in the decoding process. 디코딩과 관련하여 이미지 프레임들이 입력되는 버퍼 메모리에 연결되어, 압축된 비디오 시퀀스를 복호화하는 비디오 디코더에 있어서, A video decoder connected to a buffer memory to which image frames are input in connection with decoding to decode a compressed video sequence, 비디오 시퀀스로부터 이미지 프레임들의 넘버링 (번호매김; numbering)에 있어 적어도 한 번의 불연속과 관련한 표시를 복호화하고;Decode an indication associated with at least one discontinuity in the numbering of image frames from the video sequence; 상기 표시에 반응하여, 버퍼 메모리가 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정하고; In response to the display, setting a buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames; 디코딩 프로세스시 상기 버퍼 메모리 내 이미지 프레임들을 사용하도록 구성됨을 특징으로 하는 비디오 디코더.And use the image frames in the buffer memory during a decoding process. 제10항에 있어서, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 적어도 한 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 비디오 디코더.11. The video decoder of claim 10, wherein the indication indicates that at least one discontinuity in image frame numbering in the video sequence is intentional. 제10항 또는 제11항에 있어서, The method according to claim 10 or 11, wherein 이미지 프레임들의 넘버링시의 불연속으로 인해 디코더에 존재하지 않는 이미지 프레임들 대신, 상기 버퍼 메모리 내 이미지 프레임들을 이용하도록 더 구성됨을 특징으로 하는 비디오 디코더. And use the image frames in the buffer memory instead of image frames not present in the decoder due to discontinuities in the numbering of the image frames. 제10항 내지 제12항 중 어느 한 항에 있어서, The method according to any one of claims 10 to 12, 상기 버퍼 메모리 내 이미지 프레임들은, 이미지 프레임들에 대한 슬라이딩 윈도 버퍼링 (sliding window buffering)에 사용됨을 특징으로 하는 비디오 디코더.And image frames in the buffer memory are used for sliding window buffering for the image frames. 제10항 내지 제13항 중 어느 한 항에 있어서, The method according to any one of claims 10 to 13, 상기 버퍼 메모리가 이미지 프레임들의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정된 다음, 해당 비디오 시퀀스에 구비된 이미지 프레임들의 상기 버퍼 메모리로의 입력을 올바른 이미지 프레임 번호부터 재개하도록 더 구성됨을 특징으로 하는 비디오 디코더. And configured to provide image frames corresponding to discontinuities in the numbering of the image frames, and then resume input of the image frames included in the video sequence into the buffer memory from the correct image frame number. Video decoder. 제10항 내지 제14항 중 어느 한 항에 있어서, The method according to any one of claims 10 to 14, 상기 버퍼 메모리로, 상기 이미지 프레임들의 넘버링시의 불연속에 대응되는 보충(filler) 프레임들을 입력하도록 더 구성됨을 특징으로 하는 비디오 디코더. And input, into the buffer memory, filler frames corresponding to discontinuities in the numbering of the image frames. 제15항에 있어서, 상기 보충 프레임들은 실제 비디오 시퀀스에 속하지 않는다는 것을 나타내는 식별자에 의해 표시됨을 특징으로 하는 비디오 디코더.16. The video decoder of claim 15, wherein the supplemental frames are indicated by an identifier indicating that they do not belong to an actual video sequence. 제10항 내지 제14항 중 어느 한 항에 있어서, 상기 메모리 표시에 따라 상기 버퍼 메모리가 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정하도록 더 구성되고, 그에 따라 어떤 데이터도 상기 버퍼 메모리로 입력되지 않음을 특징으로 하는 비디오 디코더.15. The apparatus according to any one of claims 10 to 14, further configured to set the buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames in accordance with the memory indication, and thus no data And a video decoder which is not input to the buffer memory. 비디오 시퀀스의 이미지 프레임들이 디코딩과 관련되는 버퍼 메모리에 입력될 때, 압축된 비디오 시퀀스를 디코딩하기 위해, 컴퓨터 판독가능 매체에 저장되어 데이터 처리 장치를 통해 실행되는 컴퓨터 프로그램 생성물에 있어서, A computer program product stored in a computer readable medium and executed through a data processing apparatus to decode a compressed video sequence when image frames of the video sequence are input to a buffer memory associated with decoding, 비디오 시퀀스로부터 이미지 프레임들의 넘버링 (번호매김; numbering)에 있어 적어도 한 번의 불연속과 관련한 표시를 복호화하기 위한 컴퓨터 프로그램 코드;Computer program code for decoding an indication relating to at least one discontinuity in the numbering of image frames from a video sequence; 상기 표시에 반응하여, 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 버퍼 메모리를 설정하기 위한 컴퓨터 프로그램 코드; 및Computer program code for setting a buffer memory in response to the display to provide image frames corresponding to discontinuities in the numbering of the image frames; And 디코딩 프로세스시 상기 버퍼 메모리 내 이미지 프레임들을 포함하기 위한 컴퓨터 프로그램 코드를 포함함을 특징으로 하는 컴퓨터 프로그램 생성물.Computer program code for including image frames in the buffer memory during a decoding process. 제18항에 있어서, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 적어도 한 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 컴퓨터 프로그램 생성물.19. The computer program product of claim 18, wherein the indication indicates that at least one discontinuity in image frame numbering in the video sequence is intentional. 제18 또는 제19항에 있어서, The method of claim 18 or 19, 이미지 프레임들의 넘버링시의 불연속으로 인해 디코더에 존재하지 않는 이미지 프레임들 대신, 상기 버퍼 메모리 내 이미지 프레임들을 포함하도록 하는 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 생성물. And computer program code for including image frames in the buffer memory instead of image frames that are not present in the decoder due to discontinuities in the numbering of the image frames. 제18 내지 제20항 중 어느 한 항에 있어서, The method according to any one of claims 18 to 20, 상기 버퍼 메모리 내 이미지 프레임들을, 이미지 프레임들에 대한 슬라이딩 윈도 버퍼링 (sliding window buffering)에 사용하도록 하는 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 생성물.And computer program code for causing the image frames in the buffer memory to be used for sliding window buffering for the image frames. 제18항 내지 제21항 중 어느 한 항에 있어서, The method according to any one of claims 18 to 21, 상기 버퍼 메모리가 이미지 프레임들의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 설정된 다음, 해당 비디오 시퀀스에 구비된 이미지 프레임들의 상기 버퍼 메모리로의 입력을 올바른 이미지 프레임 번호부터 재개하기 위한 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 생성물. The buffer memory is set to provide image frames corresponding to a discontinuity in the numbering of the image frames, and then computer program code for resuming input of the image frames included in the video sequence into the buffer memory from the correct image frame number. Further comprising a computer program product. 제18항 내지 제22항 중 어느 한 항에 있어서, The method according to any one of claims 18 to 22, 상기 버퍼 메모리로, 상기 이미지 프레임들의 넘버링시의 불연속에 대응되는 보충(filler) 프레임들을 입력하게 하는 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 생성물. And into the buffer memory, computer program code for inputting filler frames corresponding to discontinuities in the numbering of the image frames. 제23항에 있어서, The method of claim 23, wherein 상기 보충 프레임들이 실제 비디오 시퀀스에 속하지 않는다는 것을 나타내는 식별자로서 상기 보충 프레임들을 나타내도록 하는 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 생성물.And computer program code for causing the supplemental frames to be represented as an identifier indicating that the supplemental frames do not belong to an actual video sequence. 제18항 내지 제22항 중 어느 한 항에 있어서, The method according to any one of claims 18 to 22, 상기 메모리 표시에 따라 상기 이미지 프레임의 넘버링시의 불연속에 대응되는 이미지 프레임들을 제공하도록 상기 버퍼 메모리를 설정하여, 그에 따라 어떤 데이터도 상기 버퍼 메모리로 입력되지 않도록 하는 컴퓨터 프로그램 코드를 더 포함함을 특징으로 하는 디코딩 방법.And further comprising computer program code for setting the buffer memory to provide image frames corresponding to discontinuities in the numbering of the image frames in accordance with the memory indication, thereby preventing any data from being input into the buffer memory. Decoding method. 비디오 시퀀스를 부호화하는 비디오 인코더에 있어서,In a video encoder for encoding a video sequence, 이미지 프레임들의 넘버링시 불연속을 일으키도록 적어도 하나의 이미지 프레임이 비디오 시퀀스로부터 배제되도록 비디오 시퀀스를 부호화하고;Encode the video sequence such that at least one image frame is excluded from the video sequence to cause discontinuity in the numbering of the image frames; 상기 비디오 시퀀스 안에 이미지 프레임들의 넘버링 불연속과 관련한 표시를 부호화하도록 구성됨을 특징으로 하는 비디오 인코더.And encode an indication relating to the numbering discontinuity of image frames in the video sequence. 제26항에 있어서, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 비디오 인코더. 27. The video encoder of claim 26, wherein the indication indicates that a discontinuity in image frame numbering in the video sequence is intentional. 부호화된 비디오 시퀀스를 수신하고, 비디오 시퀀스의 비트 레이트를 조정하는 장치에 있어서,An apparatus for receiving an encoded video sequence and adjusting a bit rate of the video sequence, 상기 비디오 시퀀스로부터 적어도 한 개의 이미지 프레임을 배제하여, 이미지 프레임들의 넘버링시 불연속을 일으키도록 됨을 특징으로 하는 장치.Exclude at least one image frame from the video sequence to cause discontinuity in the numbering of the image frames. 제28항에 있어서, The method of claim 28, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 장치.Wherein the indication indicates that a discontinuity in image frame numbering in the video sequence is intentional. 이미지 프레임들을 구비한 압축 비디오 시퀀스를 포함하는 비디오 신호에 있어서, A video signal comprising a compressed video sequence with image frames, 전송된 비디오 신호 안에서 이미지 프레임들의 넘버링 불연속과 관련한 표시를 포함하고, An indication relating to the numbering discontinuity of image frames in the transmitted video signal, 상기 표시는 디코더에, 이미지 프레임들의 넘버링시의 불연속에 대응하는 이 미지 프레임들을 디코딩 프로세스시 사용하라고 알리는 것임을 특징으로 하는 비디오 신호.The indication is informing the decoder to use image frames corresponding to a discontinuity in the numbering of image frames in the decoding process. 제30항에 있어서, 상기 표시는, 상기 비디오 시퀀스 내 이미지 프레임 넘버링시의 불연속이 고의적인 것임을 알리는 것임을 특징으로 하는 비디오 신호.31. The video signal of claim 30, wherein the indication indicates that the discontinuity in image frame numbering in the video sequence is intentional.
KR1020067008830A 2002-01-23 2003-01-22 Grouping of image frames in video coding KR100959573B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FI20020127A FI114527B (en) 2002-01-23 2002-01-23 Grouping of picture frames in video encoding
FI20020127 2002-01-23
US10/306,942 US7894521B2 (en) 2002-01-23 2002-11-29 Grouping of image frames in video coding
US10/306,942 2002-11-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020047011467A Division KR100698938B1 (en) 2002-01-23 2003-01-22 Grouping of image frames in video coding

Publications (2)

Publication Number Publication Date
KR20060069527A true KR20060069527A (en) 2006-06-21
KR100959573B1 KR100959573B1 (en) 2010-05-27

Family

ID=27614673

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020067008830A KR100959573B1 (en) 2002-01-23 2003-01-22 Grouping of image frames in video coding
KR1020067008831A KR100931915B1 (en) 2002-01-23 2003-01-22 Grouping of Image Frames in Video Coding

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020067008831A KR100931915B1 (en) 2002-01-23 2003-01-22 Grouping of Image Frames in Video Coding

Country Status (9)

Country Link
US (2) US8050321B2 (en)
EP (3) EP1670260A3 (en)
JP (3) JP2005516498A (en)
KR (2) KR100959573B1 (en)
CN (1) CN1288915C (en)
BR (1) BR0306958A (en)
MX (1) MXPA04007020A (en)
RU (2) RU2297729C2 (en)
WO (1) WO2003063505A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140071339A (en) * 2011-07-21 2014-06-11 루카 로사토 Transmission of reconstruction data in a tiered signal quality hierarchy

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068729B2 (en) 2001-12-21 2006-06-27 Digital Fountain, Inc. Multi-stage code generator and decoder for communication systems
US6307487B1 (en) 1998-09-23 2001-10-23 Digital Fountain, Inc. Information additive code generator and decoder for communication systems
US6499060B1 (en) * 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
FI114527B (en) * 2002-01-23 2004-10-29 Nokia Corp Grouping of picture frames in video encoding
KR100959573B1 (en) * 2002-01-23 2010-05-27 노키아 코포레이션 Grouping of image frames in video coding
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US9240810B2 (en) 2002-06-11 2016-01-19 Digital Fountain, Inc. Systems and processes for decoding chain reaction codes through inactivation
EP1552617A2 (en) 2002-10-05 2005-07-13 Digital Fountain, Inc. Systematic encoding and decoding of chain reaction codes
US9192859B2 (en) 2002-12-10 2015-11-24 Sony Computer Entertainment America Llc System and method for compressing video based on latency measurements and other feedback
US9314691B2 (en) 2002-12-10 2016-04-19 Sony Computer Entertainment America Llc System and method for compressing video frames or portions thereof based on feedback information from a client device
US9077991B2 (en) 2002-12-10 2015-07-07 Sony Computer Entertainment America Llc System and method for utilizing forward error correction with video compression
US8711923B2 (en) * 2002-12-10 2014-04-29 Ol2, Inc. System and method for selecting a video encoding format based on feedback data
US8964830B2 (en) 2002-12-10 2015-02-24 Ol2, Inc. System and method for multi-stream video compression using multiple encoding formats
US9138644B2 (en) 2002-12-10 2015-09-22 Sony Computer Entertainment America Llc System and method for accelerated machine switching
CN1954501B (en) * 2003-10-06 2010-06-16 数字方敦股份有限公司 Method for receving data transmitted from a source by communication channel
JP4971144B2 (en) 2004-05-07 2012-07-11 デジタル ファウンテン, インコーポレイテッド File download and streaming system
EP2348709B1 (en) * 2004-07-01 2014-01-01 Mitsubishi Electric Corporation Encoding method and recording apparatus for randomly accessible video recording medium
US20060015919A1 (en) * 2004-07-13 2006-01-19 Nokia Corporation System and method for transferring video information
US7721184B2 (en) * 2004-08-11 2010-05-18 Digital Fountain, Inc. Method and apparatus for fast encoding of data symbols according to half-weight codes
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
KR100567157B1 (en) * 2005-02-11 2006-04-04 비디에이터 엔터프라이즈 인크 A method of multiple file streamnig service through playlist in mobile environment and system thereof
US9049449B2 (en) * 2005-04-13 2015-06-02 Nokia Corporation Coding of frame number in scalable video coding
KR20080006609A (en) 2005-04-13 2008-01-16 노키아 코포레이션 Coding, storage and signalling of scalability information
KR100896279B1 (en) 2005-04-15 2009-05-07 엘지전자 주식회사 Method for scalably encoding and decoding video signal
EP1936996A3 (en) * 2005-04-28 2011-07-27 Apple Inc. Video processing in a multi-participant video conference
JP5122448B2 (en) * 2005-06-30 2013-01-16 フランス・テレコム Video encoding method and apparatus
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
US7933294B2 (en) 2005-07-20 2011-04-26 Vidyo, Inc. System and method for low-delay, interactive communication using multiple TCP connections and scalable coding
JP2009507450A (en) 2005-09-07 2009-02-19 ヴィドヨ,インコーポレーテッド System and method for reliable base layer trunk
JP5265383B2 (en) * 2005-09-07 2013-08-14 ヴィドヨ,インコーポレーテッド System and method for conference server architecture for low latency and distributed conferencing applications
EP1952631A4 (en) * 2005-09-07 2012-11-21 Vidyo Inc System and method for scalable and low-delay videoconferencing using scalable video coding
EP1949701A1 (en) * 2005-10-11 2008-07-30 Nokia Corporation Efficient decoded picture buffer management for scalable video coding
JP4950206B2 (en) * 2005-10-11 2012-06-13 ノキア コーポレイション System and method for efficient scalable stream adaptation
CA2633819C (en) * 2005-12-08 2016-12-06 Vidyo, Inc. Systems and methods for error resilience and random access in video communication systems
CA2633366C (en) * 2005-12-22 2015-04-28 Vidyo, Inc. System and method for videoconferencing using scalable video coding and compositing scalable video conferencing servers
US8842730B2 (en) * 2006-01-27 2014-09-23 Imax Corporation Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality
AU2007223300A1 (en) * 2006-01-27 2007-09-13 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
KR101292851B1 (en) 2006-02-13 2013-08-02 디지털 파운튼, 인크. Streaming and buffering using variable fec overhead and protection periods
US8619865B2 (en) 2006-02-16 2013-12-31 Vidyo, Inc. System and method for thinning of scalable video coding bit-streams
EP1989877A4 (en) * 2006-02-16 2010-08-18 Vidyo Inc System and method for thinning of scalable video coding bit-streams
US9270414B2 (en) 2006-02-21 2016-02-23 Digital Fountain, Inc. Multiple-field based code generator and decoder for communications systems
CA2644753A1 (en) * 2006-03-03 2007-09-13 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
US8693538B2 (en) 2006-03-03 2014-04-08 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
US8937997B2 (en) 2006-03-16 2015-01-20 Apple Inc. Scalable video coding/multiplexing compatible with non-scalable decoders
JP2009544176A (en) * 2006-03-29 2009-12-10 ヴィドヨ,インコーポレーテッド System and method for transcoding between a scalable video codec and a non-scalable video codec
US8320450B2 (en) 2006-03-29 2012-11-27 Vidyo, Inc. System and method for transcoding between scalable and non-scalable video codecs
US7971129B2 (en) 2006-05-10 2011-06-28 Digital Fountain, Inc. Code generator and decoder for communications systems operating using hybrid codes to allow for multiple efficient users of the communications systems
US9020047B2 (en) * 2006-05-24 2015-04-28 Panasonic Intellectual Property Management Co., Ltd. Image decoding device
US9380096B2 (en) 2006-06-09 2016-06-28 Qualcomm Incorporated Enhanced block-request streaming system for handling low-latency streaming
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9419749B2 (en) 2009-08-19 2016-08-16 Qualcomm Incorporated Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes
US9178535B2 (en) 2006-06-09 2015-11-03 Digital Fountain, Inc. Dynamic stream interleaving and sub-stream based delivery
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
CA2653815C (en) 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
JP2008040347A (en) * 2006-08-09 2008-02-21 Toshiba Corp Image display device, image display method, and image display program
EP2060120A4 (en) * 2006-09-07 2012-01-04 Thomson Licensing Method and apparatus for encoding groups of pictures of a video sequence, each of said groups including an intra encoded picture and more than two predicted encoded pictures
AU2012201235B2 (en) * 2006-10-16 2014-09-11 Vidyo, Inc. Systems and methods for signaling and performing temporal level switching in scalable video coding
CN101573883B (en) * 2006-10-16 2017-03-01 维德约股份有限公司 For signaling in gradable video encoding and execution time level switching system and method
US20080098447A1 (en) * 2006-10-19 2008-04-24 Moshe Yannai Programming of informational channels for digital video broadcasting
US20080141091A1 (en) * 2006-12-06 2008-06-12 General Instrument Corporation Method and Apparatus for Recovering From Errors in Transmission of Encoded Video Over a Local Area Network
CA2674710C (en) 2007-01-09 2016-02-23 Vidyo, Inc. Improved systems and methods for error resilience in video communication systems
CN101321284B (en) * 2007-06-10 2012-01-04 华为技术有限公司 Encoding/decoding method, equipment and system
JP5027305B2 (en) 2007-09-12 2012-09-19 デジタル ファウンテン, インコーポレイテッド Generation and transmission of source identification information to enable reliable communication
US8233532B2 (en) * 2007-09-21 2012-07-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Information signal, apparatus and method for encoding an information content, and apparatus and method for error correcting an information signal
MY162861A (en) * 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
KR20100027686A (en) * 2008-09-03 2010-03-11 엘지전자 주식회사 Mobile terminal and method for controlling the same
US20100118938A1 (en) * 2008-11-12 2010-05-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoder and method for generating a stream of data
US9281847B2 (en) 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
JP5195550B2 (en) * 2009-03-17 2013-05-08 沖電気工業株式会社 Decoding device and encoding system
CA2761391A1 (en) 2009-05-08 2010-11-11 Zokem Oy System and method for behavioural and contextual data analytics
CA3159686C (en) * 2009-05-29 2023-09-05 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
KR20100131365A (en) * 2009-06-05 2010-12-15 한국전자통신연구원 Server and terminal for reducing zapping delay and method thereof
CN101945261B (en) * 2009-07-07 2014-03-12 中兴通讯股份有限公司 Hierarchical delivery and receiving method and device in mobile multimedia broadcasting system
US9565479B2 (en) * 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
KR101456498B1 (en) * 2009-08-14 2014-10-31 삼성전자주식회사 Method and apparatus for video encoding considering scanning order of coding units with hierarchical structure, and method and apparatus for video decoding considering scanning order of coding units with hierarchical structure
US9288010B2 (en) 2009-08-19 2016-03-15 Qualcomm Incorporated Universal file delivery methods for providing unequal error protection and bundled file delivery services
US8285218B2 (en) * 2009-08-31 2012-10-09 The Nielsen Company (Us), Llc Methods and apparatus to identify wireless carrier performance effects
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
US9049497B2 (en) 2010-06-29 2015-06-02 Qualcomm Incorporated Signaling random access points for streaming video data
US8918533B2 (en) 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
US9319448B2 (en) * 2010-08-10 2016-04-19 Qualcomm Incorporated Trick modes for network streaming of coded multimedia data
JP5765920B2 (en) * 2010-11-16 2015-08-19 キヤノン株式会社 Transmitting apparatus and transmitting method
US8842723B2 (en) * 2011-01-03 2014-09-23 Apple Inc. Video coding system using implied reference frames
EP4250733A3 (en) * 2011-01-14 2023-12-27 Sun Patent Trust Image coding method, image decoding method, memory managing method, image coding apparatus, image decoding apparatus, memory managing apparatus, and image coding and decoding apparatus
US8934530B2 (en) 2011-02-01 2015-01-13 Vidyo, Inc. Spatial scalability using redundant pictures and slice groups
US9270299B2 (en) 2011-02-11 2016-02-23 Qualcomm Incorporated Encoding and decoding using elastic codes with flexible source block mapping
US8958375B2 (en) 2011-02-11 2015-02-17 Qualcomm Incorporated Framing for an improved radio link protocol including FEC
US20120213275A1 (en) * 2011-02-22 2012-08-23 Kwon Nyeong-Kyu Scalable video coding and devices performing the scalable video coding
AU2012225513B2 (en) 2011-03-10 2016-06-23 Vidyo, Inc. Dependency parameter set for scalable video coding
KR101803970B1 (en) * 2011-03-16 2017-12-28 삼성전자주식회사 Method and apparatus for composing content
JP6008334B2 (en) 2011-08-25 2016-10-19 サン パテント トラスト Decoding device and decoding method
US9253233B2 (en) 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
ES2625097T3 (en) 2011-09-07 2017-07-18 Sun Patent Trust Image coding method and image coding apparatus
EP2760205B1 (en) 2011-09-19 2020-11-04 Sun Patent Trust Image decoding method, image decoding device
US9420307B2 (en) 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
US20130089152A1 (en) * 2011-10-05 2013-04-11 Qualcomm Incorporated Signaling picture identification for video coding
US9843844B2 (en) 2011-10-05 2017-12-12 Qualcomm Incorporated Network streaming of media data
JP5995111B2 (en) 2011-10-19 2016-09-21 サン パテント トラスト Image encoding method and image encoding apparatus
US9264717B2 (en) * 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9930379B2 (en) 2012-01-31 2018-03-27 Comcast Cable Communications, Llc System and method for data stream fragmentation
US9294226B2 (en) 2012-03-26 2016-03-22 Qualcomm Incorporated Universal object delivery and template-based file delivery
RU2716060C1 (en) * 2012-04-06 2020-03-05 Сони Корпорейшн Decoding device and decoding method, and encoding device and encoding method
US9979959B2 (en) * 2012-04-20 2018-05-22 Qualcomm Incorporated Video coding with enhanced support for stream adaptation and splicing
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
FR2992815A1 (en) * 2012-06-27 2014-01-03 France Telecom METHOD FOR ENCODING A CURRENT BLOCK OF A FIRST IMAGE COMPONENT IN RELATION TO A REFERENCE BLOCK OF AT LEAST ONE SECOND IMAGE COMPONENT, ENCODING DEVICE AND CORRESPONDING COMPUTER PROGRAM
US20140153636A1 (en) * 2012-07-02 2014-06-05 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN108521574A (en) * 2012-09-28 2018-09-11 索尼公司 Encoding device, coding method, decoding device and coding/decoding method
KR102257542B1 (en) 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer
US9185437B2 (en) 2012-11-01 2015-11-10 Microsoft Technology Licensing, Llc Video data
US20140119446A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Preserving rounding errors in video coding
US9940686B2 (en) * 2014-05-14 2018-04-10 Intel Corporation Exploiting frame to frame coherency in a sort-middle architecture
TWI548266B (en) * 2014-06-24 2016-09-01 愛爾達科技股份有限公司 Multimedia file storage system and related devices
JP6239472B2 (en) * 2014-09-19 2017-11-29 株式会社東芝 Encoding device, decoding device, streaming system, and streaming method
US9848089B2 (en) 2014-11-05 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to generate an overall performance index
WO2017196582A1 (en) * 2016-05-11 2017-11-16 Advanced Micro Devices, Inc. System and method for dynamically stitching video streams
US20170332096A1 (en) * 2016-05-11 2017-11-16 Advanced Micro Devices, Inc. System and method for dynamically stitching video streams
US10841621B2 (en) * 2017-03-01 2020-11-17 Wyse Technology L.L.C. Fault recovery of video bitstream in remote sessions
CN114745600B (en) * 2022-06-10 2022-09-27 中国传媒大学 Video label labeling method and device based on SEI

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US626158A (en) * 1899-05-30 Device for opening or closing gates
JPS5617401A (en) * 1979-07-23 1981-02-19 Omron Tateisi Electronics Co Sequence controller
US5144426A (en) * 1989-10-13 1992-09-01 Matsushita Electric Industrial Co., Ltd. Motion compensated prediction interframe coding system
NL9000424A (en) * 1990-02-22 1991-09-16 Philips Nv TRANSFER SYSTEM FOR DIGITALIZED TELEVISION IMAGES.
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system
JP2609772B2 (en) 1991-05-27 1997-05-14 三菱電機株式会社 Image storage and transmission equipment
US5786858A (en) * 1993-01-19 1998-07-28 Sony Corporation Method of encoding image signal, apparatus for encoding image signal, method of decoding image signal, apparatus for decoding image signal, and image signal recording medium
CA2137266C (en) 1993-04-09 2003-07-22 Tsuyoshi Oda Picture encoding method, picture encoding apparatus and picture recording medium
DE69536096D1 (en) * 1994-03-25 2010-09-30 Nec Corp The image display apparatus
JPH07322248A (en) 1994-05-30 1995-12-08 Matsushita Electric Ind Co Ltd Motion image data transmission method and transmitter
DE19524808A1 (en) * 1995-07-07 1997-01-09 Thomson Brandt Gmbh Process, encoder and decoder for resynchronization to a faulty data stream
US5774593A (en) * 1995-07-24 1998-06-30 University Of Washington Automatic scene decomposition and optimization of MPEG compressed video
US5877812A (en) 1995-11-21 1999-03-02 Imedia Corporation Method and apparatus for increasing channel utilization for digital video transmission
JP2874745B2 (en) 1995-12-30 1999-03-24 ソニー株式会社 Encoded data decoding method and encoded data decoding device
US5818539A (en) 1996-03-29 1998-10-06 Matsushita Electric Corporation Of America System and method for updating a system time constant (STC) counter following a discontinuity in an MPEG-2 transport data stream
CA2208950A1 (en) * 1996-07-03 1998-01-03 Xuemin Chen Rate control for stereoscopic digital video encoding
US6233017B1 (en) * 1996-09-16 2001-05-15 Microsoft Corporation Multimedia compression system with adaptive block sizes
JP4013286B2 (en) 1997-01-22 2007-11-28 松下電器産業株式会社 Image encoding device and image decoding device
EP0898427A4 (en) * 1997-02-13 2004-04-28 Mitsubishi Electric Corp Moving image estimating system
JP3861362B2 (en) * 1997-03-19 2006-12-20 ソニー株式会社 Digital signal reproduction method and apparatus
US6167083A (en) * 1997-04-04 2000-12-26 Avid Technology, Inc. Computer system and process for capture editing and playback of motion video compressed using interframe and intraframe techniques
US6483875B1 (en) * 1997-06-19 2002-11-19 Sony Corporation Picture signal processing apparatus
US5852630A (en) * 1997-07-17 1998-12-22 Globespan Semiconductor, Inc. Method and apparatus for a RADSL transceiver warm start activation procedure with precoding
JP3529599B2 (en) 1997-09-02 2004-05-24 株式会社東芝 Method for inserting editable point in encoding device and encoding device
US6295094B1 (en) * 1997-09-11 2001-09-25 U.S. Philips Corporation Instant replay of digital video optimized using non MPEG frame tags
JP4003267B2 (en) 1997-12-10 2007-11-07 松下電器産業株式会社 Video information processing apparatus and method
US6307886B1 (en) * 1998-01-20 2001-10-23 International Business Machines Corp. Dynamically determining group of picture size during encoding of video sequence
TW416220B (en) 1998-01-23 2000-12-21 Matsushita Electric Ind Co Ltd Image transmitting method, image processing method, image processing device, and data storing medium
US6108382A (en) * 1998-02-06 2000-08-22 Gte Laboratories Incorporated Method and system for transmission of video in an asynchronous transfer mode network
US6510553B1 (en) * 1998-10-26 2003-01-21 Intel Corporation Method of streaming video from multiple sources over a network
RU2137197C1 (en) 1998-11-20 1999-09-10 Закрытое акционерное общество "АВ - ТЕХНОЛОГИЯ" Information carrier for protection of articles with identification contrast image against faking
US6570922B1 (en) * 1998-11-24 2003-05-27 General Instrument Corporation Rate control for an MPEG transcoder without a priori knowledge of picture type
US6496980B1 (en) 1998-12-07 2002-12-17 Intel Corporation Method of providing replay on demand for streaming digital multimedia
FI113124B (en) 1999-04-29 2004-02-27 Nokia Corp Communication
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6614936B1 (en) * 1999-12-03 2003-09-02 Microsoft Corporation System and method for robust video coding using progressive fine-granularity scalable (PFGS) coding
CA2395605C (en) * 1999-12-22 2011-04-05 General Instrument Corporation Video compression for multicast environments using spatial scalability and simulcast coding
CN1366778A (en) 2000-04-27 2002-08-28 皇家菲利浦电子有限公司 Video compression
GB2362532B (en) 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding
US6920175B2 (en) 2001-01-03 2005-07-19 Nokia Corporation Video coding architecture and methods for using same
US7103669B2 (en) * 2001-02-16 2006-09-05 Hewlett-Packard Development Company, L.P. Video communication method and system employing multiple state encoding and path diversity
US7110452B2 (en) 2001-03-05 2006-09-19 Intervideo, Inc. Systems and methods for detecting scene changes in a video data stream
KR100959573B1 (en) * 2002-01-23 2010-05-27 노키아 코포레이션 Grouping of image frames in video coding
JP4348690B2 (en) 2004-02-11 2009-10-21 株式会社クマタカ エンジニアリング Road surface property measuring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140071339A (en) * 2011-07-21 2014-06-11 루카 로사토 Transmission of reconstruction data in a tiered signal quality hierarchy

Also Published As

Publication number Publication date
CN1620820A (en) 2005-05-25
JP2006279972A (en) 2006-10-12
EP1670260A3 (en) 2010-03-03
EP1670260A2 (en) 2006-06-14
KR100931915B1 (en) 2009-12-15
BR0306958A (en) 2004-11-03
WO2003063505A1 (en) 2003-07-31
US8050321B2 (en) 2011-11-01
KR20060069528A (en) 2006-06-21
EP1670259A2 (en) 2006-06-14
EP1479245A1 (en) 2004-11-24
RU2297729C2 (en) 2007-04-20
KR100959573B1 (en) 2010-05-27
MXPA04007020A (en) 2004-10-11
JP2005516498A (en) 2005-06-02
RU2004125579A (en) 2006-01-27
US20060120451A1 (en) 2006-06-08
JP4819562B2 (en) 2011-11-24
RU2006110321A (en) 2007-11-10
JP2006279971A (en) 2006-10-12
RU2402886C2 (en) 2010-10-27
CN1288915C (en) 2006-12-06
EP1670259A3 (en) 2010-03-03
US20060120464A1 (en) 2006-06-08
US8204134B2 (en) 2012-06-19

Similar Documents

Publication Publication Date Title
KR100959573B1 (en) Grouping of image frames in video coding
KR100698938B1 (en) Grouping of image frames in video coding
KR100960282B1 (en) Video coding
US7436886B2 (en) Coding scene transitions in video coding
CA2412722C (en) Video error resilience
JP4928726B2 (en) Indication of valid entry points in the video stream
US20040218673A1 (en) Transmission of video information
US20050099869A1 (en) Field start code for entry point frames with predicted first field
US20050135783A1 (en) Trick mode elementary stream and receiver system

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130419

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140422

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150416

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160419

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180417

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190417

Year of fee payment: 10