KR20070084442A - Supporting fidelity range extensions in advanced video codec file format - Google Patents

Supporting fidelity range extensions in advanced video codec file format Download PDF

Info

Publication number
KR20070084442A
KR20070084442A KR1020077011552A KR20077011552A KR20070084442A KR 20070084442 A KR20070084442 A KR 20070084442A KR 1020077011552 A KR1020077011552 A KR 1020077011552A KR 20077011552 A KR20077011552 A KR 20077011552A KR 20070084442 A KR20070084442 A KR 20070084442A
Authority
KR
South Korea
Prior art keywords
bit depth
parameter set
multimedia data
format
metadata file
Prior art date
Application number
KR1020077011552A
Other languages
Korean (ko)
Inventor
모하메드 주바이르 비샤람
알리 타바타바이
Original Assignee
소니 일렉트로닉스 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/255,853 external-priority patent/US20070098083A1/en
Application filed by 소니 일렉트로닉스 인코포레이티드 filed Critical 소니 일렉트로닉스 인코포레이티드
Publication of KR20070084442A publication Critical patent/KR20070084442A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/04Colour television systems using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Color Television Systems (AREA)

Abstract

A parameter set is created to specify chroma format, luma bit depth, and chroma bit depth for a portion of multimedia data. The parameter set is encoded into a metadata file that is associated with the multimedia data. The parameter set is extracted from the metadata file if a decoder configuration record contains fields corresponding to the parameter set. In another aspect, the decoder configuration record is created with fields corresponding to the parameter set.

Description

진보된 비디오 코덱 파일 포맷의 신뢰 범위 확장 지원{SUPPORTING FIDELITY RANGE EXTENSIONS IN ADVANCED VIDEO CODEC FILE FORMAT}SUPPORTING FIDELITY RANGE EXTENSIONS IN ADVANCED VIDEO CODEC FILE FORMAT}

<관련 출원><Related application>

본 출원서는, 본 출원과 동일한 양수인에 모두 양도된, 2003년 2월 21일에 모두 출원된, 미국특허출원 제10/371,434호, 제10/371,438호, 제10/371,464호, 및 제10/371,927호, 그리고 2003년 4월 28일에 모두 출원된, 미국특허출원 제10/425,291호와 10/425,685호에 관련된다.This application is filed on February 21, 2003, all assigned to the same assignee as the present application, US Patent Application Ser. Nos. 10 / 371,434, 10 / 371,438, 10 / 371,464, and 10 / 371,927, and US Patent Application Nos. 10 / 425,291 and 10 / 425,685, both filed April 28, 2003.

<기술분야> <Technology field>

본 발명은 일반적으로 멀티미디어 파일 포맷의 시청각 컨텐츠의 저장 및 검색에 관한 것이고, 더 구체적으로는, ISO 미디어 파일 포맷과 호환성이 있는 파일 포맷에 관한 것이다.The present invention relates generally to the storage and retrieval of audiovisual content in a multimedia file format, and more particularly to a file format compatible with the ISO media file format.

<저작권 공고/허가> <Copyright Notice / Permission>

본 특허 문서의 개시 부분은 저작권 보호가 되는 자료를 포함한다. 저작권자는, 특허청 특허 파일 또는 레코드에 나타난 것처럼, 누구라도 특허 문서 또는 특허 개시의 팩스 재생을 하도록 허용하지만, 다른 경우 모든 저작권 권리를 소유한다. 다음 공고는 이하 기재된 것과 같이 소프트웨어와 데이터 그리고 이들의 도면에 적용된다: Copyright

Figure 112007037235843-PCT00001
2003, Sony Electronics, Inc., All Rights Reserved. The disclosure portion of this patent document contains copyrighted material. The copyright holder, as indicated in the Patent Office patent file or record, allows anyone to facsimile reproduction of the patent document or patent disclosure, but otherwise reserves all copyright rights. The following notice applies to the software and data and their drawings as described below: Copyright
Figure 112007037235843-PCT00001
2003, Sony Electronics, Inc., All Rights Reserved.

네트워크, 멀티미디어, 데이터베이스, 및 다른 디지털 기능에 대해 신속하게 증가하는 수요로 인해, 다수 멀티미디어 코딩 및 저장 방식이 진화되어왔다. 시청각 데이터를 인코딩하고 저장하는 잘 공지된 파일 포맷 중의 하나는 Apple Computer, Inc.에 의해 개발된 QuickTime

Figure 112007037235843-PCT00002
파일 포맷이다. QuickTime 파일 포맷은 ISO(International Organization for Standardization) 멀티미디어 파일 포맷, ISO/IEC 14496-12, 정보 기술 - 시청각 객체의 코딩 - 12편:ISO 미디어 파일 포맷(또한 ISO 파일 포맷으로서 공지됨)을 생성하는 시작점으로서 사용되었다. 한편, ISO 파일 포맷은 2개의 표준 파일 포맷을 위한 템플렛으로서 사용되었다: (1) MP4(ISO/IEC 14496-14, 정보 기술 - 시청각 객체의 코딩 - 14편:MP4 파일 포맷)로서 공지된 MPEG(Moving Picture Experts Group)에 의해 개발된 MPEG-4 파일 포맷, 및 (2) JPEG(Joint Photographic Experts Group)에 의해 개발된, JPEG 2000(ISO/IEC 15444-1)을 위한 파일 포맷.Due to the rapidly growing demand for networks, multimedia, databases, and other digital functions, many multimedia coding and storage methods have evolved. One of the well known file formats for encoding and storing audiovisual data is QuickTime, developed by Apple Computer, Inc.
Figure 112007037235843-PCT00002
File format. The QuickTime file format is an international organization for standardization (ISO) multimedia file format, ISO / IEC 14496-12, Information Technology-Coding of Audiovisual Objects-Part 12: The Starting Point for Creating ISO Media File Formats (also known as ISO File Formats). Was used as. On the other hand, the ISO file format was used as a template for two standard file formats: (1) MPEG (known as MP4 (ISO / IEC 14496-14, Information Technology-Coding of Audiovisual Objects-Part 14: MP4 File Format)). MPEG-4 file format developed by Moving Picture Experts Group, and (2) File format for JPEG 2000 (ISO / IEC 15444-1), developed by Joint Photographic Experts Group (JPEG).

ISO 미디어 파일 포맷은 계층적(hierarchical) 데이터 구조이다. 데이터 구조는 실제 미디어 데이터에 대해 선언적, 구조적, 및 시간적 정보를 제공하는 메타데이터(metadata)를 포함한다. 미디어 데이터 그 자체는 데이터 구조 내에, 동일한 파일 내에, 또는 외부의 다른 파일에 위치될 수 있다. 각 메타데이터 스트림은 트랙(track)으로서 지칭된다. 이 트랙 내의 메타데이터는 외부 프레임된 미디어 데이터에 대한 참조를 제공하는 구조 정보를 포함한다. The ISO media file format is a hierarchical data structure. The data structure includes metadata that provides declarative, structural, and temporal information about the actual media data. The media data itself may be located within the data structure, within the same file, or in another file external. Each metadata stream is referred to as a track. The metadata in this track contains structure information that provides a reference to external framed media data.

메타데이터 트랙에 의해 참조되는 미디어 데이터는 다양한 유형들(예를 들 어, 비디오 데이터, 오디오 데이터, 이진 포맷 화면 표현(binary format screen representation;BIFS) 등) 일 수 있다. 외부 프레임된 미디어 데이터는 샘플들(또한, 액세스 단위 또는 픽쳐(picture)로서 공지됨)로 분리된다. 샘플은 특정 시점에서 미디어 데이터의 단위를 나타내고, 타이밍, 위치, 및 다른 메타데이터 정보에 의해 표현될 수 있는 최소 데이터 개체이다. 그러므로, 각 메타데이터 트랙은 참조되는 미디어 데이터 유형에 대한 정보, 그에 후속하여 이들의 타이밍, 위치, 크기 정보를 제공하는 다양한 샘플 엔트리와 설명을 포함한다.The media data referenced by the metadata track can be of various types (eg, video data, audio data, binary format screen representation (BIFS), etc.). The outer framed media data is separated into samples (also known as access units or pictures). A sample is the smallest data entity that represents a unit of media data at a particular point in time and can be represented by timing, location, and other metadata information. Therefore, each metadata track contains various sample entries and descriptions that provide information about the media data types referenced, followed by their timing, position, and size information.

후속하여, MPEG의 비디오 그룹과 ITU(International Telecommunication Union)의 VCEG(Video Coding Experts Group)는 JVT(Joint Video Team)로서 함께 일하기 시작하여 새로운 비디오 코딩/디코딩(codec) 표준을 개발했다. 이 새 표준은 ITU 추천 H.264 또는 MPEG-4-10편, AVC(Advanced Video Codec)로서 지칭된다. AVC 파일 포맷에 정의된 캡슐화(encapsulation) 방법은 이들 사양에 의해 생성되는 코딩된 비디오 데이터를 저장하기 위해 사용될 수 있다.Subsequently, the Video Group of MPEG and the Video Coding Experts Group (VCEG) of the International Telecommunication Union (ITU) began working together as the Joint Video Team (JVT) to develop a new video coding / decoding (codec) standard. This new standard is referred to as ITU Recommendation H.264 or MPEG-4-10, Advanced Video Codec (AVC). The encapsulation method defined in the AVC file format can be used to store coded video data generated by these specifications.

JVT 코덱 디자인은, 2개의 다른 개념 층, VCL(Video Coding Layer)과 NAL(Network Abstraction Layer)으로 구별된다. VCL은, 모션 보상(motion compensation), 계수 변환 코딩, 및 엔트로피 코딩과 같은, 코덱의 코딩 관련 부분을 포함한다. VCL의 출력은, 각각이 일련의 비디오 마이크로블록과 연관된 헤더 정보를 포함하는 슬라이스들(slices)이다. NAL은 VCL 데이터를 전달하기 위해 사용되는 전송 층(transport layer)의 세부사항으로부터 VCL을 추상화한다. NAL은 정보에 대한 일반적이고 전송 독립적인 표현을 정의하고, 비디오 코덱 그 자체와 외부 세계 사이의 인터페이스를 정의한다. JVT 코덱 디자인은, 각각이 다른 유형의 데이터를 포함하는, NAL 단위의 세트를 명시한다.The JVT codec design is divided into two different concept layers, the video coding layer (VCL) and the network abstraction layer (NAL). The VCL includes coding related portions of the codec, such as motion compensation, coefficient transform coding, and entropy coding. The output of the VCL is slices, each containing header information associated with a series of video microblocks. NAL abstracts the VCL from the details of the transport layer used to carry the VCL data. NAL defines a general, transport-independent representation of the information and defines the interface between the video codec itself and the outside world. The JVT codec design specifies a set of NAL units, each containing a different type of data.

다수의 존재하는 비디오 코딩 포맷에서, 코딩된 스트림 데이터는 디코딩 프로세스를 제어하는 파라미터들을 포함하는 다양한 종류의 헤더를 포함한다. 예를 들어, MPEG-2 비디오 표준은 시퀀스(sequence) 헤더, 향상된 픽쳐 그룹(group of picture;GOP), 및 픽쳐 헤더를 이들 항목들에 대응하는 비디오 데이터 전에 포함한다. JVT에서, VCL 데이터를 디코딩하기 위해 필요한 정보는 파라미터 세트로 그룹화되고, JVT는 디코더로 파라미터 세트를 전송하는 NAL 단위를 정의한다. 파라미터 세트 NAL 단위는, 비디오 NAL 단위와 동일한 스트림으로(인-밴드(in-band)로) 또는 별도의 스트림으로(아웃-오브-밴드(out-of-band)로) 송신될 수 있다.In many existing video coding formats, coded stream data includes various kinds of headers that contain parameters that control the decoding process. For example, the MPEG-2 video standard includes a sequence header, an enhanced group of picture (GOP), and a picture header before video data corresponding to these items. In the JVT, the information needed to decode the VCL data is grouped into parameter sets, and the JVT defines the NAL units for transmitting the parameter set to the decoder. The parameter set NAL unit may be transmitted in the same stream (in-band) or in a separate stream (out-of-band) as the video NAL unit.

원래 채택된 H.264 추천/AVC 사양은 프로파일들이라고 지칭되는 3개의 기본 특징 세트인, 베이스라인(baseline), 메인(main), 및 확장(extended)를 정의한다. 이들 프로파일은, 텔레비젼, DVD, 스트리밍 비디오 등과 같은 소비자 비디오에 사용되는 색도 포맷(chroma format) YUV 4:2:0과 샘플당 8 비트를 갖는 비디오 샘플만을 단지 지원한다. 신뢰 범위 확장(fidelity range extensions;FRExt)으로서 일괄 지칭되는, 여러 개의 새 프로파일이 순차적으로 생성되어, 프로페셔널 비디오 포맷의 저장과 관리를 하도록 한다. FRExt는, 10 비트와 12 비트 비디오 샘플을 포함하는, 고 비트 심도 인코딩(higher bit depth encoding)과, YUV 4:2:2와 4:4:4와 같은, 추가 색도 샘플 포맷을 명시한다. 또한, FRExt는 또한, 이전에 지원된 YcbCr(노랑, 색도-파랑, 색도-빨강) 색 공간에 추가하여, CIE(International Commission on Illumination) XYZ와 RBG(red, green, blue) 색 공간과 같은, 추가 색 공간을 명시한다. The originally adopted H.264 Recommendation / AVC specification defines three basic feature sets, called profiles, baseline, main, and extended. These profiles only support chroma samples YUV 4: 2: 0 and 8 bits per sample, which are used for consumer video such as television, DVD, streaming video and the like. Several new profiles, collectively referred to as fidelity range extensions (FRExt), are created sequentially to allow storage and management of professional video formats. FRExt specifies higher bit depth encoding, including 10 and 12 bit video samples, and additional chromatic sample formats, such as YUV 4: 2: 2 and 4: 4: 4. In addition, FRExt also adds to the previously supported YcbCr (yellow, chroma-blue, chroma-red) color space, such as the International Commission on Illumination (CIE) XYZ and RBG (red, green, blue) color spaces. Specifies an additional color space.

JVT 팀이 이들의 사양에 FRExt를 채택하였지만, H.264 추천/AVC 사양 그 자체는, 확장과 연관된 새 파라미터들을 병합하기 위해, 어떻게 기존 AVC 파일 포맷이 수정되는지에 대해 정의하지 않는다.Although the JVT team has adopted FRExt in their specification, the H.264 Recommendation / AVC specification itself does not define how the existing AVC file format is modified to incorporate new parameters associated with the extension.

파라미터 세트는 멀티미디어 데이터의 일부에 대해, 색도 포맷, 광도 비트 심도(luma bit depth), 및 색도 비트 심도(chroma bit depth)를 명시하기 위해 생성된다. 파라미터 세트는 멀티미디어 데이터와 연관되는 메타데이터 파일로 인코딩된다. 디코더 구성 레코드가 파라미터 세트에 대응하는 필드들을 포함하면, 메타데이터 파일로부터 파라미터 세트가 추출된다. 또 다른 양태에서, 디코더 구성 레코드는 파라미터 세트에 대응하는 필드들로 생성된다. A parameter set is generated for specifying the chroma format, luma bit depth, and chroma bit depth for some of the multimedia data. The parameter set is encoded into a metadata file associated with the multimedia data. If the decoder configuration record contains fields corresponding to the parameter set, the parameter set is extracted from the metadata file. In another aspect, the decoder configuration record is generated with fields corresponding to the parameter set.

본 발명은, 유사 참조부호가 유사소자를 지칭하는 첨부 도면에서, 예를 통하여 도시되지만, 이에 제한되지는 않는다.The present invention is shown by way of example in the accompanying drawings, wherein like reference numerals refer to like elements, but are not limited thereto.

도 1은 인코딩 시스템의 일 실시예의 블록도이다.1 is a block diagram of one embodiment of an encoding system.

도 2는 디코딩 시스템의 일 실시예의 블록도이다.2 is a block diagram of one embodiment of a decoding system.

도 3은 본 발명을 실시하기에 적절한 컴퓨터 환경의 블록도이다.3 is a block diagram of a computer environment suitable for practicing the present invention.

도 4는 인코딩 시스템에서 파라미터 세트 메타데이터를 저장하는 방법의 흐름도이다.4 is a flowchart of a method for storing parameter set metadata in an encoding system.

도 5는 디코딩 시스템에서 파라미터 세트 메타데이터를 사용하는 방법의 흐름도이다. 5 is a flowchart of a method of using parameter set metadata in a decoding system.

이하, 본 발명의 실시예들의 상세한 설명에서, 유사 참조부호가 유사소자를 나타내고, 본 발명이 실시될 수 있는 특정 실시예들이 도시된 첨부 도면으로의 참조가 이루어진다. 이들 실시예들은, 당업자들이 본 발명을 실시하도록 충분히 상세하게 기재되고, 다른 실시예들이 사용될 수 있고 본 발명의 범위를 벗어나지 않고 논리, 기계, 전기, 기능, 및 다른 변경이 만들어질 수 있슴이 이해될 것이다. 그러므로, 이하 상세한 설명은 제한적 관점에서 고려되지 않고, 본 발명의 범위는 단지 첨부된 청구범위에 의해서만 정의된다.DETAILED DESCRIPTION In the following detailed description of embodiments of the invention, like reference numerals designate like elements, and reference is made to the accompanying drawings, in which specific embodiments in which the invention may be practiced are shown. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention, and it is understood that other embodiments can be used and that logic, mechanical, electrical, functional, and other changes can be made without departing from the scope of the invention. Will be. Therefore, the following detailed description is not to be considered in a limiting sense, and the scope of the present invention is defined only by the appended claims.

AVC 사양에 기재된 FRExt를 지원하기 위해, AVC 파일 포맷의 디코더 구성 레코드는 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하도록 확장된다. FRExt 프로파일과 연관된 파라미터 세트는 멀티미디어 데이터와 연관된 메타데이터 파일로 인코딩된다. 디코더 구성 레코드가 FRExt 데이터의 존재에 대응하는 필드들을 포함하면, 메타데이터 파일로부터 파라미터 세트가 추출된다.To support the FRExt described in the AVC specification, the decoder configuration record of the AVC file format is extended to specify the chromaticity format, the luminance bit depth, and the chroma bit depth for the portion of the multimedia data. The parameter set associated with the FRExt profile is encoded into a metadata file associated with the multimedia data. If the decoder configuration record contains fields corresponding to the presence of FRExt data, the parameter set is extracted from the metadata file.

본 발명의 동작의 개요를 시작으로, 도 1은 파라미터 세트 메타데이터를 생성하는 인코딩 시스템(100)의 일 실시예를 나타낸다. 인코딩 시스템(100)은 미디어 인코더(104), 메타데이터 생성기(106), 및 파일 생성기(108)를 포함한다. 미디어 인코더(104)는, 비디오 데이터(예컨대, 자연 소스 비디오 장면으로부터 생성된 비디오 객체 및 다른 외부 비디오 객체), 오디오 데이터(예컨대, 자연 소스 오디오 장면으로부터 생성된 오디오 객체 및 다른 외부 오디오 객체), 합성 객체, 또는 이들의 임의의 조합을 포함할 수 있는 미디어 데이터를 수신한다. 미디어 인코더(104)는 다수의 개별 인코더로 구성될 수 있거나, 또는 다양한 유형의 미디어 데이터를 프로세스하기 위해 서브-인코더를 포함할 수 있다. 미디어 인코더(104)는 미디어 데이터를 코딩하고, 이것을 메타데이터 생성기(106)로 전달한다. 메타데이터 생성기(106)는 미디어 데이터에 대한 정보를 제공하는 메타데이터를 생성한다. AVC에 대해, 메타데이터는 파라미터 세트 NAL 단위로서 포맷된다.Beginning with an overview of the operation of the present invention, FIG. 1 illustrates one embodiment of an encoding system 100 for generating parameter set metadata. Encoding system 100 includes a media encoder 104, a metadata generator 106, and a file generator 108. The media encoder 104 may synthesize video data (eg, video objects and other external video objects generated from natural source video scenes), audio data (eg, audio objects and other external audio objects generated from natural source audio scenes), synthesis Receive media data, which may include an object, or any combination thereof. Media encoder 104 may be comprised of a number of individual encoders or may include a sub-encoder to process various types of media data. Media encoder 104 codes the media data and passes it to metadata generator 106. Metadata generator 106 generates metadata that provides information about media data. For AVC, metadata is formatted as parameter set NAL units.

파일 생성기(108)는 미디어 파일 포맷에 의해 구조가 정의되는 파일에 메타데이터를 저장한다. 미디어 파일 포맷은, 메타데이터가 인-밴드 또는 전체적으로나 부분적으로 아웃-오브-밴드로 저장되었슴을 명시할 수 있다. 코딩된 미디어 데이터는 메타데이터 파일에 포함된 참조물에 의해 아웃-오브-밴드 메타데이터에 링크된다(예를 들어, URL을 통해). 파일 생성기(108)에 의해 생성된 파일은 저장 또는 전송을 위해 채널(110)에서 가용(available)하다.The file generator 108 stores metadata in a file whose structure is defined by the media file format. The media file format may specify that metadata was stored in-band or in whole or in part out-of-band. The coded media data is linked (eg, via a URL) to out-of-band metadata by a reference included in the metadata file. The file generated by file generator 108 is available in channel 110 for storage or transmission.

도 2는 파라미터 세트 메타데이터를 추출하는 디코딩 시스템(200)의 일 실시예를 나타낸다. 디코딩 시스템(200)은, 메타데이터 추출기(204), 미디어 데이터 스트림 프로세서(206), 미디어 디코더(210), 작성기(compositor;212), 및 렌더러(renderer;214)를 포함한다. 디코딩 시스템(200)은 클라이언트 디바이스에 상주할 수 있고, 로컬 플레이백(local playback)을 위해 사용될 수 있다. 다른 경우, 디코딩 시스템(200)은 데이터 스트리밍을 위해 사용될 수 있고, 서버 부분과 클라 이언트 부분은 네트워크(208)(예를 들어, 인터넷)를 통해 서로 통신할 수 있다. 서버 부분은 메타데이터 추출기(204)와 미디어 데이터 스트림 프로세서(206)를 포함할 수 있다. 클라이언트 부분은 미디어 디코더(210), 작성기(212), 및 렌더러(214)를 포함할 수 있다.2 illustrates one embodiment of a decoding system 200 for extracting parameter set metadata. The decoding system 200 includes a metadata extractor 204, a media data stream processor 206, a media decoder 210, a composer 212, and a renderer 214. The decoding system 200 can reside on the client device and can be used for local playback. In other cases, decoding system 200 may be used for data streaming, and the server portion and client portion may communicate with each other via network 208 (eg, the Internet). The server portion may include a metadata extractor 204 and a media data stream processor 206. The client portion may include a media decoder 210, a builder 212, and a renderer 214.

메타데이터 추출기(204)는, 데이터베이스(216)에 저장되거나, 또는 네트워크를 통해 수신되는(예컨대, 인코딩 시스템(100)으로부터) 파일로부터 메타데이터를 추출할 책임이 있다. 디코더 구성 레코드는 메타데이터 추출기(204)가 핸들링할 수 있는 메타데이터를 명시한다. 인식되지 않는 임의의 추가 메타데이터는 무시된다.The metadata extractor 204 is responsible for extracting metadata from files stored in the database 216 or received over the network (eg, from the encoding system 100). The decoder configuration record specifies the metadata that the metadata extractor 204 can handle. Any additional metadata that is not recognized is ignored.

추출된 메타데이터는, 또한 연관되어 코딩된 미디어 데이터를 수신하는 미디어 데이터 스트림 프로세서(206)로 전달된다. 미디어 데이터 스트림 프로세서(206)는 메타데이터를 사용하여 미디어 데이터 스트림을 형성하여 미디어 디코더(210)로 송신한다.The extracted metadata is also passed to a media data stream processor 206 that receives the associated and coded media data. The media data stream processor 206 forms the media data stream using the metadata and sends it to the media decoder 210.

일단 미디어 데이터 스트림이 형성되면, 이것은, 디코딩을 위해 (예컨대, 로컬 플레이백을 위해) 직접적으로 또는 (예컨대, 데이터 스트리밍을 위해) 네트워크(208)를 통해 미디어 디코더(210)로 송신된다. 작성기(212)는 미디어 디코더(210)의 출력을 수신하고, 렌더러(214)에 의해 사용자 디스플레이 디바이스 상에 렌더링되는 장면을 작성한다. Once the media data stream is formed, it is sent to the media decoder 210 directly (eg, for local playback) for decoding or via the network 208 (eg, for data streaming). The builder 212 receives the output of the media decoder 210 and creates a scene that is rendered on the user display device by the renderer 214.

메타데이터는, 이것이 생성된 시간과, 이것이 미디어 데이터의 대응하는 부분을 디코딩하기 위해 사용되는 시간 사이에 변경될 수 있다. 그런 변경이 발생하 면, 디코딩 시스템(200)은 이 변경을 명시하는 메타데이터 갱신 패킷을 수신한다. 갱신이 적용되기 전 및 그 후의 메타데이터의 상태가 메타데이터에서 관리된다.The metadata can change between the time it is created and the time it is used to decode the corresponding portion of the media data. If such a change occurs, the decoding system 200 receives a metadata update packet specifying this change. The status of the metadata before and after the update is applied is managed in the metadata.

도 3의 이하 설명은 본 발명을 구현하기에 적절한 컴퓨터 하드웨어와 다른 동작 컴포넌트의 개요를 제공하고자 하는 것이다. 도 3은, 도 1의 메타데이터 생성기(106) 및/또는 파일 생성기(108), 또는 도 2의 메타데이터 추출기(204) 및/또는 미디어 데이터 스트림 프로세서(206)로서 사용하기에 적절한 컴퓨터 시스템의 일 실시예를 나타낸다. The following description of FIG. 3 is intended to provide an overview of computer hardware and other operating components suitable for implementing the present invention. 3 illustrates a computer system suitable for use as the metadata generator 106 and / or file generator 108 of FIG. 1, or the metadata extractor 204 and / or media data stream processor 206 of FIG. 2. One embodiment is shown.

컴퓨터 시스템(340)은 프로세서(350), 메모리(355), 및 시스템 버스(365)에 접속된 입/출력 기능(360)을 포함한다. 메모리(355)는, 프로세서(350)에 의해 실행될 때, 본 명세서에 기재된 방법을 수행하는 명령을 저장하도록 구성된다. 입/출력(360)은 또한 프로세서(350)에 의해 액세스가능한 임의의 유형의 저장 디바이스를 포함하는, 다양한 유형의 머신-판독가능 미디어를 포함한다. 당업자라면, "머신-판독가능한 미디어"라는 용어가 데이터 신호를 인코딩하는 반송파(carrier wave)를 더 포함함을 즉시 인식할 것이다. 또한, 메모리(355)에서 실행하는 운영 체제 소프트웨어에 의해 시스템(340)이 제어됨을 이해할 것이다. 입/출력 및 관련된 미디어(360)는 본 발명의 운영 체제와 방법을 위한 컴퓨터-실행가능한 명령을 저장한다. 도 1 및 도 2에 도시된, 메타데이터 생성기(106), 파일 생성기(108), 메타데이터 추출기(204), 및 미디어 데이터 스트림 프로세서(206) 각각은 프로세서(350)와 접속된 별도의 컴포넌트일 수 있거나, 또는 프로세서(350)에 의해 실행되는 컴퓨터-실행가능한 명령으로 구현될 수 있다. 일 실시예에서, 컴퓨터 시스 템(340)은, 입/출력(360)을 통해 ISP(Internet Service Provider)의 일부이거나, 또는 이에 접속되어서, 인터넷을 통해 미디어 데이터를 전송 또는 수신할 수 있다. 본 발명이 인터넷 액세스 및 인터넷 웹-기반 사이트에 제한되지 않고 직접 접속된 사설 네트워크가 또한 고려됨이 명백하다.Computer system 340 includes an input / output function 360 connected to processor 350, memory 355, and system bus 365. The memory 355 is configured to store instructions when executed by the processor 350 to perform the methods described herein. Input / output 360 also includes various types of machine-readable media, including any type of storage device accessible by processor 350. Those skilled in the art will immediately recognize that the term "machine-readable media" further includes a carrier wave that encodes the data signal. It will also be appreciated that system 340 is controlled by operating system software running on memory 355. Input / output and associated media 360 store computer-executable instructions for the operating system and method of the present invention. Each of the metadata generator 106, file generator 108, metadata extractor 204, and media data stream processor 206, shown in FIGS. 1 and 2, may be separate components connected to the processor 350. Or may be implemented as computer-executable instructions executed by the processor 350. In one embodiment, computer system 340 may be part of, or connected to, an Internet Service Provider (ISP) via input / output 360 to transmit or receive media data via the Internet. It is evident that the invention is also contemplated as a private network directly connected without being limited to Internet access and Internet web-based sites.

컴퓨터 시스템(340)이 서로 다른 아키텍쳐를 갖는 다수의 가능한 컴퓨터 시스템들 중의 일례임을 이해할 것이다. 통상적 컴퓨터 시스템은 보통, 적어도 프로세서, 메모리, 및 프로세서에 메모리를 접속하는 버스를 포함할 것이다. 당업자라면, 본 발명이 멀티프로세서 시스템, 미니컴퓨터, 메인프레임 컴퓨터 등을 포함하는, 다른 컴퓨터 시스템 구성으로 실시될 수 있슴을 즉시 이해할 것이다. 본 발명은 또한, 통신 네트워크를 통해 링크된 원격 프로세싱 디바이스에 의해 작업이 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. It will be appreciated that computer system 340 is one example of a number of possible computer systems having different architectures. A typical computer system will usually include at least a processor, memory, and a bus connecting memory to the processor. Those skilled in the art will readily appreciate that the present invention may be practiced in other computer system configurations, including multiprocessor systems, minicomputers, mainframe computers, and the like. The invention may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network.

도 4 및 도 5는, 인코딩 시스템(100)과 디코딩 시스템(200) 각각에 의해 수행되는 파라미터 세트 메타데이터를 저장하고 검색하는 프로세스를 나타낸다. 프로세스는, 하드웨어(예를 들어, 회로, 전용 로직 등), 소프트웨어(예를 들어, 범용 컴퓨터 시스템 또는 전용 머신 상에서 실행하는 소프트웨어), 또는 이들의 조합을 포함할 수 있는 로직을 프로세싱하여 수행될 수 있다. 소프트웨어로 구현된 프로세스의 경우, 흐름도의 설명은, 당업자가, 명령을 포함하는 그런 프로그램을 개발하여, 적절히 구성된 컴퓨터(메모리를 포함하는, 컴퓨터-판독가능한 미디어로부터 명령을 실행하는 컴퓨터의 프로세서) 상에 프로세스를 실행하도록 한다. 컴퓨터-실행가능한 명령은 컴퓨터 프로그래밍 언어로 기록될 수 있거나, 또는 펌웨 어(firmware) 로직으로 구현될 수 있다. 인식된 표준에 따르는 프로그래밍 언어로 기록되면, 그런 명령은 다양한 하드웨어 플랫폼 상에서 다양한 운영 체제로의 인터페이스를 위해 실행될 수 있다. 또한, 본 발명의 실시예들은 임의의 특정 프로그래밍 언어를 참조하여 설명되지 않는다. 다양한 프로그래밍 언어가 본 명세서에 설명된 가르침을 구현하기 위해 사용될 수 있슴을 이해할 것이다. 또한, 이 분야에서, 액션을 취하거나 또는 결과의 원인이 되는 것과 같은, 일 형태 또는 다른 형태로(예를 들어, 프로그램, 프로시져, 프로세스, 어플리케이션, 모듈, 로직 등), 소프트웨어에 대해 언급하는 것은 일반적이다. 그런 표현들은 단지 컴퓨터에 의한 소프트웨어의 실행이 컴퓨터의 프로세서가 액션을 수행하거나 또는 결과를 산출하도록 함을 말하는 속기 방식에 불과하다. 본 발명의 범위를 벗어나지 않고 도 4 및 도 5에 도시된 프로세스로 더 많은 또는 더 적은 동작이 병합될 수 있고, 본 명세서에 도시되고 설명된 블록들의 배열에 특정 순서가 내포되지는 않는다.4 and 5 illustrate a process of storing and retrieving parameter set metadata performed by each of encoding system 100 and decoding system 200. The process may be performed by processing logic that may include hardware (eg, circuitry, dedicated logic, etc.), software (eg, software running on a general purpose computer system or dedicated machine), or a combination thereof. have. In the case of a software implemented process, the description of the flow diagram illustrates that a person of ordinary skill in the art would develop such a program containing instructions to execute such instructions on an appropriately configured computer (processor of a computer that executes instructions from a computer-readable medium containing memory). To run the process. The computer-executable instructions may be written in a computer programming language or may be implemented in firmware logic. When written in a programming language that conforms to recognized standards, such instructions can be executed for interfacing to various operating systems on various hardware platforms. In addition, embodiments of the present invention are not described with reference to any particular programming language. It will be understood that various programming languages may be used to implement the teachings described herein. In addition, in this field, reference to software, in one or another form (eg, program, procedure, process, application, module, logic, etc.), such as taking an action or causing a result, It is common. Such expressions are merely a shorthand way of saying that the execution of software by a computer causes the computer's processor to perform an action or produce a result. More or fewer operations may be incorporated into the process shown in FIGS. 4 and 5 without departing from the scope of the present invention, and no specific order is implied in the arrangement of the blocks shown and described herein.

도 4는 인코딩 시스템(100)에서 파라미터 세트 메타데이터를 생성하는 방법(400)의 일 실시예의 흐름도이다. 블록(402)의 프로세싱 로직은, 미디어 데이터의 부분들을 어떻게 디코딩하는지를 명시하는 인코딩 파라미터의 세트를 포함하는, 인코딩된 미디어 데이터를 갖는 파일을 수신한다. 프로세싱 로직은 인코딩 파라미터의 세트와 미디어 데이터의 대응하는 부분들 간의 관계를 검사하고(블록 (404)), 파라미터 세트와, 이들의 미디어 데이터 부분들과의 연관을 정의하는 메타데이터를 생성한다(블록 (406)).4 is a flow diagram of one embodiment of a method 400 for generating parameter set metadata in an encoding system 100. The processing logic of block 402 receives a file with encoded media data that includes a set of encoding parameters that specify how to decode portions of media data. The processing logic examines the relationship between the set of encoding parameters and the corresponding portions of the media data (block 404), and generates metadata that defines the parameter set and its association with the media data portions (block 404). (406)).

일 실시예에서, 파라미터 세트 메타데이터는 미리 정의된 데이터 구조의 세 트로 조직화된다. 미리 정의된 데이터 구조의 세트는, 파라미터 세트에 대한 설명적 정보를 포함하는 데이터 구조와, 미디어 데이터 부분들과 대응하는 파라미터 세트 간의 연관관계를 정의하는 정보를 포함하는 데이터 구조를 포함할 수 있다. In one embodiment, parameter set metadata is organized into sets of predefined data structures. The set of predefined data structures may include a data structure that includes descriptive information about the parameter set, and a data structure that includes information defining an association between the media data portions and the corresponding parameter set.

일 실시예에서, 프로세싱 로직은 임의의 파라미터 세트 데이터 구조가 반복된 데이터의 시퀀스를 포함하는지의 여부를 판정한다(블록(408)). 이 판정이 긍정적이면, 프로세싱 로직은 각 반복된 데이터의 시퀀스를, 시퀀스 발생 및 그 시퀀스 발생 횟수에 대한 참조물로 변환한다(블록(410)). 이 유형의 파라미터 세트는 시퀀스 파라미터 세트로서 지칭된다.In one embodiment, processing logic determines whether any parameter set data structure includes a sequence of repeated data (block 408). If this determination is positive, processing logic converts each repeated sequence of data into a reference to the sequence occurrence and the number of times that sequence occurred (block 410). This type of parameter set is referred to as a sequence parameter set.

블록(412)에서, 프로세싱 로직은, 특정 미디어 파일 포맷(예를 들어, AVC 파일 포맷)을 사용하여 미디어 데이터와 연관된 파일에 파라미터 세트 메타데이터를 병합한다. 미디어 파일 포맷에 따라, 파라미터 세트 메타데이터는 인-밴드 또는 아웃-오브-밴드일 수 있다.At block 412, the processing logic merges the parameter set metadata into a file associated with the media data using a particular media file format (eg, AVC file format). Depending on the media file format, parameter set metadata can be in-band or out-of-band.

도 5는 디코딩 시스템(200)에서 파라미터 세트 메타데이터를 사용하는 방법(500)의 일 실시예의 흐름도이다. 블록(502)에서 프로세싱 로직은 인코딩된 미디어 데이터와 연관된 파일을 수신한다. 파일은 데이터베이스(로컬 데이터베이스 또는 외부 데이터베이스), 인코딩 시스템(100), 또는 네트워크 상의 임의의 다른 디바이스로부터 수신될 수 있다. 파일은 대응하는 미디어 데이터를 위한 파라미터 세트를 정의하는 파라미터 세트 메타데이터를 포함한다. 블록(504)의 프로세싱 로직은 파일로부터 파라미터 세트 메타데이터를 추출한다.5 is a flowchart of an embodiment of a method 500 of using parameter set metadata in a decoding system 200. In block 502 processing logic receives a file associated with encoded media data. The file may be received from a database (local or external database), encoding system 100, or any other device on the network. The file contains parameter set metadata that defines a parameter set for the corresponding media data. The processing logic of block 504 extracts parameter set metadata from the file.

블록(506)에서 프로세싱 로직은 추출된 메타데이터를 사용하여, 어느 파라미 터 세트가 특정 미디어 데이터 부분과 연관되는지를 판정한다. 파라미터 세트의 정보는 미디어 데이터 부분들과 대응하는 파라미터 세트의 디코딩과 전송 시간을 제어한다.In block 506 the processing logic uses the extracted metadata to determine which parameter set is associated with the particular media data portion. The information in the parameter set controls the decoding and transmission time of the parameter set corresponding to the media data portions.

JVT FRExt 프로파일의 채택에 응답하여, JVT 팀에 의해, 색도 포맷과 비트 심도 파라미터가 생성되어, 기존 AVC 시퀀스 파라미터 세트로 FRExt를 병합한다. 비디오 샘플이 YUV 4:2:2 또는 4:4:4와 같은 확장된 색도 포맷 중의 하나이면, 방법(400)의 블록(406) 내지 블록(410)을 실행시킬 때, 도 1의 메타데이터 생성기(106)에 의해 대응하는 시퀀스 파라미터 세트에 색도 포맷 표시자, "chroma_format_idc"가 포함된다. chroma_format_idc 파라미터는 광도(luma;luminosity) 샘플링과 관련된 색도(색상(hue) 및 채도(saturation)) 샘플링을 명시하고, 0 내지 3 범위의 값을 갖는다. 10 및 12 비트 비디오 샘플의 존재는 2개의 추가 파라미터에 의해 표시되고, bit_depth_luma_minus8은 광도 샘플의 비트 심도를 명시하고, bit_depth_chroma_minus8은 색도 샘플의 비트 심도를 명시한다. bit_depth_luma_minus8과 bit_depth_chroma_minus8 파라미터의 값은 다음 공식에 따라서 0 내지 4의 범위에 있다:In response to the adoption of the JVT FRExt profile, the chroma format and bit depth parameters are generated by the JVT team to merge FRExt into the existing AVC sequence parameter set. If the video sample is in one of the extended chromaticity formats, such as YUV 4: 2: 2 or 4: 4: 4, then the metadata generator of FIG. 1 when executing blocks 406 through 410 of the method 400. In 106, the corresponding sequence parameter set includes a chromaticity format indicator, "chroma_format_idc". The chroma_format_idc parameter specifies chromaticity (hue and saturation) sampling associated with luma (luminosity) sampling and has a value ranging from 0 to 3. The presence of 10 and 12 bit video samples is indicated by two additional parameters, bit_depth_luma_minus8 specifies the bit depth of the luminance sample, and bit_depth_chroma_minus8 specifies the bit depth of the chroma sample. The values of the bit_depth_luma_minus8 and bit_depth_chroma_minus8 parameters range from 0 to 4 according to the following formula:

BitDepth = 8+ bit_depth_luma_minus8 BitDepth = 8+ bit_depth_luma_minus8

BitDepth = 8+ bit_depth_chroma_minus8BitDepth = 8+ bit_depth_chroma_minus8

그러므로, 0의 값은 8 비트의 비트 심도에 대응하고, 한편 4의 값은 12 비트의 비 트 심도에 대응한다.Therefore, a value of 0 corresponds to a bit depth of 8 bits, while a value of 4 corresponds to a bit depth of 12 bits.

FRExt에 의해 명시된 미디어 포맷을 프로세싱할 수 있는 디코더를 위한 AVC 파일 포맷의 AVC 디코더 구성 레코드에 대응하는 변경이 요구된다. 일 실시예에서, 다음 필드들을 추가하여, 클래스 AVCDecoderConfigurationRecord가 수정된다.A change corresponding to the AVC decoder configuration record of the AVC file format for a decoder capable of processing the media format specified by FRExt is required. In one embodiment, the class AVCDecoderConfigurationRecord is modified by adding the following fields.

bit (6) reserved ='111lll'b;bit (6) reserved = '111lll'b;

unsigned int(2) chroma_format; unsigned int (2) chroma_format;

bit (5) reserved ='111ll'b; bit (5) reserved = '111ll'b;

unsigned int (3) bit_depth_luma_minus8; unsigned int (3) bit_depth_luma_minus8;

bit (5) reserved ='11111'b; bit (5) reserved = '11111'b;

unsigned int (3) bit_depth_chroma_minus8;unsigned int (3) bit_depth_chroma_minus8;

여기서, chroma_format 필드는 chroma_format_idc 파라미터에 의해 정의된 색도 포맷 표시자를 포함한다. 나머지 다른 2개의 필드는 대응하는 광도와 색도 파라미터 값을 포함한다.Here, the chroma_format field includes a chromaticity format indicator defined by the chroma_format_idc parameter. The other two fields contain corresponding luminance and chromaticity parameter values.

도 2의 디코더(210)가 확장된 포맷으로 비디오를 디코딩할 수 있다고 가정하면, 수정된 디코더 구성 레코드는, 메타데이터 추출기(204)가 방법(500)의 블록(505)을 실행함에 따라, 새 FRExt 파라미터의 추출을 제어한다.Assuming the decoder 210 of FIG. 2 can decode the video in the extended format, the modified decoder configuration record is modified as the metadata extractor 204 executes block 505 of the method 500. Controls the extraction of FRExt parameters.

시청각 메타데이터의 저장 및 검색이 설명되었다. 특정 실시예들이 본 명세서에서 AVC 파일 포맷으로 설명되고 기재되었지만, 당업자라면, 동일한 목적을 달성하기 위해 계산되는 임의의 배열이 도시된 특정 실시예들을 대체할 수 있슴을 이해할 것이다. 이 어플리케이션은 본 발명의 임의의 적응본 또는 변형본을 망라하 려고 의도된다. Storage and retrieval of audiovisual metadata has been described. Although specific embodiments have been described and described herein in the AVC file format, those skilled in the art will understand that any arrangement calculated to achieve the same purpose may be substituted for the specific embodiments shown. This application is intended to cover any adaptations or variations of the present invention.

Claims (22)

컴퓨터화된 방법으로서,As a computerized method, 멀티미디어 데이터의 부분에 대한 파라미터 세트를 생성하는 단계 - 상기 파라미터 세트는 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷(chroma format), 광도 비트 심도(luma bit depth), 및 색도 비트 심도(chroma bit depth)를 명시하는 파라미터를 포함함 -; 및Generating a parameter set for the portion of the multimedia data, wherein the parameter set includes, for the portion of the multimedia data, a chroma format, a luma bit depth, and a chroma bit depth; Contains a parameter specifying a; And 상기 파라미터 세트를 상기 멀티미디어 데이터와 연관된 메타데이터(metadata) 파일로 인코딩하는 단계Encoding the parameter set into a metadata file associated with the multimedia data 를 포함하는 방법. How to include. 제1항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩된 비디오 샘플을 포함하는 방법.The method of claim 1, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 제1항에 있어서, 상기 파라미터 세트를 생성하는 단계는,The method of claim 1, wherein generating the parameter set comprises: 상기 파라미터 세트에 대한 설명적 정보를 포함하는 제1 데이터 구조와, 상기 파라미터 세트와 상기 멀티미디어 데이터의 부분 사이의 연관관계를 정의하는 정보를 포함하는 제2 데이터 구조를 생성하는 단계를 포함하는 방법. Generating a first data structure including descriptive information about the parameter set and information defining an association between the parameter set and a portion of the multimedia data. 제1항에 있어서, The method of claim 1, 상기 메타데이터 파일을 수신하는 단계; 및Receiving the metadata file; And 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하는 단계를 더 포함하며,Extracting the parameter set from the metadata file, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터가 무시되는 방법.If the decoder configuration record does not include corresponding fields, the chroma format and the bit depth parameter are ignored. 컴퓨터화된 방법으로서,As a computerized method, 멀티미디어 데이터의 부분과 연관된 메타데이터 파일을 수신하는 단계 - 상기 메타데이터 파일은, 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하는 파라미터 세트를 포함함 -; 및Receiving a metadata file associated with the portion of the multimedia data, the metadata file comprising a parameter set for the portion of the multimedia data that specifies a chromaticity format, a luminance bit depth, and a chroma bit depth; And 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하는 단계를 더 포함하며, Extracting the parameter set from the metadata file, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터가 무시되는 방법.If the decoder configuration record does not include corresponding fields, the chroma format and the bit depth parameter are ignored. 제5항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩된 비디오 샘플을 포함하는 방법.6. The method of claim 5, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 컴퓨터화된 방법으로서, As a computerized method, 멀티미디어 데이터에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도 에 대한 파라미터들에 대응하는 메타데이터 엔트리들을 포함하는 디코더 구성 레코드를 생성하는 단계를 포함하는 방법.For the multimedia data, generating a decoder configuration record comprising metadata entries corresponding to the parameters for the chromaticity format, the luminance bit depth, and the chroma bit depth. 제7항에 있어서, 상기 디코더 구성 레코드를 상기 파라미터들로 명시된 색도 포맷과 비트 심도로 인코딩된 멀티미디어 데이터를 프로세싱하는 디코더로 삽입하는 단계를 더 포함하는 방법.8. The method of claim 7, further comprising inserting the decoder configuration record into a decoder that processes multimedia data encoded with the chromaticity format and bit depth specified by the parameters. 멀티미디어 데이터의 부분에 대한 파라미터 세트를 생성하는 단계 - 상기 파라미터 세트는, 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하는 파라미터들을 포함함 -; 및Generating a parameter set for the portion of the multimedia data, the parameter set including parameters specifying, for the portion of the multimedia data, a chromaticity format, a luminance bit depth, and a chroma bit depth; And 상기 파라미터 세트를 상기 멀티미디어 데이터와 연관된 메타데이터 파일로 인코딩하는 단계Encoding the parameter set into a metadata file associated with the multimedia data 를 포함하는 방법을 프로세서가 수행하도록 하는 실행가능한 명령을 구비하는 머신-판독가능한 매체.A machine-readable medium having executable instructions for causing a processor to perform a method comprising a. 제9항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩된 비디오 샘플을 포함하는 머신-판독가능한 매체. 10. The machine-readable medium of claim 9, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 제9항에 있어서, 상기 파라미터 세트를 생성하는 단계는, 상기 파라미터 세트에 대한 설명적 정보를 포함하는 제1 데이터 구조와, 상기 파라미터 세트와 상기 멀티미디어 데이터의 부분 간의 연관관계를 정의하는 정보를 포함하는 제2 데이터 구조를 생성하는 단계를 포함하는 머신-판독가능한 매체. 10. The method of claim 9, wherein generating the parameter set comprises a first data structure comprising descriptive information about the parameter set and information defining an association between the parameter set and a portion of the multimedia data. Generating a second data structure. 제9항에 있어서, 상기 방법은,The method of claim 9, wherein 상기 메타데이터 파일을 수신하는 단계; 및Receiving the metadata file; And 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하는 단계를 더 포함하며,Extracting the parameter set from the metadata file, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터가 무시되는 머신-판독가능한 매체.If the decoder configuration record does not include corresponding fields, the chroma format and the bit depth parameter are ignored. 멀티미디어 데이터의 부분과 연관되는 메타데이터 파일을 수신하는 단계 - 상기 메타데이터 파일은, 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하는 파라미터 세트를 포함함 -; 및Receiving a metadata file associated with the portion of the multimedia data, the metadata file comprising a parameter set for the portion of the multimedia data that specifies a chromaticity format, a luminance bit depth, and a chroma bit depth; And 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하는 단계를 포함하며,Extracting the parameter set from the metadata file, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터가 무시되는 방법을 프로세서가 수행하도록 하는 실행가능한 명령을 구비하는 머신-판독가능한 매체.And executable instructions that cause a processor to perform a method in which the chromaticity format and bit depth parameters are ignored if the decoder configuration record does not include corresponding fields. 제13항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩된 비디오 샘플을 포함하는 머신-판독가능한 매체.14. The machine-readable medium of claim 13, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 멀티미디어 데이터에 대한, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도의 파라미터들에 대응하는 메타데이터 엔트리를 포함하는 디코더 구성 레코드를 생성하는 단계를 포함하는 방법을 프로세서가 수행하도록 하는 실행가능한 명령들을 구비하는 머신-판독가능한 매체.Generating executable decoder configuration records comprising metadata entries corresponding to the parameters of chromaticity format, luminance bit depth, and chroma bit depth, for the multimedia data; Machine-readable media. 버스를 통해 메모리에 접속되는 프로세서; 및A processor connected to the memory via a bus; And 상기 프로세서가 멀티미디어 데이터의 부분에 대한 파라미터 세트를 생성하고, 상기 파라미터 세트를 상기 멀티미디어 데이터와 연관된 메타데이터 파일로 인코딩하도록 하기 위해 상기 프로세서에 의해 상기 메모리로부터 실행되는 프로세스 - 상기 파라미터 세트는, 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하는 파라미터들을 포함함 -A process executed from the memory by the processor to cause the processor to generate a parameter set for the portion of multimedia data and to encode the parameter set into a metadata file associated with the multimedia data, the parameter set being the multimedia For a portion of data, including parameters specifying a chromaticity format, a luminance bit depth, and a chroma bit depth 를 포함하는 시스템.System comprising a. 제16항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩된 비디오 샘플을 포함하는 시스템.17. The system of claim 16, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 제16항에 있어서, 상기 파라미터 세트를 생성하는 단계는, 상기 파라미터 세트에 대한 설명적 정보를 포함하는 제1 데이터 구조와, 상기 파라미터 세트와 상기 멀티미디어 데이터의 부분 간의 연관관계를 정의하는 정보를 포함하는 제2 데이터 구조를 생성하는 단계를 포함하는 시스템.17. The method of claim 16, wherein generating the parameter set includes a first data structure that includes descriptive information about the parameter set and information defining an association between the parameter set and a portion of the multimedia data. Generating a second data structure. 제16항에 있어서, 상기 프로세스는, 또한 상기 프로세서가 상기 메타데이터 파일을 수신하고, 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하도록 하고, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터들이 무시되는 시스템. The chromaticity format of claim 16, wherein the process further causes the processor to receive the metadata file, extract the parameter set from the metadata file, and if the decoder configuration record does not include corresponding fields. And bit depth parameters are ignored. 버스를 통해 메모리에 접속되는 프로세서; 및A processor connected to the memory via a bus; And 상기 프로세서가, 멀티미디어 데이터의 부분과 연관된 메타데이터 파일을 수신하고, 상기 메타데이터 파일로부터 상기 파라미터 세트를 추출하도록 하기 위해 상기 프로세서에 의해 상기 메모리로부터 실행되는 프로세스 - 상기 메타데이터 파일은, 상기 멀티미디어 데이터의 부분에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 명시하는 파라미터 세트를 포함하고, 디코더 구성 레코드가 대응하는 필드들을 포함하지 않으면, 상기 색도 포맷과 비트 심도 파라미터들이 무시됨 -A process executed from the memory by the processor to cause the processor to receive a metadata file associated with the portion of multimedia data and to extract the parameter set from the metadata file, the metadata file being the multimedia data For a portion of the parameter including a chromaticity format, a luminance bit depth, and a chroma bit depth, and if the decoder configuration record does not include corresponding fields, the chromaticity format and bit depth parameters are ignored. 를 포함하는 시스템.System comprising a. 제20항에 있어서, 상기 멀티미디어 데이터의 부분은 상기 색도 포맷과 비트 심도로 인코딩되는 비디오 샘플을 포함하는 시스템.21. The system of claim 20, wherein the portion of the multimedia data comprises video samples encoded with the chromaticity format and bit depth. 버스를 통해 메모리에 접속되는 프로세서; 및A processor connected to the memory via a bus; And 상기 프로세서가, 멀티미디어 데이터에 대해, 색도 포맷, 광도 비트 심도, 및 색도 비트 심도를 위한 파라미터들에 대응하는 메타데이터 엔트리들을 포함하는 디코더 구성 레코드를 생성하도록 하기 위해 상기 프로세서에 의해 상기 메모리로부터 실행되는 프로세스Executed by the processor to generate a decoder configuration record for the multimedia data, the decoder configuration record comprising metadata entries corresponding to the parameters for the chromaticity format, the luminance bit depth, and the chroma bit depth. process 를 포함하는 시스템.System comprising a.
KR1020077011552A 2004-10-21 2005-10-21 Supporting fidelity range extensions in advanced video codec file format KR20070084442A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US62075304P 2004-10-21 2004-10-21
US60/620,753 2004-10-21
US11/255,853 2005-10-20
US11/255,853 US20070098083A1 (en) 2005-10-20 2005-10-20 Supporting fidelity range extensions in advanced video codec file format

Publications (1)

Publication Number Publication Date
KR20070084442A true KR20070084442A (en) 2007-08-24

Family

ID=36228345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077011552A KR20070084442A (en) 2004-10-21 2005-10-21 Supporting fidelity range extensions in advanced video codec file format

Country Status (7)

Country Link
EP (1) EP1820090A2 (en)
JP (1) JP2008518516A (en)
KR (1) KR20070084442A (en)
AU (1) AU2005299534A1 (en)
CA (1) CA2584765A1 (en)
RU (1) RU2007118660A (en)
WO (1) WO2006047448A2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182708B1 (en) * 2007-01-04 2019-03-06 InterDigital Madison Patent Holdings Methods and apparatus for multi-view information conveyed in high level syntax
CN105721881B (en) 2007-01-11 2019-07-09 汤姆森许可贸易公司 The method and apparatus that grammer is used to profile in MPEG-4AVC high level coding
KR101394154B1 (en) * 2007-10-16 2014-05-14 삼성전자주식회사 Method and apparatus for encoding media data and metadata thereof
WO2009151615A1 (en) 2008-06-12 2009-12-17 Thomson Licensing Methods and apparatus for video coding and decoding with reduced bit-depth update mode and reduced chroma sampling update mode
EP2916549B1 (en) * 2011-06-24 2018-07-18 NTT DoCoMo, Inc. Method and apparatus for motion compensation
US20130195172A1 (en) 2012-01-30 2013-08-01 Qualcomm Incorporated Method of coding video and storing video content
TW201342884A (en) * 2012-01-31 2013-10-16 Sony Corp Encoding device and encoding method, and decoding device and decoding method
US9813705B2 (en) * 2012-04-26 2017-11-07 Qualcomm Incorporated Parameter set coding
WO2015054307A2 (en) * 2013-10-07 2015-04-16 Vid Scale, Inc. Combined scalability processing for multi-layer video coding
US11184602B2 (en) * 2017-02-13 2021-11-23 Sony Corporation Image processing apparatus and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325423A (en) * 1992-11-13 1994-06-28 Multimedia Systems Corporation Interactive multimedia communication system
US6639945B2 (en) * 1997-03-14 2003-10-28 Microsoft Corporation Method and apparatus for implementing motion detection in video compression
EP1258837A1 (en) * 2001-05-14 2002-11-20 Thomson Licensing S.A. Method to generate mutual photometric effects
US8978090B2 (en) * 2003-03-12 2015-03-10 Qualcomm Incorporated Multimedia transcoding proxy server for wireless telecommunication system

Also Published As

Publication number Publication date
CA2584765A1 (en) 2006-05-04
AU2005299534A1 (en) 2006-05-04
WO2006047448A3 (en) 2009-04-16
EP1820090A2 (en) 2007-08-22
JP2008518516A (en) 2008-05-29
WO2006047448A2 (en) 2006-05-04
RU2007118660A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
KR20070084442A (en) Supporting fidelity range extensions in advanced video codec file format
KR102014628B1 (en) Method, apparatus and computer program product for processing image sequence tracks
US7613727B2 (en) Method and apparatus for supporting advanced coding formats in media files
JP7066786B2 (en) High dynamic range and wide color gamut content transmission in transport streams
US9596430B2 (en) Data generation apparatus, data generating method, data reproduction apparatus, and data reproducing method
US9788020B2 (en) File generation apparatus, file generating method, file reproduction apparatus, and file reproducing method
KR102420676B1 (en) Signaling of important video information in file format
US20070098083A1 (en) Supporting fidelity range extensions in advanced video codec file format
US20040006575A1 (en) Method and apparatus for supporting advanced coding formats in media files
US20040199565A1 (en) Method and apparatus for supporting advanced coding formats in media files
JP2006505024A (en) Data processing method and apparatus
US9918099B2 (en) File generation apparatus, file generating method, file reproduction apparatus, and file reproducing method
US20030163477A1 (en) Method and apparatus for supporting advanced coding formats in media files
EP3888375A1 (en) Method, device, and computer program for encapsulating media data into a media file
JP2005524128A (en) Method and apparatus for supporting AVC in MP4
CN101416149A (en) Supporting fidelity range extensions in advanced video codec file format
JP2010124479A (en) Method and apparatus for supporting avc in mp4
AU2003219877A1 (en) Method and apparatus for supporting avc in mp4

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid