WO2014010300A1 - 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法 - Google Patents

画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法 Download PDF

Info

Publication number
WO2014010300A1
WO2014010300A1 PCT/JP2013/063178 JP2013063178W WO2014010300A1 WO 2014010300 A1 WO2014010300 A1 WO 2014010300A1 JP 2013063178 W JP2013063178 W JP 2013063178W WO 2014010300 A1 WO2014010300 A1 WO 2014010300A1
Authority
WO
WIPO (PCT)
Prior art keywords
picture
cra
image
information
sample
Prior art date
Application number
PCT/JP2013/063178
Other languages
English (en)
French (fr)
Inventor
中野 雄彦
平林 光浩
充 勝股
訓 辻井
鈴木 輝彦
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/412,480 priority Critical patent/US10062416B2/en
Priority to JP2014524678A priority patent/JP6319083B2/ja
Priority to CN201380035503.6A priority patent/CN104412608B/zh
Publication of WO2014010300A1 publication Critical patent/WO2014010300A1/ja
Priority to US15/991,484 priority patent/US10283167B2/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/22Means responsive to presence or absence of recorded information signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B19/00Driving, starting, stopping record carriers not specifically of filamentary or web form, or of supports therefor; Control thereof; Control of operating function ; Driving both disc and head
    • G11B19/02Control of operating function, e.g. switching from recording to reproducing
    • G11B19/12Control of operating function, e.g. switching from recording to reproducing by sensing distinguishing features of or on records, e.g. diameter end mark
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3081Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is a video-frame or a video-field (P.I.P)
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00072Time or data compression or expansion the compressed signal including a video signal

Definitions

  • the present disclosure relates to an image decoding device, an image decoding method, an image encoding device, and an image encoding method.
  • H. is one of the standard specifications for image coding.
  • each image (picture) is divided into one or more slices.
  • Each slice is classified into one of an I slice (Intra Slice), a P slice (Predictive Slice), and a B slice (Bi-predictive Slice).
  • An I slice is a slice that is independently decoded without referring to another image.
  • a P slice is a slice that is decoded by referring to a single other image.
  • the B slice is a slice that is decoded by referring to a plurality of other images.
  • the first picture of the sequence consisting of only I slices is called an IDR (Instantaneous Decoding Refresh) picture.
  • An IDR picture is identified by a value of a NAL (Network Abstraction Layer) unit type. Pictures in the same sequence that follow the IDR picture do not refer to pictures preceding the IDR picture in decoding order, and are positioned only after the IDR picture in presentation order. Therefore, when random access (decoding / playback from the middle rather than decoding from the beginning of the stream) is attempted at a point in the middle of the video of a certain encoded stream, the video is appropriately selected from the IDR picture near the designated point of time. Can be decrypted.
  • NAL Network Abstraction Layer
  • a CRA picture is a picture consisting of only I slices in the middle of a sequence.
  • a picture that follows a CRA picture in both decoding order and display order does not refer to both a picture preceding the CRA picture in decoding order and a picture preceding the CRA picture in display order (see Non-Patent Document 2 below). Therefore, when random access to a CRA picture at a point in the middle of a video (decoding of a video from a CRA picture) is performed, decoding of a picture that follows the CRA picture in display order can be performed without failure.
  • an acquisition unit that acquires, from the header area of a file format including a header area and a data area, CRA information that identifies one or more CRA pictures in an image sequence inserted in the data area;
  • a control unit for specifying any CRA picture in the image sequence as a decoding start picture using the CRA information when a random access instruction is detected; and the decoding start specified by the control unit
  • An image decoding apparatus comprising: a decoding unit that decodes the image sequence from a picture.
  • CRA information for identifying one or more CRA pictures in an image sequence inserted in the data area is acquired from the header area of a file format including a header area and a data area.
  • the CRA information is used to identify any CRA picture in the image sequence as a decoding start picture, and from the identified decoding start picture,
  • An image decoding method comprising: decoding an image sequence.
  • an encoding unit that encodes an image in an image sequence to generate image data, and one or more CRAs in the image sequence that can be used as a decoding start picture in random access.
  • a determination unit that determines a picture; and inserts CRA information that identifies the one or more CRA pictures determined by the determination unit into the header region of a file format including a header region and a data region, and
  • an image encoding device including a file generation unit for inserting image data.
  • an image in an image sequence is encoded to generate image data, and at least one CRA picture in the image sequence that can be used as a decoding start picture in random access. Determining, inserting CRA information identifying the one or more determined CRA pictures into the header area of a file format including a header area and a data area, and inserting the image data into the data area An image encoding method is provided.
  • random access to a CRA picture can be realized more easily than existing methods.
  • FIG. 25 is a flowchart illustrating a first example of a flow of decoding processing executed by the apparatus illustrated in FIG. 24.
  • FIG. 25 is a flowchart illustrating a first example of a flow of decoding processing executed by the apparatus illustrated in FIG. 24.
  • FIG. 25 is a flowchart illustrating a second example of the flow of decoding processing executed by the apparatus illustrated in FIG. 24.
  • FIG. It is a flowchart which shows the 3rd example of the flow of a process for specifying a decoding start picture.
  • It is a block diagram which shows an example of a schematic structure of a television apparatus.
  • It is a block diagram which shows an example of a schematic structure of a mobile telephone.
  • It is a block diagram which shows an example of a schematic structure of an imaging device.
  • FIG. 1 is a block diagram illustrating an example of a configuration of an image encoding device 10 according to an embodiment.
  • the image encoding device 10 includes an encoding unit 11, a determination unit 12, a VCL buffer 13, a non-VCL buffer 14, a file generation unit 15, and a control unit 16.
  • the encoding unit 11 is an encoder that operates according to the HEVC method.
  • the encoding unit 11 acquires an image sequence to be encoded from a moving image source such as a camera or a television tuner connected to the image encoding device 10. Then, the encoding unit 11 generates an encoded bitstream by performing various processes such as intra prediction, interframe prediction, orthogonal transform, quantization, and lossless encoding for each image in the acquired image sequence. To do.
  • Slice data corresponding to an image entity is generated as a VCL (Video Coding Layer) NAL unit.
  • VCL Video Coding Layer
  • parameter sets such as SPS (Sequence Parameter Set), PPS (Picture Parameter Set), and APS (Adaptation Parameter Set) can be generated as non-VCL NAL units.
  • the encoding unit 11 outputs a VCL NAL unit, that is, a bit stream of slice data, to the file generation unit 15 via the VCL buffer 13. Also, the encoding unit 11 outputs the parameter set to the file generation unit 15 via the non-VCL buffer 14.
  • the determination unit 12 determines the type of each image in the image sequence encoded by the encoding unit 11. More specifically, in the present embodiment, the determination unit 12 determines at least whether each image is an IDR picture, a CRA picture, or another picture. Both IDR pictures and CRA pictures are pictures consisting only of I slices. As described above, the IDR picture is the first picture in the sequence. Pictures in the same sequence that follow the IDR picture do not refer to pictures preceding the IDR picture in coding order (decoding order) and are positioned only after the IDR picture in display order.
  • the CRA picture is a picture that is located in the middle of the sequence and can be used as a decoding start picture in random access on the decoder side.
  • a picture that follows a CRA picture in both coding order (decoding order) and display order does not refer to both a picture that precedes the CRA picture in coding order (decoding order) and a picture that precedes the CRA picture in display order .
  • the determination unit 12 outputs the determination result to the encoding unit 11 and the file generation unit 15.
  • the encoding unit 11 adds a NAL unit type indicating the type of each image determined by the determination unit 12 to the NAL header of each NAL unit.
  • a preceding picture As can be understood from the definition of the CRA picture, it is permissible for the preceding picture to refer to a picture that precedes the CRA picture in decoding order.
  • a preceding picture When random access to a CRA picture is performed, a preceding picture that refers to a picture preceding the CRA picture in decoding order is not normally decoded.
  • the determination unit 12 may further determine a preceding picture that is not normally decoded when random access to each CRA picture is performed, and provide the determination result to the file generation unit 15.
  • VCL buffer / non-VCL buffer The VCL buffer 13 buffers the VCL NAL unit.
  • the slice data of the CRA picture is buffered by the VCL buffer 13.
  • the non-VCL buffer 14 buffers non-VCL NAL units.
  • the file generation unit 15 generates a moving image file 20 that stores a series of encoded image data according to a file format including a header area and a data area.
  • a file format including a header area and a data area.
  • the MP4 format is used as a file format.
  • the technology according to the present disclosure is not limited to such an example, and can be applied to other types of moving image file formats having a header area and a data area.
  • data is stored in an object called a box and recorded in units of objects.
  • the boxes form a tree structure, and the parent box contains child boxes.
  • Each box type is identified by a four-letter identifier.
  • the file generation unit 15 inserts a bit stream of slice data corresponding to the VCL NAL unit into the data area (for example, mdat box) of the moving image file 20 in the decoding order. Further, the file generation unit 15 inserts one or more parameter sets corresponding to the non-VCL NAL unit into the header area (for example, moov box) of the moving image file 20. Further, in the present embodiment, the file generation unit 15 inserts CRA information for identifying one or more CRA pictures determined by the determination unit 12 in the header area of the moving image file 20. Further, the file generation unit 15 may include, in the CRA information, preceding picture information for identifying a preceding picture that is not normally decoded when random access to each CRA picture is performed.
  • Control Unit 16 controls encoding processing executed in the image encoding device 10. For example, when an instruction to start encoding is detected, the control unit 16 causes the encoding unit 11 to encode the designated image sequence. In addition, the control unit 16 causes the file generation unit 15 to generate a moving image file 20 that stores the image data encoded by the encoding unit 11. The control unit 16 may control the generation of the encoded stream so as not to break down the decoder buffer by using a virtual decoder model called HRD (Hypothetical Reference Decoder).
  • HRD HyperTextical Reference Decoder
  • FIG. 2 is an explanatory diagram for explaining an example of a file format that can be adopted in the present embodiment.
  • the moving image file 20 includes a moov box 21 and an mdat box 27.
  • boxes that are not directly related to the technology according to the present disclosure are not shown.
  • the moov box 21 is a box corresponding to the header area of the moving image file 20.
  • the moov box 21 includes a stbl box 22.
  • the stbl box (Sample Table Box) 22 is a container box including a header information box.
  • the stbl box 22 includes a stcs box 25 newly introduced in the present embodiment, in addition to the stsd box 23 and the stsc box 24.
  • the stsd box (Sample Description Box) 23 is a box that holds parameters related to actual data stored in the mdat box 27.
  • the stsd box 23 includes a hev1 box 26.
  • the hev1 box 26 is a box that holds a parameter set used when decoding image data encoded in accordance with the HEVC method.
  • the stsc box (Sample To Chunk Box) 24 is a box that holds mapping between actual data called chunks in the mdat box 27 and parameters in the stsd box 23.
  • the stcs box 25 is a newly defined box for holding CRA information for identifying one or more CRA pictures.
  • the mdat box 27 is a box corresponding to the data area of the moving image file 20.
  • the mdat box 27 includes one or more chunks 28.
  • a chunk is actual data corresponding to individual moving image tracks, audio tracks, or other types of tracks.
  • a chunk of image data encoded by the HEVC method typically, a plurality of slice data corresponding to VCL NAL units are stored in decoding order.
  • the moving image file 20 illustrated in FIG. 2 has a so-called Non-Fragmented Movie structure. That is, there is only one pair of moov box and mdat box in the moving image file 20.
  • a structure in which one moving image is fragmented into a plurality of parts and a pair of moov box and mdat box is generated for each fragmented part is called a Fragmented Movie structure.
  • FIG. 3 a comparison between the Non-Fragmented Movie structure and the Fragmented Movie structure is shown.
  • a stcs box 25 for CRA information is inserted in the moov box 21.
  • tfca boxes 25a to 25n for CRA information can be inserted into the plurality of moov boxes 21a to 21n, respectively.
  • the box identifiers (“stcs” and “tfca”) shown in FIGS. 2 and 3 are merely examples. That is, another four-letter alphabet may be used as an identifier of a box that holds CRA information.
  • the box that holds the CRA information is not actually a direct child box of the moov box, but a container box such as a stbl box or an mfra box (Movie Fragment Random Access Box). It may be inserted as a child box.
  • the box for CRA information introduced for Non-Fragmented Movie may be a dedicated box for CRA information, for example. 4 to 6 respectively show examples of stcs boxes as such dedicated boxes.
  • the stcs box is defined as a CRASampleBox class that inherits the FullBox class.
  • the CRASSampleBox class includes the number of sample numbers (sample_number) indicated by the number of entries (entry_count).
  • sample_number the number of sample numbers indicated by the number of entries (entry_count).
  • Each sample number indicates a number of a sample corresponding to a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • the number of entries is equal to the number of samples corresponding to the CRA picture.
  • the CRASSampleBox class includes a set of a sample number (sample_number) and a broken sample number (broken_samples), which is the number indicated by the number of entries (entry_count). .
  • sample_number a sample number
  • broken_samples a broken sample number
  • Each sample number indicates a number of a sample corresponding to a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • Each damaged sample number indicates the number of samples of the preceding picture that is not normally decoded when random access to the CRA picture indicated by the corresponding sample number is performed (for example, the number from the top in the display order). It may be indicated by the negative number of damaged samples that the number of samples of the preceding picture that is not normally decoded is unknown.
  • the number of entries is equal to the number of samples corresponding to the CRA picture.
  • the decoder can correctly decode which number of samples is a sample of a CRA picture and which preceding picture when random access to each CRA picture is performed. You can easily know if you can not.
  • the CRASampleBox class includes a set of a sample number (sample_number) and a breakage time length (broken_duration), which is the number indicated by the number of entries (entry_count). .
  • Sample_number a sample number
  • broken_duration a breakage time length
  • Each sample number indicates a number of a sample corresponding to a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • Each corruption time length is the total time length of the preceding pictures that are not normally decoded when random access to the CRA picture indicated by the corresponding sample number is performed (for example, a value in a time unit defined in the mdhd block) ).
  • the time length of the preceding picture that is not normally decoded may be unknown by a negative damage time length.
  • the number of entries is equal to the number of samples corresponding to the CRA picture.
  • the CRA information is stored in a stcs box different from a box (for example, a stss box (Sync Sample Box)) in which IDR information for identifying an IDR picture is stored.
  • the CRA information may be stored in a box shared with the IDR information.
  • FIG. 7 to FIG. 9 respectively show examples of the stra box as such a shared box.
  • the stra box is defined as a RandomAccessSampleBox class that inherits the FullBox class.
  • the RandomAccessSampleBox class includes a set of a sample type (sample_type) and a sample number (sample_number) of the number indicated by the number of entries (entry_count).
  • Each sample number indicates a number of a sample corresponding to an IDR picture or a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • the sample type value may be, for example, the same value as the NAL unit type.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the RandomAccessSampleBox class includes the sample type (sample_type), the sample number (sample_number), and the number of damaged samples (broken_samples) as indicated by the number of entries (entry_count). ) And set.
  • Each sample number indicates a number of a sample corresponding to an IDR picture or a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • Each damaged sample number indicates the number of samples of the preceding picture that is not normally decoded when random access to the picture indicated by the corresponding sample number is performed.
  • the number of damaged samples for an IDR picture may be omitted or may indicate zero.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the RandomAccessSampleBox class includes the sample type (sample_type), the sample number (sample_number), and the breakage time length (broken_duration) of the number indicated by the number of entries (entry_count). ) And set.
  • Each sample number indicates a number of a sample corresponding to an IDR picture or a CRA picture among a series of samples included in a chunk in the mdat box 27.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • Each damage time length indicates the total time length of the preceding pictures that are not normally decoded when random access to the picture indicated by the corresponding sample number is performed.
  • the breakage time length for the IDR picture may be omitted or may indicate zero.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the box for CRA information introduced for Fragmented Movie may be a dedicated box for CRA information, for example. 10 to 12 show examples of the tfca box as such a dedicated box.
  • the tfca box is defined as a TrackFragmentCRAAccessBox class that inherits the FullBox class.
  • the TrackFragmentCRAAccessBox class includes the number of sample numbers (sample_number) indicated by the number of entries (number_of_entry).
  • sample_number indicates each of the sample numbers corresponding to the CRA picture among a series of samples included in the chunk in the mdat box of the corresponding fragment.
  • the number of entries is equal to the number of samples corresponding to the CRA picture.
  • the TrackFragmentCRAAccessBox class includes a set of the sample number (sample_number) and the number of damaged samples (preceding_samples) of the number indicated by the number of entries (number_of_entry). .
  • Each sample number indicates each of the sample numbers corresponding to the CRA picture among a series of samples included in the chunk in the mdat box of the corresponding fragment.
  • Each damaged sample number indicates the number of samples of the preceding picture that is not normally decoded when random access to the CRA picture indicated by the corresponding sample number is performed (for example, the number from the top in the display order).
  • the decoder can correctly determine which number of samples of each fragment is a sample of a CRA picture, and which leading picture when random access to each CRA picture is performed. It can be easily known whether or not decoding is possible.
  • the TrackFragmentCRAAccessBox class includes a set of a sample number (sample_number) and a failure time length (preceding_duration) indicated by the number of entries (number_of_entry). .
  • Each sample number indicates each of the sample numbers corresponding to the CRA picture among a series of samples included in the chunk in the mdat box of the corresponding fragment.
  • Each corruption time length is the total time length of the preceding pictures that are not normally decoded when random access to the CRA picture indicated by the corresponding sample number is performed (for example, a value in a time unit defined in the mdhd block) ).
  • the time length of the preceding picture that is not normally decoded may be unknown by a negative damage time length.
  • the number of entries is equal to the number of samples corresponding to the CRA picture.
  • the CRA information is stored in a tfca box different from a box in which IDR information for identifying an IDR picture is stored.
  • the CRA information may be stored in a box shared with the IDR information.
  • FIGS. 13 to 15 show examples of the tfr2 box as such a shared box.
  • the tfr2 box is defined as an ExtTrackFragmentRandomAccessBox class that inherits the FullBox class.
  • the ExtTrackFragmentRandomAccessBox class includes a set of a sample type (sample_type) and a sample number (sample_number) of the number indicated by the number of entries (number_of_entry).
  • sample_type a sample type
  • sample_number a sample number of the number indicated by the number of entries
  • Each sample number indicates a number of a sample corresponding to an IDR picture or CRA picture among a series of samples included in a chunk in the mdat box of the corresponding fragment.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • the sample type value may be, for example, the same value as the NAL unit type.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the ExtTrackFragmentRandomAccessBox class includes the sample type (sample_type), the sample number (sample_number), and the number of damaged samples (preceding_samples) indicated by the number of entries (number_of_entry). ) And set.
  • Each sample number indicates a number of a sample corresponding to an IDR picture or CRA picture among a series of samples included in a chunk in the mdat box of the corresponding fragment.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • Each damaged sample number indicates the number of samples of the preceding picture that is not normally decoded when random access to the picture indicated by the corresponding sample number is performed.
  • the number of damaged samples for an IDR picture may be omitted or may indicate zero.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the ExtTrackFragmentRandomAccessBox class includes the number of sample types (sample_type), the sample number (sample_number), and the failure time length (preceding_duration) indicated by the number of entries (number_of_entry). ) And set.
  • Each sample number indicates a number of a sample corresponding to an IDR picture or CRA picture among a series of samples included in a chunk in the mdat box of the corresponding fragment.
  • Each sample type indicates whether the picture indicated by the corresponding sample number is an IDR picture or a CRA picture.
  • Each damage time length indicates the total time length of the preceding pictures that are not normally decoded when random access to the picture indicated by the corresponding sample number is performed.
  • the breakage time length for the IDR picture may be omitted or may indicate zero.
  • the number of entries is equal to the number of samples corresponding to the IDR picture or CRA picture.
  • the CRA information is stored in a newly defined extended sample box as in the examples of FIGS. 4 to 15, and the existing sample group information mechanism for grouping one or more samples is used. May be defined.
  • FIGS. 16 and 17 are explanatory diagrams for explaining a box for basic sample group information.
  • FIG. 16 shows the syntax of the SampleToGroupBox class that defines the sbgp box (Sample To Group Box).
  • the SampleToGroupBox class includes a set of a sample counter (sample_count) and a group description index (group_description_index) indicated by the number of entries (entry_count). Each set associates each sample with the sample group to which the sample belongs.
  • FIG. 17 shows the syntax of the SampleGroupDescriptionBox class that defines the sgpd box (Sample Group Description Box).
  • An instance of the SampleGroupDescriptionBox class is associated with an instance of the SampleToGroupBox class that has a common grouping type (grouping_type).
  • the SampleGroupDescriptionBox class includes an entry of sample group information defined by the VisualSampleGroupEntry class when the handler type (handler_type) indicates “video (video track)”.
  • the number of entries (entry_count) indicates the number of entries in the sample group information.
  • FIG. 18 to FIG. 23 show six examples of sample group information for CRA information for defining CRA information by utilizing such a mechanism of existing sample group information.
  • the first to third examples are examples of dedicated sample group information for CRA information.
  • the fourth to sixth examples are examples of shared sample group information for IDR information and CRA information.
  • the syntax of the CRAEntry class that inherits the VisualSampleGroupEntry class is shown.
  • the grouping type is “crap”.
  • the CRAEntry class includes only reserved fields.
  • the sample associated with the sample group of the CRAEntry class in the sbgp box described with reference to FIG. 16 is a sample of the CRA picture.
  • the CRAPPointEntry class includes the number of broken samples (broken_samples) as a group attribute.
  • the sample associated with the sample group of the CRAPPointEntry class in the sbgp box described with reference to FIG. 16 is a sample of a CRA picture.
  • the number of damaged samples indicates the number of samples of the preceding picture that is not normally decoded when random access to each CRA picture is performed (for example, the number from the top in the display order).
  • the CRAPPointEntry class includes a break time length (broken_duration) as a group attribute.
  • the damaged time length indicates the total time length of preceding pictures that are not normally decoded when random access to each CRA picture is performed.
  • the ExtRAPEntry class includes a sample type (sample_type) as a group attribute.
  • the sample associated with the sample group of the ExtRAPEntry class in the sbgp box described with reference to FIG. 16 is a sample of an IDR picture or a CRA picture.
  • the sample type indicates whether each picture is an IDR picture or a CRA picture.
  • the sample type value may be, for example, the same value as the NAL unit type.
  • the ExtRAPEntry class includes a sample type (sample_type) and the number of broken samples (broken_samples) as group attributes.
  • the number of damaged samples indicates the number of samples of the preceding picture that is not normally decoded when random access to each picture is performed. Note that the number of damaged samples for an IDR picture may be omitted or may indicate zero.
  • the ExtRAPEntry class includes a sample type (sample_type) and a breakage time length (broken_duration) as group attributes.
  • the damaged time length indicates the total time length of preceding pictures that are not normally decoded when random access to each picture is performed. Note that the breakage time length for the IDR picture may be omitted or may indicate zero.
  • CRA information can be defined without introducing a new sample box by utilizing an existing sample group information mechanism.
  • the existing decoder can be extended at a lower cost to provide effective support for random access to CRA pictures.
  • FIG. 24 is a block diagram illustrating an example of the configuration of the image decoding device 30 according to an embodiment.
  • the image decoding apparatus 30 includes a VCL buffer 31, a non-VCL buffer 32, a parameter memory 33, a decoding unit 34, an output buffer 35, a CRA information acquisition unit 36, and a control unit 37.
  • VCL buffer / non-VCL buffer The VCL buffer 31 buffers a bit stream of image data (typically slice data) read from a data area (for example, mdat box) of the moving image file 20.
  • the non-VCL buffer 32 buffers parameter information such as SPS, PPS, and APS read from the header area (for example, moov box) of the moving image file 20 and header information such as CRA information.
  • the parameter memory 33 collectively stores information in the header area of the file acquired via the non-VCL buffer 32.
  • the CRA information that can be recorded in the header area of the moving image file 20 in the various formats described above is held by the parameter memory 33 while the moving image file 20 is opened.
  • the decoding unit 34 is a decoder that operates according to the HEVC scheme.
  • the decoding unit 34 decodes the image sequence from the bit stream acquired from the data area of the moving image file 20 via the VCL buffer 31.
  • the decoding unit 34 uses parameters in the parameter set stored by the parameter memory 33 when decoding an image.
  • the decoding unit 34 rearranges the images in the decoded image sequence in the display order, and outputs the rearranged images to the output buffer 35.
  • the decoding unit 34 normally accesses the slice data stored in the decoding order in the moving image track in the moving image file 20 in order from the beginning. However, when the random access instruction is detected by the control unit 37, the decoding unit 34 randomly accesses the decoding start picture (in the middle of the moving image track) specified by the control unit 37, and starts the image sequence from the decoding start picture. Is decrypted.
  • the decoding start picture is one of an IDR picture and a CRA picture in the moving image track.
  • the output buffer 35 is a decoded picture buffer (DPB) for buffering the image decoded by the decoding unit 34.
  • the image buffered by the output buffer 35 is output to a display or processor (not shown) at the output timing of the image.
  • the CRA information acquisition unit 36 acquires CRA information that is read from the header area of the moving image file 20 into the parameter memory 33 via the non-VCL buffer 32.
  • the CRA information is information that at least identifies one or more CRA pictures in the decoded image sequence.
  • the CRA information may be information stored in a dedicated sample box of CRA information or a shared sample box. Instead, the CRA information may be sample group information for grouping one or more CRA pictures.
  • the CRA information may include preceding picture information for identifying a preceding picture that is not normally decoded when random access to each CRA picture is performed.
  • the CRA information acquisition unit 36 outputs the acquired CRA information to the control unit 37.
  • the control unit 37 controls the decoding process executed in the image decoding device 30. For example, the control unit 37 opens the moving image file 20 in response to an instruction from the user, and causes the decoding unit 34 to start decoding the image sequence. In addition, when a random access instruction is detected, the control unit 37 uses the CRA information acquired by the CRA information acquisition unit 36 to identify any CRA picture in the image sequence as a decoding start picture. Then, the control unit 37 causes the decoding unit 34 to decode the image sequence from the identified decoding start picture (that is, from the middle of the moving image track).
  • control unit 37 sets the CRA picture located closest to the timing specified in the random access instruction (for example, the timing indicated by the operated pointer of the seek bar of the video playback window) as the decoding start picture. Identify.
  • the control unit 37 skips the output from the output buffer 35 of the preceding picture that is identified using the preceding picture information and is not normally decoded (and decoded by the decoding unit 34). You may let them.
  • the preceding picture information it is possible to prevent a damaged image from being displayed on the display or output to an external processor. At that time, the control unit 37 does not need to determine afterwards whether or not each image has been normally decoded.
  • FIG. 25 is a flowchart illustrating a first example of the flow of decoding processing executed by the image decoding device 30 illustrated in FIG. The first example relates to the decoding of an image sequence having a Non-Fragmented Movie structure.
  • the control unit 37 continuously monitors a random access (RA) instruction (step S100). When the RA instruction is detected, the processing from step S110 to step S160 is executed. When the RA instruction is not detected, the decoding unit 34 decodes the images in the decoding order (step S190).
  • RA random access
  • the control unit 37 acquires a designated time T indicating the timing designated in the RA instruction (step S110).
  • the control part 37 acquires the sample number X of the sample (sample which should be displayed in the designated time T) corresponding to the designated time T (step 120).
  • the control unit 37 searches for a randomly accessible picture immediately before the sample number X using the CRA information, and specifies a decoding start picture (step S130).
  • the decoding start picture specified here is a CRA picture or an IDR picture.
  • the decoding unit 34 performs random access to the decoding start picture specified by the control unit 37 (step S160). Then, the decoding unit 34 decodes the images in the decoding order from the decoding start picture (step S190).
  • FIG. 26 is a flowchart showing an example of the flow of processing for acquiring the sample number X corresponding to the specified time T, corresponding to step S120 of FIG.
  • the control unit 37 first initializes the time variable S and the counter n to zero (step S121). Next, the control unit 37 increments the counter n (that is, adds 1 to the counter n) (step S122). Next, the control unit 37 adds the time length of the nth sample of the moving image track to the time variable S (step S123). Note that the time length of the nth sample can be indicated by a parameter (sample_delta) in a stts box (Time To Sample Box), for example. Next, the control unit 37 determines whether or not the time variable S exceeds the specified time T (S> T) (step S124). If the time variable S has not yet exceeded the specified time T, the process returns to step S122. On the other hand, when the time variable S exceeds the specified time T, the control unit 37 substitutes the value of the counter n for the sample number X (step S125).
  • the sample number X corresponding to the specified time T is acquired by such processing.
  • FIG. 27 is a flowchart showing a first example of the flow of processing for identifying a decoding start picture, corresponding to step S130 of FIG. In the first example, it is assumed that the CRA information is stored in the stcs box illustrated in FIGS. 4 to 6 or the stra box illustrated in FIGS. 7 to 9.
  • the control unit 37 first initializes the number variable M and the counter n to 1 (step S131). Next, the control unit 37 refers to the nth entry in the sample box for CRA information (step S132). Next, the control unit 37 determines whether or not the sample type (sample_type) of the nth entry indicates a predetermined value (for example, a NAL unit type value indicating a CRA picture or IDR picture) (step S133). . If the sample box for CRA information does not include a sample type, the determination here is omitted. If the sample type of the nth entry does not indicate a predetermined value, the process of step S134 thereafter is skipped, and the process proceeds to step S136.
  • a predetermined value for example, a NAL unit type value indicating a CRA picture or IDR picture
  • the control unit 37 determines whether or not the sample number (sample_number) Xn of the nth entry is equal to or smaller than the sample number X corresponding to the specified time T. Determination is made (step S134). If the sample number Xn is not less than or equal to the sample number X, the process proceeds to step S138. On the other hand, if the sample number Xn is equal to or smaller than the sample number X, the control unit 37 substitutes the sample number Xn for the number variable M (step S135). Next, the control unit 37 determines whether or not the nth entry is the last entry (step S136).
  • step S137 the control unit 37 increments the counter n (step S137), and the process returns to step S132. If the nth entry is the last entry, the process proceeds to step S138.
  • step S138 the control unit 37 substitutes the value of the number variable M for the sample number Y of the decoding start picture (step S138).
  • the same processing as in FIG. 27 may be further executed on the IDR information sample box. In that case, a value closer to the sample number X can be adopted as the sample number Y of the decoding start picture.
  • FIG. 28 is a flowchart showing a second example of a flow of processing for specifying a decoding start picture, corresponding to step S130 of FIG.
  • the CRA information is sample group information for grouping CRA pictures as illustrated in FIGS.
  • control unit 37 first initializes the number variable j to zero and the number variable M and the counter n to 1 (step S141).
  • control unit 37 refers to the nth entry in the sbgp box described with reference to FIG. 16 (step S142).
  • the sbgp box referred to here is a box having a grouping type “crap” or “rap2”.
  • control unit 37 adds the sample counter (sample_count) of the nth entry in the sbgp box to the number variable j.
  • control unit 37 determines whether or not the number variable j is equal to or smaller than the sample number X corresponding to the designated time T (step S144). If the number variable j is not less than or equal to the sample number X, the process proceeds to step S150. On the other hand, if the number variable j is equal to or smaller than the sample number X, the process proceeds to step S145.
  • step S145 the control unit 37 determines whether the group description index (group_description_index) of the nth entry is larger than zero, that is, whether the sample corresponding to the number variable j is grouped in any sample group ( Step S145).
  • the control unit 37 further sets a corresponding sample type (sample_type) to a predetermined value (for example, a value of a NAL unit type indicating a CRA picture or an IDR picture). Whether to show or not is determined (step S146).
  • the control unit 37 substitutes the number variable j for the number variable M (step S147).
  • step S147 determines whether or not the nth entry is the last entry (step S148). If the nth entry is not the last entry, the control unit 37 increments the counter n (step S149), and the process returns to step S142. If the nth entry is the last entry, the process proceeds to step S150. In step S150, the control unit 37 substitutes the value of the number variable M for the sample number Y of the decoding start picture (step S148).
  • the sample number Y of the decoding start picture is specified by the processing illustrated in FIG.
  • the IDR picture at the head of the image sequence can be a decoding start picture.
  • the stco box (Chunk Offset Box) stores the number of bytes from the beginning of the file to the beginning of each chunk.
  • the stsz box (Sample Size Box) stores the number of bytes of each sample. Therefore, if the sample number Y of the decoding start picture is specified, the position of the decoding start picture in the file (number of bytes from the beginning of the file) can be calculated based on these pieces of information.
  • FIG. 29 and FIG. 30 show the flow of processing for skipping the output of the preceding picture that is not normally decoded in the transition from step S160 to step S190 in FIG. Three examples are shown respectively.
  • the CRA information includes the number of damaged samples (broken_samples) for each CRA picture.
  • the control unit 37 substitutes the number of damaged samples of the decoding start picture into the temporary variable P (step S161).
  • the control unit 37 substitutes the output timing of the decoding start picture for the time variable t (step S162).
  • the control unit 37 initializes the number variable R to 1 (step S163).
  • step S164 the control unit 37 substitutes the output timing of the R-th sample in the output buffer 35 for the time variable X (step S164).
  • step S165 the control unit 37 determines whether the temporary variable P is zero, that is, whether the number of damaged samples is zero (step S165). If the number of damaged samples is not zero, the process proceeds to step S166. On the other hand, if the number of damaged samples is zero, the process proceeds to step S167.
  • step S166 the control unit 37 determines whether the time variable X is smaller than t, that is, whether the R-th sample is a preceding sample of the decoding start picture (step S166).
  • the R-th sample decoded by the decoding unit 34 is output from the output buffer 35 (step S167). ).
  • the Rth sample is a preceding sample of the decoding start picture, the output of the Rth sample is skipped, and the process proceeds to step S168. Thereafter, the number variable R is incremented (step S168), and the process returns to step S164.
  • the output of the preceding sample of the decoding start picture is skipped uniformly.
  • the CRA information includes the number of broken samples (broken_samples) for each CRA picture.
  • the processing from step S161 to step S163 is the same as the first example shown in FIG.
  • step S165 the control unit 37 determines whether the temporary variable P is zero, that is, whether the number of damaged samples is zero (step S165). If the number of damaged samples is not zero, the process proceeds to step S171. On the other hand, if the number of damaged samples is zero, the process proceeds to step S175. In step S171, the control unit 37 determines whether the number variable R is equal to or smaller than the temporary variable P, that is, whether the R-th sample is a damaged sample that is not normally decoded (step S171). If the Rth sample is not a damaged sample, the process proceeds to step S172. On the other hand, if the Rth sample is a damaged sample, the process proceeds to step S176.
  • step S172 the control unit 37 determines whether the temporary variable P is a negative value, that is, whether the number of damaged samples is unknown (step S172). If the number of damaged samples is unknown, the process proceeds to step S173. On the other hand, if the number of damaged samples is not unknown, the process proceeds to step S175. In step S173, the control unit 37 substitutes the output timing of the R-th sample in the output buffer 35 for the time variable X (step S173). Next, the control unit 37 determines whether the time variable X is smaller than t, that is, whether the R-th sample is a preceding sample of the decoding start picture (step S174).
  • the decoding unit 34 performs decoding.
  • the R-th sample that has been output is output from the output buffer 35 (step S175).
  • the output of the R-th sample is skipped and processed Advances to step S176. Thereafter, the number variable R is incremented (step S176), and the process returns to step S164.
  • output of samples that are not normally decoded among the preceding samples of the decoding start picture is selectively skipped.
  • the CRA information includes a break time length (broken_duration) for each CRA picture.
  • the control unit 37 substitutes the damaged time length of the decoding start picture for the temporary variable P (step S181).
  • the control unit 37 assigns the output timing (presentation_time) of one decoding target picture to the time variable Z (step S182).
  • control unit 37 determines whether the temporary variable P is larger than the time variable Z, that is, whether the output timing of the decoding target picture has not passed the damaged time length (step S183). If the output timing of the decoding target picture has exceeded the damage time length, the decoding unit 34 decodes the decoding target picture and stores the decoded picture in the output buffer 35 (step S184). When the output timing of the picture to be decoded has not exceeded the damaged time length, decoding of the picture is skipped. Thereafter, the next picture in decoding order becomes the picture to be decoded, and the process returns to step S182.
  • FIG. 32 is a flowchart illustrating a second example of the flow of decoding processing executed by the image decoding device 30 illustrated in FIG. The second example relates to decoding an image sequence having a Fragmented Movie structure.
  • the control unit 37 continuously monitors a random access (RA) instruction (step S200).
  • RA random access
  • step S210 the processing from step S210 to step S260 is executed.
  • step S290 the decoding unit 34 decodes the images in the decoding order.
  • the control unit 37 acquires a designated time T indicating the timing designated in the RA instruction (step S210). Next, the control unit 37 searches for a randomly accessible picture immediately before the designated time T using the CRA information, and specifies a decoding start picture (step S230).
  • the decoding start picture specified here is a CRA picture or an IDR picture.
  • the decoding unit 34 performs random access to the decoding start picture specified by the control unit 37 (step S260). Then, the decoding unit 34 decodes the images in the decoding order from the decoding start picture (step S290).
  • FIG. 33 is a flowchart showing an example of a process flow for identifying a decoding start picture, corresponding to step S230 of FIG. In the example of FIG. 33, it is assumed that the CRA information is stored in the tfca box illustrated in FIGS. 10 to 12 or the tfr2 box illustrated in FIGS.
  • the control unit 37 first initializes the number variable M and the counter n to 1 (step S231). Next, the control unit 37 refers to the nth entry in the sample box for CRA information of a fragment including a CRA picture (step S232). Next, the control unit 37 determines whether or not the output timing (time) of the nth entry is equal to or less than the specified time T (step S234). If the output timing of the nth entry is not less than or equal to the specified time T, the process proceeds to step S238. On the other hand, if the output timing of the nth entry is less than or equal to the specified time T, the process proceeds to step S234.
  • step S234 the control unit 37 determines whether or not the sample type (sample_type) of the nth entry indicates a predetermined value (for example, a NAL unit type value indicating a CRA picture or IDR picture) (step S234). ). If the sample box for CRA information does not include a sample type, the determination here is omitted. If the sample type of the nth entry does not indicate a predetermined value, the process at step S235 is skipped, and the process proceeds to step S236. When the sample type of the nth entry indicates a predetermined value, the control unit 37 substitutes the sample number (sample_number) Xn into the number variable M (step S235).
  • a predetermined value for example, a NAL unit type value indicating a CRA picture or IDR picture
  • step S236 determines whether or not the nth entry is the last entry. If the nth entry is not the last entry, the control unit 37 increments the counter n (step S237), and the process returns to step S232. If the nth entry is the last entry, the process proceeds to step S238. In step S238, the control unit 37 substitutes the value of the number variable M for the sample number Y of the decoding start picture (step S238).
  • the same processing as in FIG. 33 may be further performed on the IDR information sample box. In that case, the sample number Y of the decoding start picture having the output timing closer to the designated time T can be adopted.
  • the Fragmented Movie is also the decoding start picture as in the case of the Non-Fragmented Movie illustrated in FIG. Sample number Y may be identified.
  • step S290 the process for skipping the output of the preceding picture that is not normally decoded upon the transition from step S260 to step S290 may be the same as the process illustrated in FIGS.
  • the image encoding device 10 and the image decoding device 30 include a transmitter or a receiver in satellite broadcasting, cable broadcasting such as cable TV, distribution on the Internet, and distribution to terminals by cellular communication,
  • the present invention can be applied to various electronic devices such as a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory, or a playback device that reproduces an image from these storage media.
  • a recording device that records an image on a medium such as an optical disk, a magnetic disk, and a flash memory
  • a playback device that reproduces an image from these storage media.
  • FIG. 34 shows an example of a schematic configuration of a television apparatus to which the above-described embodiment is applied.
  • the television apparatus 900 includes an antenna 901, a tuner 902, a demultiplexer 903, a decoder 904, a video signal processing unit 905, a display unit 906, an audio signal processing unit 907, a speaker 908, an external interface 909, a control unit 910, a user interface 911, And a bus 912.
  • Tuner 902 extracts a signal of a desired channel from a broadcast signal received via antenna 901, and demodulates the extracted signal. Then, the tuner 902 outputs the encoded bit stream obtained by the demodulation to the demultiplexer 903. In other words, the tuner 902 serves as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the demultiplexer 903 separates the video stream and audio stream of the viewing target program from the encoded bit stream, and outputs each separated stream to the decoder 904. In addition, the demultiplexer 903 extracts auxiliary data such as EPG (Electronic Program Guide) from the encoded bit stream, and supplies the extracted data to the control unit 910. Note that the demultiplexer 903 may perform descrambling when the encoded bit stream is scrambled.
  • EPG Electronic Program Guide
  • the decoder 904 decodes the video stream and audio stream input from the demultiplexer 903. Then, the decoder 904 outputs the video data generated by the decoding process to the video signal processing unit 905. In addition, the decoder 904 outputs audio data generated by the decoding process to the audio signal processing unit 907.
  • the video signal processing unit 905 reproduces the video data input from the decoder 904 and causes the display unit 906 to display the video.
  • the video signal processing unit 905 may cause the display unit 906 to display an application screen supplied via a network.
  • the video signal processing unit 905 may perform additional processing such as noise removal on the video data according to the setting.
  • the video signal processing unit 905 may generate a GUI (Graphical User Interface) image such as a menu, a button, or a cursor, and superimpose the generated image on the output image.
  • GUI Graphic User Interface
  • the display unit 906 is driven by a drive signal supplied from the video signal processing unit 905, and displays a video or an image on a video screen of a display device (for example, a liquid crystal display, a plasma display, or an OLED).
  • a display device for example, a liquid crystal display, a plasma display, or an OLED.
  • the audio signal processing unit 907 performs reproduction processing such as D / A conversion and amplification on the audio data input from the decoder 904, and outputs audio from the speaker 908.
  • the audio signal processing unit 907 may perform additional processing such as noise removal on the audio data.
  • the external interface 909 is an interface for connecting the television apparatus 900 to an external device or a network.
  • a video stream or an audio stream received via the external interface 909 may be decoded by the decoder 904. That is, the external interface 909 also has a role as a transmission unit in the television apparatus 900 that receives an encoded stream in which an image is encoded.
  • the control unit 910 has a processor such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the memory stores a program executed by the CPU, program data, EPG data, data acquired via a network, and the like.
  • the program stored in the memory is read and executed by the CPU when the television device 900 is activated, for example.
  • the CPU controls the operation of the television device 900 according to an operation signal input from the user interface 911, for example, by executing the program.
  • the user interface 911 is connected to the control unit 910.
  • the user interface 911 includes, for example, buttons and switches for the user to operate the television device 900, a remote control signal receiving unit, and the like.
  • the user interface 911 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 910.
  • the bus 912 connects the tuner 902, the demultiplexer 903, the decoder 904, the video signal processing unit 905, the audio signal processing unit 907, the external interface 909, and the control unit 910 to each other.
  • the decoder 904 has the function of the image decoding apparatus 30 according to the above-described embodiment. Therefore, in the television apparatus 900, random access to the CRA picture can be easily executed using the above-described CRA information.
  • FIG. 35 shows an example of a schematic configuration of a mobile phone to which the above-described embodiment is applied.
  • a cellular phone 920 includes an antenna 921, a communication unit 922, an audio codec 923, a speaker 924, a microphone 925, a camera unit 926, an image processing unit 927, a demultiplexing unit 928, a recording / reproducing unit 929, a display unit 930, a control unit 931, an operation A portion 932 and a bus 933.
  • the antenna 921 is connected to the communication unit 922.
  • the speaker 924 and the microphone 925 are connected to the audio codec 923.
  • the operation unit 932 is connected to the control unit 931.
  • the bus 933 connects the communication unit 922, the audio codec 923, the camera unit 926, the image processing unit 927, the demultiplexing unit 928, the recording / reproducing unit 929, the display unit 930, and the control unit 931 to each other.
  • the mobile phone 920 has various operation modes including a voice call mode, a data communication mode, a shooting mode, and a videophone mode, and is used for sending and receiving voice signals, sending and receiving e-mail or image data, taking images, and recording data. Perform the action.
  • the analog voice signal generated by the microphone 925 is supplied to the voice codec 923.
  • the audio codec 923 converts an analog audio signal into audio data, A / D converts the compressed audio data, and compresses it. Then, the audio codec 923 outputs the compressed audio data to the communication unit 922.
  • the communication unit 922 encodes and modulates the audio data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921. In addition, the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to generate audio data, and outputs the generated audio data to the audio codec 923.
  • the audio codec 923 expands the audio data and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the control unit 931 generates character data constituting the e-mail in response to an operation by the user via the operation unit 932.
  • the control unit 931 causes the display unit 930 to display characters.
  • the control unit 931 generates e-mail data in response to a transmission instruction from the user via the operation unit 932, and outputs the generated e-mail data to the communication unit 922.
  • the communication unit 922 encodes and modulates email data and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • the communication unit 922 demodulates and decodes the received signal to restore the email data, and outputs the restored email data to the control unit 931.
  • the control unit 931 displays the content of the electronic mail on the display unit 930 and stores the electronic mail data in the storage medium of the recording / reproducing unit 929.
  • the recording / reproducing unit 929 has an arbitrary readable / writable storage medium.
  • the storage medium may be a built-in storage medium such as a RAM or a flash memory, or an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card. May be.
  • the camera unit 926 images a subject to generate image data, and outputs the generated image data to the image processing unit 927.
  • the image processing unit 927 encodes the image data input from the camera unit 926 and stores the encoded stream in the storage medium of the recording / playback unit 929.
  • the demultiplexing unit 928 multiplexes the video stream encoded by the image processing unit 927 and the audio stream input from the audio codec 923, and the multiplexed stream is the communication unit 922. Output to.
  • the communication unit 922 encodes and modulates the stream and generates a transmission signal. Then, the communication unit 922 transmits the generated transmission signal to a base station (not shown) via the antenna 921.
  • the communication unit 922 amplifies a radio signal received via the antenna 921 and performs frequency conversion to acquire a received signal.
  • These transmission signal and reception signal may include an encoded bit stream.
  • the communication unit 922 demodulates and decodes the received signal to restore the stream, and outputs the restored stream to the demultiplexing unit 928.
  • the demultiplexing unit 928 separates the video stream and the audio stream from the input stream, and outputs the video stream to the image processing unit 927 and the audio stream to the audio codec 923.
  • the image processing unit 927 decodes the video stream and generates video data.
  • the video data is supplied to the display unit 930, and a series of images is displayed on the display unit 930.
  • the audio codec 923 decompresses the audio stream and performs D / A conversion to generate an analog audio signal. Then, the audio codec 923 supplies the generated audio signal to the speaker 924 to output audio.
  • the image processing unit 927 has the functions of the image encoding device 10 and the image decoding device 30 according to the above-described embodiment. Therefore, in the mobile phone 920 or an apparatus that decodes an image encoded by the mobile phone 920, random access to the CRA picture can be easily performed using the above-described CRA information.
  • FIG. 36 shows an example of a schematic configuration of a recording / reproducing apparatus to which the above-described embodiment is applied.
  • the recording / reproducing device 940 encodes audio data and video data of a received broadcast program and records the encoded data on a recording medium.
  • the recording / reproducing device 940 may encode audio data and video data acquired from another device and record them on a recording medium, for example.
  • the recording / reproducing device 940 reproduces data recorded on the recording medium on a monitor and a speaker, for example, in accordance with a user instruction. At this time, the recording / reproducing device 940 decodes the audio data and the video data.
  • the recording / reproducing apparatus 940 includes a tuner 941, an external interface 942, an encoder 943, an HDD (Hard Disk Drive) 944, a disk drive 945, a selector 946, a decoder 947, an OSD (On-Screen Display) 948, a control unit 949, and a user interface. 950.
  • Tuner 941 extracts a signal of a desired channel from a broadcast signal received via an antenna (not shown), and demodulates the extracted signal. Then, the tuner 941 outputs the encoded bit stream obtained by the demodulation to the selector 946. That is, the tuner 941 has a role as a transmission unit in the recording / reproducing apparatus 940.
  • the external interface 942 is an interface for connecting the recording / reproducing apparatus 940 to an external device or a network.
  • the external interface 942 may be, for example, an IEEE 1394 interface, a network interface, a USB interface, or a flash memory interface.
  • video data and audio data received via the external interface 942 are input to the encoder 943. That is, the external interface 942 serves as a transmission unit in the recording / reproducing device 940.
  • the encoder 943 encodes video data and audio data when the video data and audio data input from the external interface 942 are not encoded. Then, the encoder 943 outputs the encoded bit stream to the selector 946.
  • the HDD 944 records an encoded bit stream in which content data such as video and audio is compressed, various programs, and other data on an internal hard disk. Also, the HDD 944 reads out these data from the hard disk when playing back video and audio.
  • the disk drive 945 performs recording and reading of data to and from the mounted recording medium.
  • the recording medium loaded in the disk drive 945 may be, for example, a DVD disk (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, etc.) or a Blu-ray (registered trademark) disk. .
  • the selector 946 selects an encoded bit stream input from the tuner 941 or the encoder 943 when recording video and audio, and outputs the selected encoded bit stream to the HDD 944 or the disk drive 945. In addition, the selector 946 outputs the encoded bit stream input from the HDD 944 or the disk drive 945 to the decoder 947 during video and audio reproduction.
  • the decoder 947 decodes the encoded bit stream and generates video data and audio data. Then, the decoder 947 outputs the generated video data to the OSD 948. The decoder 904 outputs the generated audio data to an external speaker.
  • the OSD 948 reproduces the video data input from the decoder 947 and displays the video. Further, the OSD 948 may superimpose a GUI image such as a menu, a button, or a cursor on the video to be displayed.
  • a GUI image such as a menu, a button, or a cursor
  • the control unit 949 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the recording / reproducing apparatus 940 is activated, for example.
  • the CPU controls the operation of the recording / reproducing device 940 according to an operation signal input from the user interface 950, for example, by executing the program.
  • the user interface 950 is connected to the control unit 949.
  • the user interface 950 includes, for example, buttons and switches for the user to operate the recording / reproducing device 940, a remote control signal receiving unit, and the like.
  • the user interface 950 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 949.
  • the encoder 943 has the function of the image encoding apparatus 10 according to the above-described embodiment.
  • the decoder 947 has the function of the image decoding device 30 according to the above-described embodiment. Therefore, in the recording / reproducing apparatus 940 or an apparatus that decodes an image encoded by the recording / reproducing apparatus 940, random access to the CRA picture can be easily performed using the above-described CRA information.
  • FIG. 37 shows an example of a schematic configuration of an imaging apparatus to which the above-described embodiment is applied.
  • the imaging device 960 images a subject to generate an image, encodes the image data, and records it on a recording medium.
  • the imaging device 960 includes an optical block 961, an imaging unit 962, a signal processing unit 963, an image processing unit 964, a display unit 965, an external interface 966, a memory 967, a media drive 968, an OSD 969, a control unit 970, a user interface 971, and a bus. 972.
  • the optical block 961 is connected to the imaging unit 962.
  • the imaging unit 962 is connected to the signal processing unit 963.
  • the display unit 965 is connected to the image processing unit 964.
  • the user interface 971 is connected to the control unit 970.
  • the bus 972 connects the image processing unit 964, the external interface 966, the memory 967, the media drive 968, the OSD 969, and the control unit 970 to each other.
  • the optical block 961 includes a focus lens and a diaphragm mechanism.
  • the optical block 961 forms an optical image of the subject on the imaging surface of the imaging unit 962.
  • the imaging unit 962 includes an image sensor such as a CCD or a CMOS, and converts an optical image formed on the imaging surface into an image signal as an electrical signal by photoelectric conversion. Then, the imaging unit 962 outputs the image signal to the signal processing unit 963.
  • the signal processing unit 963 performs various camera signal processing such as knee correction, gamma correction, and color correction on the image signal input from the imaging unit 962.
  • the signal processing unit 963 outputs the image data after the camera signal processing to the image processing unit 964.
  • the image processing unit 964 encodes the image data input from the signal processing unit 963 and generates encoded data. Then, the image processing unit 964 outputs the generated encoded data to the external interface 966 or the media drive 968. The image processing unit 964 also decodes encoded data input from the external interface 966 or the media drive 968 to generate image data. Then, the image processing unit 964 outputs the generated image data to the display unit 965. In addition, the image processing unit 964 may display the image by outputting the image data input from the signal processing unit 963 to the display unit 965. Further, the image processing unit 964 may superimpose display data acquired from the OSD 969 on an image output to the display unit 965.
  • the OSD 969 generates a GUI image such as a menu, a button, or a cursor, for example, and outputs the generated image to the image processing unit 964.
  • the external interface 966 is configured as a USB input / output terminal, for example.
  • the external interface 966 connects the imaging device 960 and a printer, for example, when printing an image.
  • a drive is connected to the external interface 966 as necessary.
  • a removable medium such as a magnetic disk or an optical disk is attached to the drive, and a program read from the removable medium can be installed in the imaging device 960.
  • the external interface 966 may be configured as a network interface connected to a network such as a LAN or the Internet. That is, the external interface 966 has a role as a transmission unit in the imaging device 960.
  • the recording medium mounted on the media drive 968 may be any readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. Further, a recording medium may be fixedly attached to the media drive 968, and a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • a non-portable storage unit such as an internal hard disk drive or an SSD (Solid State Drive) may be configured.
  • the control unit 970 includes a processor such as a CPU and memories such as a RAM and a ROM.
  • the memory stores a program executed by the CPU, program data, and the like.
  • the program stored in the memory is read and executed by the CPU when the imaging device 960 is activated, for example.
  • the CPU controls the operation of the imaging device 960 according to an operation signal input from the user interface 971, for example, by executing the program.
  • the user interface 971 is connected to the control unit 970.
  • the user interface 971 includes, for example, buttons and switches for the user to operate the imaging device 960.
  • the user interface 971 detects an operation by the user via these components, generates an operation signal, and outputs the generated operation signal to the control unit 970.
  • the image processing unit 964 has the functions of the image encoding device 10 and the image decoding device 30 according to the above-described embodiment. Therefore, in an apparatus that decodes an image captured or encoded by the imaging apparatus 960, random access to a CRA picture can be easily performed using the above-described CRA information.
  • CRA information for identifying a CRA picture that can be used as a decoding start picture at the time of random access is inserted into the header area of the file format. Therefore, the decoder can easily realize random access to the CRA picture without checking the NAL unit type assigned to the image data in the data area over a series of image data.
  • CRA information can be formed by grouping CRA pictures using a sample group mechanism in the MP4 format. According to such a configuration, since the decoder does not need to handle a new sample box, the existing decoder can be expanded at a lower cost, and random access based on the CRA information can be realized.
  • an extended sample box for storing CRA information may be formed by extending a sample box in MP4 format.
  • various information such as the sample number of each CRA picture and the preceding picture information that is not normally decoded can be included in the extended sample box.
  • the extended sample box may be a dedicated box for CRA information. In that case, a decoder that does not support random access to the CRA picture need only ignore the dedicated box. Therefore, there is no demerit caused by introducing the extended sample box.
  • the extended sample box may be a shared box for IDR information and CRA information. In that case, the decoder can implement a comprehensive mechanism for random access to IDR pictures and CRA pictures by only referring to the shared box.
  • the CRA information may include preceding picture information that identifies a preceding picture that precedes each CRA picture in display order and is not normally decoded when random access to the CRA picture is performed. Since IDR pictures do not have such preceding pictures, the preceding picture information can only be generated for CRA pictures. According to such a configuration, when the random access is performed, the decoder displays a damaged image on the display based on the preceding picture information without determining afterwards whether or not the preceding picture has been normally decoded. Or being output to an external processor can be avoided.
  • An image decoding apparatus comprising: (2)
  • the file format is MP4 format,
  • the CRA information is sample group information for grouping the one or more CRA pictures.
  • the file format is MP4 format
  • the acquisition unit acquires the CRA information from an extended sample box extended to store the CRA information.
  • the image decoding device according to (1).
  • the extended sample box is a box further including IDR information for identifying an IDR (Instantaneous Decoding Refresh) picture.
  • the extended sample box is a box defined separately from a box including IDR information for identifying an IDR picture.
  • the CRA information includes preceding picture information for identifying a preceding picture that precedes each CRA picture in display order and is not normally decoded when random access to the CRA picture is performed;
  • the controller skips output of the preceding picture from the image decoding device based on the preceding picture information;
  • the image decoding device according to (6), wherein the preceding picture information indicates the number of the preceding pictures for each CRA picture.
  • the preceding picture information indicates a time length corresponding to the preceding picture for each CRA picture.
  • the control unit specifies the CRA picture located closest to the timing specified in the random access instruction as the decoding start picture using the CRA information, any one of (1) to (8)
  • the image decoding device according to item 1.
  • (10) Obtaining CRA information identifying one or more CRA (Clean Random Access) pictures in an image sequence inserted in the data area from the header area of a file format including a header area and a data area; Identifying any CRA picture in the image sequence as a decoding start picture using the CRA information when a random access instruction is detected; Decoding the image sequence from the identified decoding start picture; An image decoding method including: (11) An encoding unit that encodes an image in an image sequence to generate image data; A determination unit that determines one or more CRA (Clean Random Access) pictures in the image sequence that can be used as a decoding start picture in random access; A file generation unit that inserts CRA information for identifying the one or more CRA pictures determined by the determination unit into the header region of a file format including a header
  • the image encoding device according to (11).
  • the file format is MP4 format
  • the file generation unit stores the CRA information in an extended sample box extended to store the CRA information.
  • (14) The image encoding device according to (13), wherein the file generation unit further stores IDR information for identifying an IDR (Instantaneous Decoding Refresh) picture in the extension sample box.
  • the extended sample box is a box defined separately from a box in which IDR information for identifying an IDR picture is stored.
  • the determination unit further determines a preceding picture that precedes each CRA picture in display order and is not normally decoded when random access to the CRA picture is performed,
  • the file generation unit includes, in the CRA information, preceding picture information that identifies the preceding picture for each CRA picture determined by the determination unit;
  • the image encoding device according to any one of (12) to (15).
  • the image decoding device according to (16), wherein the preceding picture information indicates the number of the preceding pictures for each CRA picture.
  • the preceding picture information indicates a time length corresponding to the preceding picture for each CRA picture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】CRAピクチャへのランダムアクセスを効果的にサポートするファイルフォーマットを提供すること。 【解決手段】ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを識別するCRA情報を取得する取得部と、ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する制御部と、前記制御部により特定された前記復号開始ピクチャから、前記画像シーケンスを復号する復号部と、を備える画像復号装置を提供する。

Description

画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法
 本開示は、画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法に関する。
 画像符号化方式の標準仕様の1つであるH.264/AVCでは、各画像(ピクチャ)は、1つ以上のスライスに分割される。そして各スライスは、Iスライス(Intra Slice)、Pスライス(Predictive Slice)及びBスライス(Bi-predictive Slice)のいずれかに分類される。Iスライスは、他の画像を参照することなく独立して復号されるスライスである。Pスライスは、単一の他の画像を参照することにより復号されるスライスである。Bスライスは、複数の他の画像を参照することにより復号されるスライスである。Iスライスのみからなる、シーケンスの先頭のピクチャは、IDR(Instantaneous Decoding Refresh)ピクチャと呼ばれる。IDRピクチャは、NAL(Network Abstraction Layer)ユニットタイプの値によって識別される。IDRピクチャに後続する同一シーケンス内のピクチャは、復号順(decoding order)でIDRピクチャよりも前のピクチャを参照せず、表示順(presentation order)でIDRピクチャよりも後にのみ位置する。従って、ある符号化ストリームの映像の途中の時点にランダムアクセス(ストリームの先頭からの復号ではなく途中からの復号/再生)しようとする場合、指定される時点の近傍のIDRピクチャから、映像を適切に復号することができる。
 H.264/AVCに続く次世代の画像符号化方式であるHEVC(High Efficiency Video Coding)の標準化作業では、IDRピクチャとは別に、CRA(Clean Random Access)ピクチャをNALユニットタイプの値によって識別することが提案されている。CRAピクチャは、シーケンスの途中のIスライスのみからなるピクチャである。CRAピクチャに復号順及び表示順の双方で後続するピクチャは、復号順でCRAピクチャに先行するピクチャ及び表示順でCRAピクチャに先行するピクチャの双方を参照しない(下記非特許文献2参照)。従って、映像の途中の時点のCRAピクチャへのランダムアクセス(CRAピクチャからの映像の復号)を行う場合、CRAピクチャに表示順で後続するピクチャの復号処理を破綻なく行うことができる。
Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, "High efficiency video coding (HEVC) text specification draft 6",JCTVC-H1003 ver20, 2012年2月17日 Ye-Kui Wang, "Report of the BoG on clean random access (CRA) picture",JCTVC-F759, 2011年7月14-22日
 IDRピクチャはシーケンスの先頭に1つだけ存在するのに対して、CRAピクチャはシーケンスの途中に複数存在し得る。従って、CRAピクチャの導入は、映像内のランダムアクセス可能なポイントが増加することを意味する。これは、映像の再生又は編集の用途において、ユーザの利便性を大幅に向上させる潜在的な可能性を有する。しかし、HEVC方式で符号化された符号化ストリームを格納する既存のファイルフォーマットでは、CRAピクチャへのランダムアクセスを効果的にサポートする情報エレメントが定義されていない。MPEG-4 Part14(ISO/IEC14496-14:2003、以下、MP4という)フォーマットを例にとると、データ領域(mdatボックス)に格納されるチャンク内の各サンプルのNALユニットタイプを参照しなければ、どのピクチャがCRAピクチャであるかを識別することができない。これでは、CRAピクチャへのランダムアクセスのために過剰な処理コストを要してしまう。
 従って、CRAピクチャへのランダムアクセスを効果的にサポートするファイルフォーマットが提供されることが望ましい。
 本開示によれば、ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRAピクチャを識別するCRA情報を取得する取得部と、ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する制御部と、前記制御部により特定された前記復号開始ピクチャから、前記画像シーケンスを復号する復号部と、を備える画像復号装置が提供される。
 また、本開示によれば、ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRAピクチャを識別するCRA情報を取得することと、ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定することと、特定された前記復号開始ピクチャから、前記画像シーケンスを復号することと、を含む画像復号方法が提供される。
 また、本開示によれば、画像シーケンス内の画像を符号化して、画像データを生成する符号化部と、ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRAピクチャを判定する判定部と、ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に前記判定部により判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入し、前記データ領域に前記画像データを挿入するファイル生成部と、を備える画像符号化装置が提供される。
 また、本開示によれば、画像シーケンス内の画像を符号化して、画像データを生成することと、ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRAピクチャを判定することと、ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に、判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入することと、前記データ領域に前記画像データを挿入することと、を含む画像符号化方法が提供される。
 本開示に係る技術によれば、CRAピクチャへのランダムアクセスを既存の手法よりも簡易に実現することが可能となる。
一実施形態に係る画像符号化装置の構成の一例を示すブロック図である。 一実施形態において採用され得るファイルフォーマットの一例について説明するための説明図である。 一実施形態において採用され得るファイルフォーマットの他の例について説明するための説明図である。 Non-Fragmented Movieに関するCRA情報用の専用ボックスの第1の例について説明するための説明図である。 Non-Fragmented Movieに関するCRA情報用の専用ボックスの第2の例について説明するための説明図である。 Non-Fragmented Movieに関するCRA情報用の専用ボックスの第3の例について説明するための説明図である。 Non-Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第1の例について説明するための説明図である。 Non-Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第2の例について説明するための説明図である。 Non-Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第3の例について説明するための説明図である。 Fragmented Movieに関するCRA情報用の専用ボックスの第1の例について説明するための説明図である。 Fragmented Movieに関するCRA情報用の専用ボックスの第2の例について説明するための説明図である。 Fragmented Movieに関するCRA情報用の専用ボックスの第3の例について説明するための説明図である。 Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第1の例について説明するための説明図である。 Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第2の例について説明するための説明図である。 Fragmented Movieに関するランダムアクセス情報用の共用ボックスの第3の例について説明するための説明図である。 基本的なサンプルグループ情報用のボックスについて説明するための第1の説明図である。 基本的なサンプルグループ情報用のボックスについて説明するための第2の説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第1の例について説明するための説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第2の例について説明するための説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第3の例について説明するための説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第4の例について説明するための説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第5の例について説明するための説明図である。 CRAピクチャをグルーピングするサンプルグループの定義の第6の例について説明するための説明図である。 一実施形態に係る画像復号装置の構成の一例を示すブロック図である。 図24に例示した装置により実行される復号処理の流れの第1の例を示すフローチャートである。 指定時刻に対応するサンプル番号を取得するための処理の流れの一例を示すフローチャートである。 復号開始ピクチャを特定するための処理の流れの第1の例を示すフローチャートである。 復号開始ピクチャを特定するための処理の流れの第2の例を示すフローチャートである。 正常に復号されない先行ピクチャの出力をスキップするための処理の流れの第1の例を示すフローチャートである。 正常に復号されない先行ピクチャの出力をスキップするための処理の流れの第2の例を示すフローチャートである。 正常に復号されない先行ピクチャの出力をスキップするための処理の流れの第3の例を示すフローチャートである。 図24に例示した装置により実行される復号処理の流れの第2の例を示すフローチャートである。 復号開始ピクチャを特定するための処理の流れの第3の例を示すフローチャートである。 テレビジョン装置の概略的な構成の一例を示すブロック図である。 携帯電話機の概略的な構成の一例を示すブロック図である。 記録再生装置の概略的な構成の一例を示すブロック図である。 撮像装置の概略的な構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下の順序で説明を行う。
  1.一実施形態に係る画像符号化装置の構成例
  2.CRA情報の例
   2-1.CRA情報用の専用ボックス(Non-Fragmented Movie)
   2-2.ランダムアクセス情報用の共用ボックス(Non-Fragmented Movie)
   2-3.CRA情報用の専用ボックス(Fragmented Movie)
   2-4.ランダムアクセス情報用の共用ボックス(Fragmented Movie)
   2-5.サンプルグループの活用
  3.一実施形態に係る画像復号装置の構成例
  4.復号処理の流れ
   4-1.Non-Fragmented Movieのための復号処理
   4-2.Fragmented Movieのための復号処理
  5.応用例
  6.まとめ
 <1.一実施形態に係る画像符号化装置の構成例>
 本節では、CRAピクチャへのランダムアクセスをサポートする新たなファイルフォーマットの動画ファイルに、HEVC方式に従って符号化された画像データを記録する画像符号化装置について説明する。
 図1は、一実施形態に係る画像符号化装置10の構成の一例を示すブロック図である。図1を参照すると、画像符号化装置10は、符号化部11、判定部12、VCLバッファ13、非VCLバッファ14、ファイル生成部15及び制御部16を備える。
  (1)符号化部
 符号化部11は、HEVC方式に従って動作するエンコーダである。符号化部11は、画像符号化装置10に接続されるカメラ又はテレビジョンチューナなどの動画ソースから、符号化すべき画像シーケンスを取得する。そして、符号化部11は、取得した画像シーケンス内の各画像についてイントラ予測、フレーム間予測、直交変換、量子化及び可逆符号化などの様々な処理を実行することにより、符号化ビットストリームを生成する。画像の実体に相当するスライスデータは、VCL(Video Coding Layer) NALユニットとして生成される。一方、SPS(Sequence Parameter Set)、PPS(Picture Parameter Set)及びAPS(Adaptation Parameter Set)などのパラメータセットは、非VCL NALユニットとして生成され得る。符号化部11は、VCL NALユニット、即ちスライスデータのビットストリームを、VCLバッファ13を介してファイル生成部15へ出力する。また、符号化部11は、パラメータセットを、非VCLバッファ14を介してファイル生成部15へ出力する。
  (2)判定部
 判定部12は、符号化部11により符号化される画像シーケンス内の各画像のタイプを判定する。より具体的には、本実施形態において、判定部12は、各画像がIDRピクチャ、CRAピクチャ及びそれ以外のピクチャのいずれであるかを少なくとも判定する。IDRピクチャ及びCRAピクチャの双方とも、Iスライスのみからなるピクチャである。上述したように、IDRピクチャは、シーケンスの先頭のピクチャである。IDRピクチャに後続する同一シーケンス内のピクチャは、符号化順(復号順)でIDRピクチャよりも前のピクチャを参照せず、且つ表示順でIDRピクチャよりも後にのみ位置する。CRAピクチャは、シーケンスの途中に位置し、デコーダ側でのランダムアクセスの際に復号開始ピクチャとして使用可能なピクチャである。CRAピクチャに符号化順(復号順)及び表示順の双方で後続するピクチャは、符号化順(復号順)でCRAピクチャに先行するピクチャ及び表示順でCRAピクチャに先行するピクチャの双方を参照しない。判定部12は、判定の結果を、符号化部11及びファイル生成部15へ出力する。符号化部11は、判定部12により判定された各画像のタイプを示すNALユニットタイプを、各NALユニットのNALヘッダに付与する。
 ところで、CRAピクチャへのランダムアクセスが行われる場合、ランダムアクセス先のCRAピクチャ及び当該CRAピクチャに復号順で後続するピクチャのみが、復号の対象となる。但し、復号順でCRAピクチャに後続し、表示順でCRAピクチャに先行するピクチャも存在し得る。本明細書では、そのようなピクチャを先行ピクチャという。CRAピクチャの定義から理解されるように、復号順でCRAピクチャに先行するピクチャを先行ピクチャが参照することは、許容される。CRAピクチャへのランダムアクセスが行われると、復号順でCRAピクチャに先行するピクチャを参照する先行ピクチャは、正常に復号されない。なぜなら、当該先行ピクチャの参照ピクチャは復号されていないためである。即ち、ランダムアクセスが行われる場合に、復号の対象となる先行ピクチャが正常に復号可能か否かは、先行ピクチャの参照関係に依存する。そこで、判定部12は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャをさらに判定し、その判定結果をファイル生成部15へ提供してもよい。
  (3)VCLバッファ/非VCLバッファ
 VCLバッファ13は、VCL NALユニットをバッファリングする。CRAピクチャのスライスデータは、VCLバッファ13によりバッファリングされる。非VCLバッファ14は、非VCL NALユニットをバッファリングする。
  (4)ファイル生成部
 ファイル生成部15は、ヘッダ領域及びデータ領域を含むファイルフォーマットに従って、符号化された一連の画像データを格納する動画ファイル20を生成する。本明細書では、ファイルフォーマットとしてMP4フォーマットが利用される例を主に説明する。しかしながら、本開示に係る技術は、かかる例に限定されず、ヘッダ領域とデータ領域とを有するその他の種類の動画ファイルフォーマットに適用可能である。
 MP4フォーマットでは、データは、ボックスと呼ばれるオブジェクトに格納され、オブジェクト単位で記録される。1つのファイル内でボックスはツリー構造を形成し、親ボックスは子ボックスを含む。各ボックスの種類は、アルファベット4文字の識別子によって識別される。
 より具体的には、ファイル生成部15は、動画ファイル20のデータ領域(例えば、mdatボックス)に、VCL NALユニットに相当するスライスデータのビットストリームを、復号順で挿入する。また、ファイル生成部15は、動画ファイル20のヘッダ領域(例えば、moovボックス)に、非VCL NALユニットに相当する1つ以上のパラメータセットを挿入する。さらに、本実施形態において、ファイル生成部15は、動画ファイル20のヘッダ領域に、判定部12により判定された1つ以上のCRAピクチャを識別するCRA情報を挿入する。さらに、ファイル生成部15は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別するための先行ピクチャ情報をCRA情報に含めてもよい。
  (5)制御部
 制御部16は、画像符号化装置10において実行される符号化処理を制御する。例えば、制御部16は、符号化開始の指示が検出されると、指定された画像シーケンスを符号化部11に符号化させる。また、制御部16は、符号化部11により符号化された画像データを格納する動画ファイル20をファイル生成部15に生成させる。制御部16は、HRD(Hypothetical Reference Decoder;仮想参照デコーダ)と呼ばれる仮想的なデコーダのモデルを用いて、デコーダのバッファを破綻させないように、符号化ストリームの生成を制御してもよい。
 <2.CRA情報の例>
 図2は、本実施形態において採用され得るファイルフォーマットの一例について説明するための説明図である。図2を参照すると、動画ファイル20は、moovボックス21及びmdatボックス27を含む。なお、説明の簡明さのために、本開示に係る技術に直接的に関連しないボックスは、図示されていない。
 moovボックス21は、動画ファイル20のヘッダ領域に相当するボックスである。moovボックス21は、stblボックス22を含む。stblボックス(Sample Table Box)22は、ヘッダ情報用のボックスを含むコンテナボックスである。stblボックス22は、stsdボックス23及びstscボックス24に加えて、本実施形態において新たに導入されるstcsボックス25を含む。stsdボックス(Sample Description Box)23は、mdatボックス27に格納される実データに関連するパラメータを保持するボックスである。stsdボックス23は、hev1ボックス26を含む。hev1ボックス26は、HEVC方式に従って符号化された画像データを復号する際に使用されるパラメータセットを保持するボックスである。stscボックス(Sample To Chunk Box)24は、mdatボックス27内のチャンクと呼ばれる実データとstsdボックス23内のパラメータとの間のマッピングを保持するボックスである。stcsボックス25は、1つ以上のCRAピクチャを識別するCRA情報を保持するための、新たに定義されるボックスである。
 mdatボックス27は、動画ファイル20のデータ領域に相当するボックスである。mdatボックス27は、1つ以上のチャンク28を含む。チャンクとは、個々の動画トラック、音声トラック又はその他の種類のトラックに相当する実データである。HEVC方式で符号化された画像データのチャンクには、典型的には、VCL NALユニットにそれぞれ相当する複数のスライスデータが復号順で格納される。
 図2に例示した動画ファイル20は、いわゆるNon-Fragmented Movie構造を有する。即ち、moovボックス及びmdatボックスのペアが、動画ファイル20内に1つのみ存在する。これに対し、1つの動画が複数の部分に断片化され、断片化された部分ごとにmoovボックス及びmdatボックスのペアが生成される構造を、Fragmented Movie構造という。図3を参照すると、Non-Fragmented Movie構造とFragmented Movie構造との対比が示されている。Non-Fragmented Movie構造においては、moovボックス21内に、CRA情報用のstcsボックス25が挿入される。一方、Fragmented Movie構造においては、複数のmoovボックス21a~21n内に、それぞれ、CRA情報用のtfcaボックス25a~25nが挿入され得る。これら新たに定義されるボックスのシンタックスの様々な例について、本節で詳細に説明する。なお、図2及び図3に示したボックスの識別子(“stcs”及び“tfca”)は、一例に過ぎない。即ち、他の4文字のアルファベットが、CRA情報を保持するボックスの識別子として使用されてもよい。また、図3の例に関わらず、CRA情報を保持するボックスは、実際には、moovボックスの直接的な子ボックスではなく、stblボックス又はmfraボックス(Movie Fragment Random Access Box)などのコンテナボックスの子ボックスとして挿入されてよい。
  [2-1.CRA情報用の専用ボックス(Non-Fragmented Movie)]
 Non-Fragmented Movieのために導入されるCRA情報用のボックスは、例えば、CRA情報のための専用のボックスであってよい。図4~図6は、そのような専用ボックスとしてのstcsボックスの例をそれぞれ示している。stcsボックスは、FullBoxクラスを継承するCRASampleBoxクラスとして定義される。
   (1)第1の例
 図4に示した第1の例において、CRASampleBoxクラスは、エントリ数(entry_count)により示される数のサンプル番号(sample_number)を含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなstcsボックスを参照することにより、デコーダは、何番目のサンプルがCRAピクチャのサンプルであるかを簡易に知ることができる。
   (2)第2の例
 図5に示した第2の例において、CRASampleBoxクラスは、エントリ数(entry_count)により示される数の、サンプル番号(sample_number)と破損サンプル数(broken_samples)とのセットを含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。各破損サンプル数は、対応するサンプル番号により示されるCRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数(例えば、表示順での先頭からの数)を示す。なお、正常に復号されない先行ピクチャのサンプル数が未知であることが、負の値の破損サンプル数によって示されてもよい。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなstcsボックスを参照することにより、デコーダは、何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
   (3)第3の例
 図6に示した第3の例において、CRASampleBoxクラスは、エントリ数(entry_count)により示される数の、サンプル番号(sample_number)と破損時間長(broken_duration)とのセットを含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。各破損時間長は、対応するサンプル番号により示されるCRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長(例えば、mdhdブロック内で定義される時間単位での値)を示す。なお、正常に復号されない先行ピクチャの時間長が未知であることが、負の値の破損時間長によって示されてもよい。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなstcsボックスを参照することにより、デコーダは、何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
  [2-2.ランダムアクセス情報用の共用ボックス(Non-Fragmented Movie)]
 前項の3つの例では、CRA情報は、IDRピクチャを識別するIDR情報が格納されるボックス(例えば、stssボックス(Sync Sample Box))とは異なるstcsボックス内に格納される。これに対し、CRA情報は、IDR情報と共用のボックス内に格納されてもよい。図7~図9は、そのような共用ボックスとしてのstraボックスの例をそれぞれ示している。straボックスは、FullBoxクラスを継承するRandomAccessSampleBoxクラスとして定義される。
   (1)第1の例
 図7に示した第1の例において、RandomAccessSampleBoxクラスは、エントリ数(entry_count)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)とのセットを含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。サンプルタイプの値は、例えば、NALユニットタイプと同一の値であってよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなstraボックスを参照することにより、デコーダは、何番目のサンプルがIDRピクチャのサンプルであって、何番目のサンプルがCRAピクチャのサンプルであるかを、簡易に知ることができる。
   (2)第2の例
 図8に示した第2の例において、RandomAccessSampleBoxクラスは、エントリ数(entry_count)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)と破損サンプル数(broken_samples)とのセットを含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。各破損サンプル数は、対応するサンプル番号により示されるピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数を示す。なお、IDRピクチャについての破損サンプル数は、省略されてもよく、又はゼロを示してもよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなstraボックスを参照することにより、デコーダは、何番目のサンプルがIDRピクチャのサンプルであって、何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
   (3)第3の例
 図9に示した第3の例において、RandomAccessSampleBoxクラスは、エントリ数(entry_count)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)と破損時間長(broken_duration)とのセットを含む。各サンプル番号は、mdatボックス27内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。各破損時間長は、対応するサンプル番号により示されるピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長を示す。なお、IDRピクチャについての破損時間長は、省略されてもよく、又はゼロを示してもよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなstraボックスを参照することにより、デコーダは、何番目のサンプルがIDRピクチャのサンプルであって、何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
  [2-3.CRA情報用の専用ボックス(Fragmented Movie)]
 Fragmented Movieのために導入されるCRA情報用のボックスは、例えば、CRA情報のための専用のボックスであってよい。図10~図12は、そのような専用ボックスとしてのtfcaボックスの例をそれぞれ示している。tfcaボックスは、FullBoxクラスを継承するTrackFragmentCRAAccessBoxクラスとして定義される。
   (1)第1の例
 図10に示した第1の例において、TrackFragmentCRAAccessBoxクラスは、エントリ数(number_of_entry)により示される数のサンプル番号(sample_number)を含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなtfcaボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがCRAピクチャのサンプルであるかを簡易に知ることができる。
   (2)第2の例
 図11に示した第2の例において、TrackFragmentCRAAccessBoxクラスは、エントリ数(number_of_entry)により示される数の、サンプル番号(sample_number)と破損サンプル数(preceding_samples)とのセットを含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。各破損サンプル数は、対応するサンプル番号により示されるCRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数(例えば、表示順での先頭からの数)を示す。なお、正常に復号されない先行ピクチャのサンプル数が未知であることが、負の値の破損サンプル数によって示されてもよい。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなtfcaボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
   (3)第3の例
 図12に示した第3の例において、TrackFragmentCRAAccessBoxクラスは、エントリ数(number_of_entry)により示される数の、サンプル番号(sample_number)と破損時間長(preceding_duration)とのセットを含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、CRAピクチャに相当するサンプルの番号の各々を示す。各破損時間長は、対応するサンプル番号により示されるCRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長(例えば、mdhdブロック内で定義される時間単位での値)を示す。なお、正常に復号されない先行ピクチャの時間長が未知であることが、負の値の破損時間長によって示されてもよい。エントリ数は、CRAピクチャに相当するサンプルの数に等しい。このようなtfcaボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
  [2-4.ランダムアクセス情報用の共用ボックス(Fragmented Movie)]
 前項の3つの例では、CRA情報は、IDRピクチャを識別するIDR情報が格納されるボックスとは異なるtfcaボックス内に格納される。これに対し、CRA情報は、IDR情報と共用のボックス内に格納されてもよい。図13~図15は、そのような共用ボックスとしてのtfr2ボックスの例をそれぞれ示している。tfr2ボックスは、FullBoxクラスを継承するExtTrackFragmentRandomAccessBoxクラスとして定義される。
   (1)第1の例
 図13に示した第1の例において、ExtTrackFragmentRandomAccessBoxクラスは、エントリ数(number_of_entry)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)とのセットを含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。サンプルタイプの値は、例えば、NALユニットタイプと同一の値であってよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなtfr2ボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがIDRピクチャのサンプルであって何番目のサンプルがCRAピクチャのサンプルであるかを、簡易に知ることができる。
   (2)第2の例
 図14に示した第2の例において、ExtTrackFragmentRandomAccessBoxクラスは、エントリ数(number_of_entry)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)と破損サンプル数(preceding_samples)とのセットを含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。各破損サンプル数は、対応するサンプル番号により示されるピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数を示す。なお、IDRピクチャについての破損サンプル数は、省略されてもよく、又はゼロを示してもよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなtfr2ボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがIDRピクチャのサンプルであって何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
   (3)第3の例
 図15に示した第3の例において、ExtTrackFragmentRandomAccessBoxクラスは、エントリ数(number_of_entry)により示される数の、サンプルタイプ(sample_type)とサンプル番号(sample_number)と破損時間長(preceding_duration)とのセットを含む。各サンプル番号は、対応するフラグメントのmdatボックス内のチャンクに含まれる一連のサンプルのうち、IDRピクチャ又はCRAピクチャに相当するサンプルの番号の各々を示す。各サンプルタイプは、対応するサンプル番号により示されるピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。各破損時間長は、対応するサンプル番号により示されるピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長を示す。なお、IDRピクチャについての破損時間長は、省略されてもよく、又はゼロを示してもよい。エントリ数は、IDRピクチャ又はCRAピクチャに相当するサンプルの数に等しい。このようなtfr2ボックスを参照することにより、デコーダは、各フラグメントの何番目のサンプルがIDRピクチャのサンプルであって何番目のサンプルがCRAピクチャのサンプルであるか、及び、各CRAピクチャへのランダムアクセスが行われる場合にどの先行ピクチャを正常に復号することができないかを、簡易に知ることができる。
  [2-5.サンプルグループの活用]
 CRA情報は、図4~図15の例のように新たに定義される拡張サンプルボックス内に格納される代わりに、1つ以上のサンプルをグルーピングするための既存のサンプルグループ情報の仕組みを活用することにより定義されてもよい。
   (1)サンプルグループ情報用のボックス
 図16及び図17は、基本的なサンプルグループ情報用のボックスについて説明するための説明図である。
 図16を参照すると、sbgpボックス(Sample To Group Box)を定義するSampleToGroupBoxクラスのシンタックスが示されている。SampleToGroupBoxクラスは、エントリ数(entry_count)により示される数の、サンプルカウンタ(sample_count)とグループ記述インデックス(group_description_index)とのセットを含む。各セットは、各サンプルと当該サンプルが属するサンプルグループとを関連付ける。
 図17を参照すると、sgpdボックス(Sample Group Description Box)を定義するSampleGroupDescriptionBoxクラスのシンタックスが示されている。SampleGroupDescriptionBoxクラスのインスタンスは、共通するグルーピングタイプ(grouping_type)を有するSampleToGroupBoxクラスのインスタンスと関連付られる。SampleGroupDescriptionBoxクラスは、ハンドラタイプ(handler_type)が“vide(動画トラック)”を示す場合には、VisualSampleGroupEntryクラスにより定義されるサンプルグループ情報のエントリを含む。エントリ数(entry_count)は、サンプルグループ情報のエントリ数を示す。
 このような既存のサンプルグループ情報の仕組みを活用してCRA情報を定義するための、CRA情報用のサンプルグループ情報の6つの例を図18~図23に示す。なお、第1~第3の例は、CRA情報のための専用のサンプルグループ情報の例である。第4~第6の例は、IDR情報及びCRA情報のための共用のサンプルグループ情報の例である。
   (2)第1の例
 図18を参照すると、VisualSampleGroupEntryクラスを継承するCRAEntryクラスのシンタックスが示されている。グルーピングタイプは、“crap”である。CRAEntryクラスは、予約フィールドのみを含む。図16を用いて説明したsbgpボックスにおいてCRAEntryクラスのサンプルグループと関連付けられるサンプルは、CRAピクチャのサンプルである。
   (3)第2の例
 図19を参照すると、VisualSampleGroupEntryクラスを継承するCRAPointEntryクラスのシンタックスが示されている。グルーピングタイプは、“crap”である。CRAPointEntryクラスは、グループ属性として破損サンプル数(broken_samples)を含む。図16を用いて説明したsbgpボックスにおいてCRAPointEntryクラスのサンプルグループと関連付けられるサンプルは、CRAピクチャのサンプルである。破損サンプル数は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数(例えば、表示順での先頭からの数)を示す。
   (4)第3の例
 図20を参照すると、VisualSampleGroupEntryクラスを継承するCRAPointEntryクラスの別のシンタックスが示されている。グルーピングタイプは、“crap”である。CRAPointEntryクラスは、グループ属性として破損時間長(broken_duration)を含む。破損時間長は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長を示す。
   (5)第4の例
 図21を参照すると、VisualSampleGroupEntryクラスを継承するExtRAPEntryクラスのシンタックスが示されている。グルーピングタイプは、“rap2”である。ExtRAPEntryクラスは、グループ属性としてサンプルタイプ(sample_type)を含む。図16を用いて説明したsbgpボックスにおいてExtRAPEntryクラスのサンプルグループと関連付けられるサンプルは、IDRピクチャ又はCRAピクチャのサンプルである。サンプルタイプは、各ピクチャがIDRピクチャ及びCRAピクチャのいずれであるかを示す。サンプルタイプの値は、例えば、NALユニットタイプと同一の値であってよい。
   (6)第5の例
 図22を参照すると、VisualSampleGroupEntryクラスを継承するExtRAPEntryクラスの他のシンタックスが示されている。グルーピングタイプは、“rap2”である。ExtRAPEntryクラスは、グループ属性として、サンプルタイプ(sample_type)及び破損サンプル数(broken_samples)を含む。破損サンプル数は、各ピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャのサンプル数を示す。なお、IDRピクチャについての破損サンプル数は、省略されてもよく、又はゼロを示してもよい。
   (7)第6の例
 図23を参照すると、VisualSampleGroupEntryクラスを継承するExtRAPEntryクラスのまた別のシンタックスが示されている。グルーピングタイプは、“rap2”である。ExtRAPEntryクラスは、グループ属性として、サンプルタイプ(sample_type)及び破損時間長(broken_duration)を含む。破損時間長は、各ピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャの合計時間長を示す。なお、IDRピクチャについての破損時間長は、省略されてもよく、又はゼロを示してもよい。
 このように、既存のサンプルグループ情報の仕組みを活用することにより、新たなサンプルボックスを導入することなく、CRA情報を定義することができる。この場合、デコーダが新たなサンプルボックスを扱わなくて済むため、既存のデコーダをより少ないコストで拡張して、CRAピクチャへのランダムアクセスの効果的なサポートを提供することができる。
 <3.一実施形態に係る画像復号装置の構成例>
 本節では、前節で説明したような新たなファイルフォーマットの動画ファイルから、符号化された画像データをHEVC方式に従って復号する画像復号装置について説明する。図24は、一実施形態に係る画像復号装置30の構成の一例を示すブロック図である。図24を参照すると、画像復号装置30は、VCLバッファ31、非VCLバッファ32、パラメータメモリ33、復号部34、出力バッファ35、CRA情報取得部36及び制御部37を備える。
  (1)VCLバッファ/非VCLバッファ
 VCLバッファ31は、動画ファイル20のデータ領域(例えば、mdatボックス)から読み込まれる画像データ(典型的には、スライスデータ)のビットストリームをバッファリングする。非VCLバッファ32は、動画ファイル20のヘッダ領域(例えば、moovボックス)から読み込まれるSPS、PPS及びAPSなどのパラメータセット、並びにCRA情報などのヘッダ情報をバッファリングする。
  (2)パラメータメモリ
 パラメータメモリ33は、非VCLバッファ32を介して取得されるファイルのヘッダ領域内の情報を一括的に記憶する。上述した様々な形式で動画ファイル20のヘッダ領域に記録され得るCRA情報は、動画ファイル20が開かれている間、パラメータメモリ33により保持される。
  (3)復号部
 復号部34は、HEVC方式に従って動作するデコーダである。復号部34は、VCLバッファ31を介して動画ファイル20のデータ領域から取得されるビットストリームから、画像シーケンスを復号する。復号部34は、画像を復号する際に、パラメータメモリ33により記憶されるパラメータセット内のパラメータを使用する。復号部34は、復号した画像シーケンス内の画像を表示順に並び替え、並び替え後の画像を出力バッファ35へ出力する。
 復号部34は、通常は、動画ファイル20内の動画トラックに復号順で格納されているスライスデータに、その先頭から順にアクセスする。しかし、復号部34は、制御部37によりランダムアクセスの指示が検出されると、制御部37により特定される(動画トラックの途中の)復号開始ピクチャへランダムアクセスし、当該復号開始ピクチャから画像シーケンスを復号する。復号開始ピクチャは、動画トラック内のIDRピクチャ及びCRAピクチャのうちの1つである。
  (4)出力バッファ
 出力バッファ35は、復号部34により復号された画像をバッファリングするための復号ピクチャバッファ(DPB;Decoded Picture Buffer)である。出力バッファ35によりバッファリングされた画像は、当該画像の出力タイミングにおいて、図示しないディスプレイ又はプロセッサへ出力される。
  (5)CRA情報取得部
 CRA情報取得部36は、動画ファイル20のヘッダ領域から非VCLバッファ32を介してパラメータメモリ33に読み込まれるCRA情報を取得する。CRA情報は、復号される画像シーケンス内の1つ以上のCRAピクチャを少なくとも識別する情報である。CRA情報は、CRA情報の専用のサンプルボックス又は共用のサンプルボックスに格納される情報であってもよい。その代わりに、CRA情報は、1つ以上のCRAピクチャをグルーピングするサンプルグループ情報であってもよい。CRA情報は、各CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別するための先行ピクチャ情報を含んでもよい。CRA情報取得部36は、取得したCRA情報を制御部37へ出力する。
  (6)制御部
 制御部37は、画像復号装置30において実行される復号処理を制御する。例えば、制御部37は、ユーザからの指示に応じて動画ファイル20を開き、復号部34に画像シーケンスの復号を開始させる。また、制御部37は、ランダムアクセスの指示が検出された場合に、CRA情報取得部36により取得されるCRA情報を用いて、画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する。そして、制御部37は、特定した復号開始ピクチャから(即ち、動画トラックの途中から)復号部34に画像シーケンスを復号させる。
 制御部37は、典型的には、ランダムアクセスの指示において指定されるタイミング(例えば、動画再生ウィンドウのシークバーの操作されたポインタが指し示すタイミング)の最も近傍に位置するCRAピクチャを、復号開始ピクチャとして特定する。復号開始ピクチャを特定するための処理の流れのいくつかの例について、後に詳細に説明する。
 制御部37は、CRA情報が上述した先行ピクチャ情報を含む場合に、先行ピクチャ情報を用いて識別される正常に復号されない先行ピクチャの出力バッファ35からの出力(及び復号部34による復号)をスキップさせてもよい。先行ピクチャ情報を用いることにより、破損した画像がディスプレイに表示され又は外部のプロセッサへ出力されることを回避することができる。その際、制御部37は、各画像が正常に復号されたか否かを事後的に判定しなくてよい。
 <4.復号処理の流れ>
  [4-1.Non-Fragmented Movieのための復号処理]
   (1)全体的な流れ
 図25は、図24に例示した画像復号装置30により実行される復号処理の流れの第1の例を示すフローチャートである。第1の例は、Non-Fragmented Movie構造を有する画像シーケンスの復号に関連する。
 図25に例示した復号処理において、制御部37は、ランダムアクセス(RA)指示を継続的に監視する(ステップS100)。RA指示が検出されると、ステップS110~ステップS160の処理が実行される。RA指示が検出されない場合、復号部34により、復号順で画像が復号される(ステップS190)。
 RA指示が検出されると、制御部37は、RA指示において指定されたタイミングを示す指定時刻Tを取得する(ステップS110)。次に、制御部37は、指定時刻Tに対応するサンプル(指定時刻Tにおいて表示されるべきサンプル)のサンプル番号Xを取得する(ステップ120)。次に、制御部37は、サンプル番号Xの直前のランダムアクセス可能なピクチャをCRA情報を用いて探索し、復号開始ピクチャを特定する(ステップS130)。ここで特定される復号開始ピクチャは、CRAピクチャ又はIDRピクチャである。次に、復号部34は、制御部37により特定された復号開始ピクチャへのランダムアクセスを実行する(ステップS160)。そして、復号部34は、復号開始ピクチャから復号順で画像を復号する(ステップS190)。
 上述した処理は、復号の終了が指示され又は最後の画像が復号されるまで繰り返される(ステップS195)。
   (2)指定時刻に対応するサンプル番号の取得
 図26は、図25のステップS120に相当する、指定時刻Tに対応するサンプル番号Xを取得するための処理の流れの一例を示すフローチャートである。
 図26を参照すると、制御部37は、まず、時間変数S及びカウンタnをゼロに初期化する(ステップS121)。次に、制御部37は、カウンタnをインクリメント(即ち、カウンタnに1を加算)する(ステップS122)。次に、制御部37は、動画トラックのn番目のサンプルの時間長を時間変数Sに加算する(ステップS123)。なお、n番目のサンプルの時間長は、例えば、sttsボックス(Time To Sample Box)内のパラメータ(sample_delta)により示され得る。次に、制御部37は、時間変数Sが指定時刻Tを上回った(S>T)か否かを判定する(ステップS124)。ここで、時間変数Sが指定時刻Tを未だ上回らない場合には、処理はステップS122へ戻る。一方、時間変数Sが指定時刻Tを上回った場合には、制御部37は、カウンタnの値をサンプル番号Xに代入する(ステップS125)。
 このような処理により、指定時刻Tに対応するサンプル番号Xが取得される。
   (3)復号開始ピクチャの特定
 図27は、図25のステップS130に相当する、復号開始ピクチャを特定するための処理の流れの第1の例を示すフローチャートである。第1の例において、CRA情報は、図4~図6に例示したstcsボックス又は図7~図9に例示したstraボックスに格納されているものとする。
 図27を参照すると、制御部37は、まず、番号変数M及びカウンタnを1に初期化する(ステップS131)。次に、制御部37は、CRA情報用のサンプルボックス内のn番目のエントリを参照する(ステップS132)。次に、制御部37は、n番目のエントリのサンプルタイプ(sample_type)が所定の値(例えば、CRAピクチャ又はIDRピクチャを示すNALユニットタイプの値など)を示すか否かを判定する(ステップS133)。なお、CRA情報用のサンプルボックスがサンプルタイプを含まない場合には、ここでの判定は省略される。n番目のエントリのサンプルタイプが所定の値を示さない場合には、その後のステップS134の処理はスキップされ、処理はステップS136へ進む。n番目のエントリのサンプルタイプが所定の値を示す場合には、制御部37は、n番目のエントリのサンプル番号(sample_number)Xnが指定時刻Tに対応するサンプル番号X以下であるか否かを判定する(ステップS134)。ここで、サンプル番号Xnがサンプル番号X以下でなければ、処理はステップS138へ進む。一方、サンプル番号Xnがサンプル番号X以下であれば、制御部37は、サンプル番号Xnを番号変数Mに代入する(ステップS135)。次に、制御部37は、n番目のエントリが最後のエントリであるか否かを判定する(ステップS136)。n番目のエントリが最後のエントリでない場合には、制御部37によりカウンタnがインクリメントされ(ステップS137)、処理はステップS132へ戻る。n番目のエントリが最後のエントリである場合には、処理はステップS138へ進む。ステップS138において、制御部37は、番号変数Mの値を、復号開始ピクチャのサンプル番号Yに代入する(ステップS138)。なお、CRA情報用のサンプルボックスがIDR情報用のサンプルボックスとは別に定義される場合には、図27と同様の処理が、IDR情報用のサンプルボックスについてさらに実行されてよい。その場合、よりサンプル番号Xに近い値が復号開始ピクチャのサンプル番号Yとして採用され得る。
 図28は、図25のステップS130に相当する、復号開始ピクチャを特定するための処理の流れの第2の例を示すフローチャートである。第2の例において、CRA情報は、図18~図23に例示したような、CRAピクチャをグルーピングするサンプルグループ情報であるものとする。
 図28を参照すると、制御部37は、まず、番号変数jをゼロに、番号変数M及びカウンタnを1に初期化する(ステップS141)。次に、制御部37は、図16を用いて説明したsbgpボックス内のn番目のエントリを参照する(ステップS142)。ここで参照されるsbgpボックスは、グルーピングタイプ“crap”又は“rap2”を有するボックスである。
 次に、制御部37は、sbgpボックス内のn番目のエントリのサンプルカウンタ(sample_count)を番号変数jに加算する。次に、制御部37は、番号変数jが指定時刻Tに対応するサンプル番号X以下であるか否かを判定する(ステップS144)。ここで、番号変数jがサンプル番号X以下でなければ、処理はステップS150へ進む。一方、番号変数jがサンプル番号X以下であれば、処理はステップS145へ進む。ステップS145において、制御部37は、n番目のエントリのグループ記述インデックス(group_description_index)がゼロよりも大きいか、即ち番号変数jに対応するサンプルがいずれかのサンプルグループにグルーピングされているかを判定する(ステップS145)。ここで、グループ記述インデックスがゼロよりも大きい場合には、制御部37は、さらに、対応するサンプルタイプ(sample_type)が所定の値(例えば、CRAピクチャ又はIDRピクチャを示すNALユニットタイプの値など)を示すか否かを判定する(ステップS146)。ここで、対応するサンプルタイプが所定の値を示す場合には、制御部37は、番号変数jを番号変数Mに代入する(ステップS147)。一方、対応するサンプルタイプが所定の値を示さない場合、又はグループ記述インデックスがゼロよりも大きくない場合には、ステップS147の処理はスキップされ、処理はステップS148へ進む。なお、サンプルグループ情報がグループ属性としてのサンプルタイプを含まない場合には、ステップS146の判定は省略される。次に、制御部37は、n番目のエントリが最後のエントリであるか否かを判定する(ステップS148)。n番目のエントリが最後のエントリでない場合には、制御部37によりカウンタnがインクリメントされ(ステップS149)、処理はステップS142へ戻る。n番目のエントリが最後のエントリである場合には、処理はステップS150へ進む。ステップS150において、制御部37は、番号変数Mの値を、復号開始ピクチャのサンプル番号Yに代入する(ステップS148)。
 図27又は図28に例示したような処理により、復号開始ピクチャのサンプル番号Yが特定される。画像シーケンス内にCRAピクチャが含まれない場合には、画像シーケンスの先頭のIDRピクチャが復号開始ピクチャとなり得る。なお、stcoボックス(Chunk Offset Box)には、ファイルの先頭から各チャンクの先頭までのバイト数が格納される。stszボックス(Sample Size Box)には、各サンプルのバイト数が格納される。従って、復号開始ピクチャのサンプル番号Yが特定されれば、これら情報に基づいて、復号開始ピクチャのファイル内の位置(ファイルの先頭からのバイト数)を算出することができる。
   (4)正常に復号されない先行ピクチャの出力のスキップ
 図29及び図30は、図25のステップS160からステップS190への移行に際して、正常に復号されない先行ピクチャの出力をスキップするための処理の流れの3つの例をそれぞれ示している。
 図29の第1の例において、CRA情報は、各CRAピクチャについての破損サンプル数(broken_samples)を含むものとする。まず、制御部37は、復号開始ピクチャの破損サンプル数をテンポラリ変数Pに代入する(ステップS161)。次に、制御部37は、復号開始ピクチャの出力タイミングを時刻変数tに代入する(ステップS162)。次に、制御部37は、番号変数Rを1に初期化する(ステップS163)。
 次に、制御部37は、出力バッファ35内のR番目のサンプルの出力タイミングを時刻変数Xに代入する(ステップS164)。次に、制御部37は、テンポラリ変数Pがゼロであるか、即ち破損サンプル数がゼロであるかを判定する(ステップS165)。破損サンプル数がゼロでない場合には、処理はステップS166へ進む。一方、破損サンプル数がゼロである場合には、処理はステップS167へ進む。ステップS166において、制御部37は、時刻変数Xがtよりも小さいか、即ちR番目のサンプルが復号開始ピクチャの先行サンプルであるかを判定する(ステップS166)。R番目のサンプルが復号開始ピクチャの先行サンプルではない場合、又は破損サンプル数がゼロである場合には、復号部34により復号されたR番目のサンプルが、出力バッファ35から出力される(ステップS167)。一方、R番目のサンプルが復号開始ピクチャの先行サンプルである場合には、R番目のサンプルの出力はスキップされ、処理はステップS168へ進む。その後、番号変数Rがインクリメントされ(ステップS168)、処理はステップS164へ戻る。
 第1の例においては、復号開始ピクチャの先行サンプルの出力が一律的にスキップされる。
 図30の第2の例においても、CRA情報は、各CRAピクチャについての破損サンプル数(broken_samples)を含むものとする。まず、ステップS161からステップS163までの処理は、図29に示した第1の例と同様である。
 第2の例において、番号変数Rが1に初期化された後、制御部37は、テンポラリ変数Pがゼロであるか、即ち破損サンプル数がゼロであるかを判定する(ステップS165)。破損サンプル数がゼロでない場合には、処理はステップS171へ進む。一方、破損サンプル数がゼロである場合には、処理はステップS175へ進む。ステップS171において、制御部37は、番号変数Rがテンポラリ変数P以下であるか、即ちR番目のサンプルが正常に復号されない破損サンプルであるかを判定する(ステップS171)。R番目のサンプルが破損サンプルでない場合には、処理はステップS172へ進む。一方、R番目のサンプルが破損サンプルである場合には、処理はステップS176へ進む。ステップS172において、制御部37は、テンポラリ変数Pが負の値であるか、即ち破損サンプル数が未知であるかを判定する(ステップS172)。破損サンプル数が未知である場合には、処理はステップS173へ進む。一方、破損サンプル数が未知でない場合には、処理はステップS175へ進む。ステップS173において、制御部37は、出力バッファ35内のR番目のサンプルの出力タイミングを時刻変数Xに代入する(ステップS173)。次に、制御部37は、時刻変数Xがtよりも小さいか、即ちR番目のサンプルが復号開始ピクチャの先行サンプルであるかを判定する(ステップS174)。R番目のサンプルが復号開始ピクチャの先行サンプルではない場合、破損サンプル数がゼロである場合、又は破棄サンプル数が未知でなく且つR番目のサンプルが破損サンプルでない場合には、復号部34により復号されたR番目のサンプルが、出力バッファ35から出力される(ステップS175)。一方、R番目のサンプルが破損サンプルである場合、又は破棄サンプル数が未知であり且つR番目のサンプルが復号開始ピクチャの先行サンプルである場合には、R番目のサンプルの出力はスキップされ、処理はステップS176へ進む。その後、番号変数Rがインクリメントされ(ステップS176)、処理はステップS164へ戻る。
 第2の例においては、復号開始ピクチャの先行サンプルのうち正常に復号されないサンプルの出力が、選択的にスキップされる。
 図31の第3の例において、CRA情報は、各CRAピクチャについての破損時間長(broken_duration)を含むものとする。まず、制御部37は、復号開始ピクチャの破損時間長をテンポラリ変数Pに代入する(ステップS181)。次に、制御部37は、1つの復号対象のピクチャの出力タイミング(presentation_time)を時刻変数Zに代入する(ステップS182)。
 次に、制御部37は、テンポラリ変数Pが時刻変数Zよりも大きいか、即ち復号対象のピクチャの出力タイミングが破損時間長を経過していないかを判定する(ステップS183)。復号対象のピクチャの出力タイミングが破損時間長を経過している場合には、復号部34は、復号対象のピクチャを復号し、復号されたピクチャを出力バッファ35に格納する(ステップS184)。復号対象のピクチャの出力タイミングが破損時間長を経過していない場合には、当該ピクチャの復号はスキップされる。その後、復号順で次のピクチャが復号対象のピクチャとなり、処理はステップS182へ戻る。
  [4-2.Fragmented Movieのための復号処理]
   (1)全体的な流れ
 図32は、図24に例示した画像復号装置30により実行される復号処理の流れの第2の例を示すフローチャートである。第2の例は、Fragmented Movie構造を有する画像シーケンスの復号に関連する。
 図32に例示した復号処理において、制御部37は、ランダムアクセス(RA)指示を継続的に監視する(ステップS200)。RA指示が検出されると、ステップS210~ステップS260の処理が実行される。RA指示が検出されない場合、復号部34により、復号順で画像が復号される(ステップS290)。
 RA指示が検出されると、制御部37は、RA指示において指定されたタイミングを示す指定時刻Tを取得する(ステップS210)。次に、制御部37は、指定時刻Tの直前のランダムアクセス可能なピクチャをCRA情報を用いて探索し、復号開始ピクチャを特定する(ステップS230)。ここで特定される復号開始ピクチャは、CRAピクチャ又はIDRピクチャである。次に、復号部34は、制御部37により特定された復号開始ピクチャへのランダムアクセスを実行する(ステップS260)。そして、復号部34は、復号開始ピクチャから復号順で画像を復号する(ステップS290)。
 上述した処理は、復号の終了が指示され又は最後の画像が復号されるまで繰り返される(ステップS295)。
   (2)復号開始ピクチャの特定
 図33は、図32のステップS230に相当する、復号開始ピクチャを特定するための処理の流れの一例を示すフローチャートである。図33の例において、CRA情報は、図10~図12に例示したtfcaボックス又は図13~図15に例示したtfr2ボックスに格納されているものとする。
 図33を参照すると、制御部37は、まず、番号変数M及びカウンタnを1に初期化する(ステップS231)。次に、制御部37は、CRAピクチャを含むフラグメントのCRA情報用のサンプルボックス内のn番目のエントリを参照する(ステップS232)。次に、制御部37は、n番目のエントリの出力タイミング(time)が指定時刻T以下であるか否かを判定する(ステップS234)。ここで、n番目のエントリの出力タイミングが指定時刻T以下でなければ、処理はステップS238へ進む。一方、n番目のエントリの出力タイミングが指定時刻T以下であれば、処理はステップS234へ進む。ステップS234において、制御部37は、n番目のエントリのサンプルタイプ(sample_type)が所定の値(例えば、CRAピクチャ又はIDRピクチャを示すNALユニットタイプの値など)を示すか否かを判定する(ステップS234)。なお、CRA情報用のサンプルボックスがサンプルタイプを含まない場合には、ここでの判定は省略される。n番目のエントリのサンプルタイプが所定の値を示さない場合には、その後のステップS235の処理はスキップされ、処理はステップS236へ進む。n番目のエントリのサンプルタイプが所定の値を示す場合には、制御部37は、サンプル番号(sample_number)Xnを番号変数Mに代入する(ステップS235)。次に、制御部37は、n番目のエントリが最後のエントリであるか否かを判定する(ステップS236)。n番目のエントリが最後のエントリでない場合には、制御部37によりカウンタnがインクリメントされ(ステップS237)、処理はステップS232へ戻る。n番目のエントリが最後のエントリである場合には、処理はステップS238へ進む。ステップS238において、制御部37は、番号変数Mの値を、復号開始ピクチャのサンプル番号Yに代入する(ステップS238)。なお、CRA情報用のサンプルボックスがIDR情報用のサンプルボックスとは別に定義される場合には、図33と同様の処理が、IDR情報用のサンプルボックスについてさらに実行されてよい。その場合、より指定時刻Tに近い出力タイミングを有する復号開始ピクチャのサンプル番号Yが採用され得る。
 CRA情報が図18~図23に例示したようなCRAピクチャをグルーピングするサンプルグループ情報である場合には、Fragmented Movieについても、図28に例示したNon-Fragmented Movieのケースと同様に、復号開始ピクチャのサンプル番号Yが特定されてよい。
 図32のステップS260からステップS290への移行に際して、正常に復号されない先行ピクチャの出力をスキップするための処理は、図29~図31において例示した処理と同様であってよい。
 <5.応用例>
 上述した実施形態に係る画像符号化装置10及び画像復号装置30は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
  [5-1.第1の応用例]
 図34は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置900は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
 チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
 デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
 映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
 表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
 音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。
 外部インタフェース909は、テレビジョン装置900と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置900における伝送手段としての役割を有する。
 制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置900の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置900の動作を制御する。
 ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置900を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
 バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
 このように構成されたテレビジョン装置900において、デコーダ904は、上述した実施形態に係る画像復号装置30の機能を有する。従って、テレビジョン装置900において、上述したCRA情報を使用してCRAピクチャへのランダムアクセスを簡易に実行することができる。
  [5-2.第2の応用例]
 図35は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
 アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
 携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
 音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
 記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
 また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
 また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
 このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置30の機能を有する。従って、携帯電話機920において、又は携帯電話機920で符号化された画像を復号する装置において、上述したCRA情報を使用してCRAピクチャへのランダムアクセスを簡易に実行することができる。
  [5-3.第3の応用例]
 図36は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
 記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
 チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
 外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
 エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
 HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
 ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD-Video、DVD-RAM、DVD-R、DVD-RW、DVD+R、DVD+RW等)又はBlu-ray(登録商標)ディスクなどであってよい。
 セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
 デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
 OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
 制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
 ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
 このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置30の機能を有する。従って、記録再生装置940において、又は記録再生装置940で符号化された画像を復号する装置において、上述したCRA情報を使用してCRAピクチャへのランダムアクセスを簡易に実行することができる。
  [5-4.第4の応用例]
 図37は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
 撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
 光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
 光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
 信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
 画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
 OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
 外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
 メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
 制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
 ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
 このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置30の機能を有する。従って、撮像装置960により撮像され又は符号化された画像を復号する装置において、上述したCRA情報を使用してCRAピクチャへのランダムアクセスを簡易に実行することができる。
 <6.まとめ>
 ここまで、図1~図37を用いて、本開示に係る技術の様々な実施形態について詳細に説明した。上述した実施形態によれば、ランダムアクセスの際に復号開始ピクチャとして使用可能なCRAピクチャを識別するCRA情報がファイルフォーマットのヘッダ領域に挿入される。従って、デコーダは、データ領域内の画像データに付与されるNALユニットタイプを一連の画像データにわたって調べることなく、CRAピクチャへのランダムアクセスを簡易に実現することができる。
 ある実施形態によれば、MP4フォーマットのサンプルグループの仕組みを活用してCRAピクチャをグルーピングすることにより、CRA情報が形成され得る。かかる構成によれば、デコーダが新たなサンプルボックスを扱わなくて済むため、既存のデコーダをより少ないコストで拡張して、CRA情報に基づくランダムアクセスを実現することができる。
 別の実施形態によれば、MP4フォーマットのサンプルボックスを拡張することにより、CRA情報を格納する拡張サンプルボックスが形成され得る。かかる構成によれば、各CRAピクチャのサンプル番号及び正常に復号されない先行ピクチャ情報などの様々な情報を、拡張サンプルボックス内に含めることができる。拡張サンプルボックスは、CRA情報用の専用のボックスであってもよい。その場合、CRAピクチャへのランダムアクセスをサポートしないデコーダは、当該専用のボックスを無視するだけでよい。従って、拡張サンプルボックスを導入することに起因するデメリットは生じない。また、拡張サンプルボックスは、IDR情報及びCRA情報のための共用のボックスであってもよい。その場合、デコーダは、当該共用のボックスのみを参照するだけで、IDRピクチャ及びCRAピクチャへのランダムアクセスのための包括的な仕組みを実装することができる。
 また、CRA情報は、各CRAピクチャに表示順で先行し且つ当該CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別する先行ピクチャ情報を含み得る。IDRピクチャはこのような先行ピクチャを有しないため、先行ピクチャ情報は、CRAピクチャについてのみ生成され得る。かかる構成によれば、デコーダは、ランダムアクセスが行われる際に、先行ピクチャが正常に復号されたか否かを事後的に判定することなく、先行ピクチャ情報に基づいて、破損した画像がディスプレイに表示され又は外部のプロセッサへ出力されることを回避することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを識別するCRA情報を取得する取得部と、
 ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する制御部と、
 前記制御部により特定された前記復号開始ピクチャから、前記画像シーケンスを復号する復号部と、
 を備える画像復号装置。
(2)
 前記ファイルフォーマットは、MP4フォーマットであり、
 前記CRA情報は、前記1つ以上のCRAピクチャをグルーピングするサンプルグループ情報である、
 前記(1)に記載の画像復号装置。
(3)
 前記ファイルフォーマットは、MP4フォーマットであり、
 前記取得部は、前記CRA情報を格納するために拡張された拡張サンプルボックスから、前記CRA情報を取得する、
 前記(1)に記載の画像復号装置。
(4)
 前記拡張サンプルボックスは、IDR(Instantaneous Decoding Refresh)ピクチャを識別するIDR情報をさらに含むボックスである、前記(3)に記載の画像復号装置。
(5)
 前記拡張サンプルボックスは、IDRピクチャを識別するIDR情報を含むボックスとは別に定義されるボックスである、前記(3)に記載の画像復号装置。
(6)
 前記CRA情報は、各CRAピクチャに表示順で先行し且つ当該CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別するための先行ピクチャ情報を含み、
 前記制御部は、前記先行ピクチャ情報に基づいて、前記先行ピクチャの前記画像復号装置からの出力をスキップさせる、
 前記(2)~(5)のいずれか1項に記載の画像復号装置。
(7)
 前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャの数を示す、前記(6)に記載の画像復号装置。
(8)
 前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャに対応する時間長を示す、前記(6)に記載の画像復号装置。
(9)
 前記制御部は、ランダムアクセスの前記指示において指定されるタイミングの最も近傍に位置するCRAピクチャを、前記CRA情報を用いて前記復号開始ピクチャとして特定する、前記(1)~(8)のいずれか1項に記載の画像復号装置。
(10)
 ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを識別するCRA情報を取得することと、
 ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定することと、
 特定された前記復号開始ピクチャから、前記画像シーケンスを復号することと、
 を含む画像復号方法。
(11)
 画像シーケンス内の画像を符号化して、画像データを生成する符号化部と、
 ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを判定する判定部と、
 ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に前記判定部により判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入し、前記データ領域に前記画像データを挿入するファイル生成部と、
 を備える画像符号化装置。
(12)
 前記ファイルフォーマットは、MP4フォーマットであり、
 前記CRA情報は、前記1つ以上のCRAピクチャをグルーピングするサンプルグループ情報である、
 前記(11)に記載の画像符号化装置。
(13)
 前記ファイルフォーマットは、MP4フォーマットであり、
 前記ファイル生成部は、前記CRA情報を格納するために拡張された拡張サンプルボックスに前記CRA情報を格納する、
 前記(11)に記載の画像符号化装置。
(14)
 前記ファイル生成部は、IDR(Instantaneous Decoding Refresh)ピクチャを識別するIDR情報を前記拡張サンプルボックスにさらに格納する、前記(13)に記載の画像符号化装置。
(15)
 前記拡張サンプルボックスは、IDRピクチャを識別するIDR情報が格納されるボックスとは別に定義されるボックスである、前記(13)に記載の画像符号化装置。
(16)
 前記判定部は、各CRAピクチャに表示順で先行し且つ当該CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャをさらに判定し、
 前記ファイル生成部は、前記判定部により判定されたCRAピクチャごとの前記先行ピクチャを識別する先行ピクチャ情報を前記CRA情報に含める、
 前記(12)~(15)のいずれか1項に記載の画像符号化装置。
(17)
 前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャの数を示す、前記(16)に記載の画像復号装置。
(18)
 前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャに対応する時間長を示す、前記(16)に記載の画像復号装置。
(19)
 画像シーケンス内の画像を符号化して、画像データを生成することと、
 ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを判定することと、
 ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に、判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入することと、
 前記データ領域に前記画像データを挿入することと、
 を含む画像符号化方法。
 10  画像符号化装置
 11  符号化部
 12  判定部
 15  ファイル生成部
 16  制御部
 20  動画ファイル
 21  ヘッダ領域
 27  データ領域
 30  画像復号装置
 34  復号部
 36  CRA情報取得部
 37  制御部

Claims (19)

  1.  ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを識別するCRA情報を取得する取得部と、
     ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定する制御部と、
     前記制御部により特定された前記復号開始ピクチャから、前記画像シーケンスを復号する復号部と、
     を備える画像復号装置。
  2.  前記ファイルフォーマットは、MP4フォーマットであり、
     前記CRA情報は、前記1つ以上のCRAピクチャをグルーピングするサンプルグループ情報である、
     請求項1に記載の画像復号装置。
  3.  前記ファイルフォーマットは、MP4フォーマットであり、
     前記取得部は、前記CRA情報を格納するために拡張された拡張サンプルボックスから、前記CRA情報を取得する、
     請求項1に記載の画像復号装置。
  4.  前記拡張サンプルボックスは、IDR(Instantaneous Decoding Refresh)ピクチャを識別するIDR情報をさらに含むボックスである、請求項3に記載の画像復号装置。
  5.  前記拡張サンプルボックスは、IDRピクチャを識別するIDR情報を含むボックスとは別に定義されるボックスである、請求項3に記載の画像復号装置。
  6.  前記CRA情報は、各CRAピクチャに表示順で先行し且つ当該CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャを識別するための先行ピクチャ情報を含み、
     前記制御部は、前記先行ピクチャ情報に基づいて、前記先行ピクチャの前記画像復号装置からの出力をスキップさせる、
     請求項2に記載の画像復号装置。
  7.  前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャの数を示す、請求項6に記載の画像復号装置。
  8.  前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャに対応する時間長を示す、請求項6に記載の画像復号装置。
  9.  前記制御部は、ランダムアクセスの前記指示において指定されるタイミングの最も近傍に位置するCRAピクチャを、前記CRA情報を用いて前記復号開始ピクチャとして特定する、請求項1に記載の画像復号装置。
  10.  ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域から、前記データ領域に挿入されている画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを識別するCRA情報を取得することと、
     ランダムアクセスの指示が検出された場合に、前記CRA情報を用いて、前記画像シーケンス内のいずれかのCRAピクチャを復号開始ピクチャとして特定することと、
     特定された前記復号開始ピクチャから、前記画像シーケンスを復号することと、
     を含む画像復号方法。
  11.  画像シーケンス内の画像を符号化して、画像データを生成する符号化部と、
     ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを判定する判定部と、
     ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に前記判定部により判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入し、前記データ領域に前記画像データを挿入するファイル生成部と、
     を備える画像符号化装置。
  12.  前記ファイルフォーマットは、MP4フォーマットであり、
     前記CRA情報は、前記1つ以上のCRAピクチャをグルーピングするサンプルグループ情報である、
     請求項11に記載の画像符号化装置。
  13.  前記ファイルフォーマットは、MP4フォーマットであり、
     前記ファイル生成部は、前記CRA情報を格納するために拡張された拡張サンプルボックスに前記CRA情報を格納する、
     請求項11に記載の画像符号化装置。
  14.  前記ファイル生成部は、IDR(Instantaneous Decoding Refresh)ピクチャを識別するIDR情報を前記拡張サンプルボックスにさらに格納する、請求項13に記載の画像符号化装置。
  15.  前記拡張サンプルボックスは、IDRピクチャを識別するIDR情報が格納されるボックスとは別に定義されるボックスである、請求項13に記載の画像符号化装置。
  16.  前記判定部は、各CRAピクチャに表示順で先行し且つ当該CRAピクチャへのランダムアクセスが行われた場合に正常に復号されない先行ピクチャをさらに判定し、
     前記ファイル生成部は、前記判定部により判定されたCRAピクチャごとの前記先行ピクチャを識別する先行ピクチャ情報を前記CRA情報に含める、
     請求項12に記載の画像符号化装置。
  17.  前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャの数を示す、請求項16に記載の画像復号装置。
  18.  前記先行ピクチャ情報は、各CRAピクチャについての前記先行ピクチャに対応する時間長を示す、請求項16に記載の画像復号装置。
  19.  画像シーケンス内の画像を符号化して、画像データを生成することと、
     ランダムアクセスの際に復号開始ピクチャとして使用可能な前記画像シーケンス内の1つ以上のCRA(Clean Random Access)ピクチャを判定することと、
     ヘッダ領域及びデータ領域を含むファイルフォーマットの前記ヘッダ領域に、判定された前記1つ以上のCRAピクチャを識別するCRA情報を挿入することと、
     前記データ領域に前記画像データを挿入することと、
     を含む画像符号化方法。
PCT/JP2013/063178 2012-07-10 2013-05-10 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法 WO2014010300A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/412,480 US10062416B2 (en) 2012-07-10 2013-05-10 Image decoding device, and image decoding method, image encoding device, and image encoding method
JP2014524678A JP6319083B2 (ja) 2012-07-10 2013-05-10 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法
CN201380035503.6A CN104412608B (zh) 2012-07-10 2013-05-10 图像解码装置、图像解码方法、图像编码装置及图像编码方法
US15/991,484 US10283167B2 (en) 2012-07-10 2018-05-29 Image decoding device, image decoding method, image encoding device, and image encoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012154557 2012-07-10
JP2012-154557 2012-07-10

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/412,480 A-371-Of-International US10062416B2 (en) 2012-07-10 2013-05-10 Image decoding device, and image decoding method, image encoding device, and image encoding method
US15/991,484 Continuation US10283167B2 (en) 2012-07-10 2018-05-29 Image decoding device, image decoding method, image encoding device, and image encoding method

Publications (1)

Publication Number Publication Date
WO2014010300A1 true WO2014010300A1 (ja) 2014-01-16

Family

ID=49915775

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/063178 WO2014010300A1 (ja) 2012-07-10 2013-05-10 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法

Country Status (4)

Country Link
US (2) US10062416B2 (ja)
JP (1) JP6319083B2 (ja)
CN (2) CN104412608B (ja)
WO (1) WO2014010300A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122543A1 (ja) * 2016-01-13 2017-07-20 ソニー株式会社 情報処理装置および情報処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10116576B2 (en) * 2015-10-19 2018-10-30 Samsung Electronics Co., Ltd. Methods and apparatus for random access of HEVC bitstream for MMT
CN105741861B (zh) * 2016-02-05 2017-12-15 京东方科技集团股份有限公司 智能播放系统、方法、可穿戴设备、主体单元和播放单元
JP7077141B2 (ja) * 2018-05-28 2022-05-30 シャープ株式会社 画像記録装置、画像記録方法およびプログラム
CN115150348B (zh) * 2021-03-30 2024-05-03 奇安信科技集团股份有限公司 邮件附件还原方法及系统
CN115080531A (zh) * 2022-05-16 2022-09-20 重庆紫光华山智安科技有限公司 基于分布式存储图像处理方法、系统、设备及介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3080087B2 (ja) * 1998-12-28 2000-08-21 日本電気株式会社 画像処理方法及びその装置
US8214655B2 (en) * 2002-03-29 2012-07-03 Kabushiki Kaisha Toshiba Data structure of multimedia file format, encrypting method and device thereof, and decrypting method and device thereof
US8233781B2 (en) * 2004-09-01 2012-07-31 Panasonic Corporation Image reproduction method and image reproduction apparatus
CN101198052B (zh) * 2006-12-04 2010-05-19 华为技术有限公司 一种视频编码方法、解码方法及其装置
CN101459840B (zh) * 2007-12-13 2010-04-21 华为技术有限公司 视频图像编码和解码方法及装置和系统
US8509434B2 (en) * 2008-06-20 2013-08-13 Korean Broadcasting System Method and apparatus for protecting scalable video coding contents
TW201210325A (en) * 2010-07-21 2012-03-01 Nokia Corp Method and apparatus for indicating switching points in a streaming session
US9706227B2 (en) * 2011-03-10 2017-07-11 Qualcomm Incorporated Video coding techniques for coding dependent pictures after random access
US9026671B2 (en) * 2011-04-05 2015-05-05 Qualcomm Incorporated IP broadcast streaming services distribution using file delivery methods
WO2013012372A1 (en) * 2011-07-15 2013-01-24 Telefonaktiebolaget L M Ericsson (Publ) An encoder and method thereof for assigning a lowest layer identity to clean random access pictures
US20130089152A1 (en) * 2011-10-05 2013-04-11 Qualcomm Incorporated Signaling picture identification for video coding
US9351016B2 (en) * 2012-04-13 2016-05-24 Sharp Kabushiki Kaisha Devices for identifying a leading picture
US9532055B2 (en) * 2012-04-16 2016-12-27 Microsoft Technology Licensing, Llc Constraints and unit types to simplify video random access
US9979958B2 (en) * 2012-04-20 2018-05-22 Qualcomm Incorporated Decoded picture buffer processing for random access point pictures in video sequences
JP6045222B2 (ja) * 2012-06-28 2016-12-14 株式会社Nttドコモ 動画像予測復号装置、方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TK TAN ET AL.: "Clean decoding refresh definition and decoding process", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH MEETING, 14 July 2011 (2011-07-14), TORINO, pages 1 - 3 *
YE-KUI WANG ET AL.: "Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting", ON CDR PICTURE, 22 July 2011 (2011-07-22), TORINO,IT, pages 14 - 22 *
YE-KUI WANG: "Report of the BoG on clean random access (CRA) picture", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH MEETING, 22 July 2011 (2011-07-22), TORINO,IT, pages 1 - 3 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122543A1 (ja) * 2016-01-13 2017-07-20 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JPWO2014010300A1 (ja) 2016-06-20
CN107820089A (zh) 2018-03-20
US10062416B2 (en) 2018-08-28
CN104412608A (zh) 2015-03-11
JP6319083B2 (ja) 2018-05-09
US20180277163A1 (en) 2018-09-27
CN107820089B (zh) 2020-05-19
US20150194188A1 (en) 2015-07-09
US10283167B2 (en) 2019-05-07
CN104412608B (zh) 2018-03-06

Similar Documents

Publication Publication Date Title
US10283167B2 (en) Image decoding device, image decoding method, image encoding device, and image encoding method
US8249167B2 (en) PVR-support video decoding system
KR100998899B1 (ko) 썸네일 영상 서비스 방법 및 방송 수신기
AU2019219782B2 (en) Image-processing device and method
JP2013093755A (ja) 映像記録装置及び映像記録方法
EP1605466A1 (en) Transcoding closed captioning data from broadcast DTV onto DVD
US8744235B2 (en) Method and apparatus for processing additional data in broadcast signal, method and apparatus for recording broadcast signal, and method and apparatus for reproducing recorded broadcasting signal
JP6289900B2 (ja) 放送信号送信装置
EP1926104B1 (en) Encoding device, decoding device, recording device, audio/video data transmission system
CN110036646B (zh) 解码器、编码器、计算机程序及方法
US20120027075A1 (en) Signal Processing Apparatus and Signal Processing Method
JP2006319397A (ja) デジタル記録再生装置
JP6479905B2 (ja) 放送信号送信装置および放送信号送受信装置
EP2451155B1 (en) System for providing access to information needed for performing trick mode operations on a video elementary stream
US20150255119A1 (en) Display apparatus and method for editing and displaying recorded video content
WO2014002618A1 (ja) 画像復号装置、画像復号方法、画像符号化装置及び画像符号化方法
JP5349638B2 (ja) 信号処理装置及び信号処理方法
KR20080057685A (ko) 방송 녹화 시스템의 녹화된 데이터 검색 장치
KR20130008244A (ko) 영상처리장치 및 그 제어방법
JP2009060422A (ja) 映像再生装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13817615

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014524678

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14412480

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13817615

Country of ref document: EP

Kind code of ref document: A1