WO2016027426A1 - Video stream generation method, playback apparatus, and recording medium - Google Patents

Video stream generation method, playback apparatus, and recording medium Download PDF

Info

Publication number
WO2016027426A1
WO2016027426A1 PCT/JP2015/003893 JP2015003893W WO2016027426A1 WO 2016027426 A1 WO2016027426 A1 WO 2016027426A1 JP 2015003893 W JP2015003893 W JP 2015003893W WO 2016027426 A1 WO2016027426 A1 WO 2016027426A1
Authority
WO
WIPO (PCT)
Prior art keywords
file
data
video
stream
information
Prior art date
Application number
PCT/JP2015/003893
Other languages
French (fr)
Japanese (ja)
Inventor
遠間 正真
洋 矢羽田
智輝 小川
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015148578A external-priority patent/JP2017183762A/en
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2016027426A1 publication Critical patent/WO2016027426A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Definitions

  • the present disclosure relates to a video stream generation method, a playback device, and a recording medium.
  • the file format used in conventional optical discs is the MPEG2-TS (MPEG-2 Transport Stream) system defined by ISO / IEC 138181-1.
  • MPEG2-TS MPEG-2 Transport Stream
  • a file configured by multiplexing a video stream, an audio stream, and a subtitle stream in the MPEG2-TS file format is recorded on the optical disc.
  • a video stream, an audio stream, a subtitle stream, and the like are each divided into a plurality of 188-byte TS packets, multiplexed, and recorded on an optical disc.
  • This MPEG2-TS is optimized for media such as broadcast or optical discs that transmit or record data that is read and processed sequentially from the front. Therefore, even a consumer device having a relatively small buffer capacity can efficiently read, decode, and reproduce a stream.
  • the file format that is being used in the distribution of contents in the recent network is the MP4 system defined by ISO / IEC 14496-12.
  • MP4 employs an extremely flexible data structure on the premise that it is applied to a randomly accessible medium such as an HDD (Hard Disk Drive) or a flash memory.
  • streams such as a video stream, an audio stream, and a subtitle stream are divided into units of fragments of about several seconds, and these fragments are sequentially arranged to form one file.
  • a smartphone or tablet does not have an optical disk drive, but it is used as a terminal for receiving and playing back content distribution over a network by taking advantage of its high portability or the recent increase in screen size and definition. ing. For this reason, smartphones and tablets have many functions and processes corresponding to MP4, and their application to MPEG2-TS has not progressed much.
  • the file format of the content may be converted to MP4 (see, for example, Patent Document 1).
  • an MP4 file that is an MP4 file is generated.
  • a video stream generation method generates a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • a plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data so as to be all video data in the first luminance range.
  • the video stream is generated so as to be all video data in the second luminance range.
  • a reproduction apparatus reproduces a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • the video stream includes a plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data, or all the video data in the first luminance range, or All are generated so as to be video data in the second luminance range.
  • a recording medium records a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all The video data is generated in the second luminance range.
  • FIG. 1 is a diagram schematically showing an example of the structure of MPEG2-TS content stored on an optical disc.
  • FIG. 2 is a diagram for explaining a method of decrypting the aligned unit.
  • FIG. 3 is a diagram showing an internal structure of the aligned unit in a plain text state.
  • FIG. 4 is a diagram illustrating a method of creating an actual Elementary Stream from a plurality of TS Payloads.
  • FIG. 5 is a block diagram illustrating a configuration of the file generation device according to the first embodiment.
  • FIG. 6 is a diagram for explaining a method of generating an MP4 stream file from an MPEG2-TS stream file, a difference file, and a copy manifest file in the first embodiment.
  • FIG. 7 is a diagram for explaining a method of generating a difference file and a copy manifest file in the first embodiment.
  • FIG. 8 is a flowchart of the file generation method according to the first embodiment.
  • FIG. 9 is a diagram for explaining a file generation method according to the first modification of the first embodiment.
  • FIG. 10A is a diagram for explaining data encryption in the AES-CTR mode in the first modification of the first embodiment.
  • FIG. 10B is a diagram for explaining data decoding in the AES-CTR mode in the first modification of the first embodiment.
  • FIG. 11 is a diagram illustrating an example in which the MPEG-4 AAC access unit stored in the transport stream is stored in the MP4 file in the second modification of the first embodiment.
  • FIG. 12 is a diagram illustrating an example in which the MPEG-4 AVC access unit stored in the transport stream is stored in MP4 in the second modification of the first embodiment.
  • FIG. 13A is a diagram illustrating a storage example of a LATM header and a LATM payload in a TS packet in the second modification of the first embodiment.
  • FIG. 13B is a diagram illustrating an example of syntax of the AU_info table in the second modification of the first embodiment.
  • FIG. 13C is a diagram illustrating another example of syntax of the AU_info table in the second modification of the first embodiment.
  • FIG. 14 is a block diagram illustrating a configuration of the file generation device according to the second modification of the first embodiment.
  • FIG. 15A is a diagram showing a schematic structure of a NAL unit in the second modification of the first embodiment.
  • FIG. 15B is a diagram illustrating an example of the storage format of the NAL unit in MPEG2-TS in the second modification of the first embodiment.
  • FIG. 15C is a diagram illustrating an example of the storage format of the NAL unit in MP4 in the second modification of the first embodiment.
  • FIG. 16A is a diagram illustrating a configuration example of an access unit in a transport stream according to the second modification of the first embodiment.
  • FIG. 16B is a diagram illustrating an example of the syntax of the size information included in the size information NAL unit in the second modification of the first embodiment.
  • FIG. 16C is a diagram illustrating another example of the syntax of the size information included in the size information NAL unit in the second modification of the first embodiment.
  • FIG. 17 is a flowchart illustrating a processing operation in which the file generation device according to the second modification of the first embodiment generates an MP4 file.
  • FIG. 18 is a diagram illustrating a specific example of address designation when mode 2 is used in the third modification of the first embodiment.
  • FIG. 19 is a diagram illustrating an example of reading a continuous area exceeding the upper limit value of the copy size in the third modification of the first embodiment.
  • FIG. 20 is a diagram for describing a process of generating an MP4 file by copying data from an elementary stream in the third modification of the first embodiment.
  • FIG. 21 is a diagram illustrating an example of audio and video playback sections of two MP4 files that are played back continuously in the second embodiment.
  • FIG. 22A is a diagram for describing a method of generating one MP4 file by integrating playback sections in the second embodiment.
  • FIG. 22B is a block diagram of a file generation device according to Embodiment 2.
  • FIG. 22C is a flowchart of the file generation method in the second embodiment.
  • FIG. 22D is a block diagram of the playback device in the second embodiment.
  • FIG. 22E is a flowchart of the reproduction method in the second embodiment.
  • FIG. 23A is a diagram showing an example of a menu screen when an MP4 file is generated from content stored on an optical disc in the third embodiment.
  • FIG. 23B is a diagram for describing a method of generating an MP4 file using an optical disc and a network in the third embodiment.
  • FIG. 24 is a diagram illustrating an example of a copy manifest showing the size of the NAL unit, the PTS, and the DTS in the third embodiment.
  • FIG. 25 is a diagram illustrating an example of caption data stored at the end of the MP4 file in the third embodiment.
  • FIG. 26 is a diagram illustrating a case where subtitles with 2K resolution are scaled to 4K and displayed in the third embodiment.
  • FIG. 27 is a diagram illustrating a method for storing export data according to the fourth embodiment.
  • FIG. 28A is a diagram illustrating an example of an export playlist in the fourth embodiment.
  • FIG. 28B is a diagram illustrating an example of a copy manifest file in the fourth embodiment.
  • FIG. 29A is a diagram for describing an example of a file generation method when a plurality of versions of main content are stored in the fourth embodiment.
  • FIG. 29B is a diagram showing a copy manifest file when an MP4 file is generated in the reproduction path of the director's cut version according to the fourth embodiment.
  • FIG. 30 is a diagram for describing another example of the file generation method when a plurality of versions of the main content are stored in the fourth embodiment.
  • FIG. 31 is a diagram illustrating an example of a relationship between an audio MP4 file for export and a video MP4 file separated from the M2TS in the fourth embodiment.
  • FIG. 32A is a block diagram of a file generation device according to Embodiment 4.
  • FIG. 32B is a flowchart of the file generation method in the fourth embodiment.
  • FIG. 33 is a block diagram of a file generation device in Modification 4-1.
  • FIG. 34 is a diagram illustrating an example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1.
  • FIG. 35 is a diagram illustrating another example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1.
  • FIG. 36 is a diagram illustrating another example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1.
  • FIG. 34 is a diagram illustrating an example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1.
  • FIG. 35 is a diagram illustrating another example of the case where the MP4 file is generated by being divided into a plurality of
  • FIG. 37 is a diagram showing a storage position when data used at the time of export is stored in the optical disc in the modified example 4-2.
  • FIG. 38 is a diagram illustrating a playlist example indicating the size of the elementary stream in the playlist for export in the modification 4-3.
  • FIG. 39 is a diagram illustrating an example of a playlist in which information on gaps generated in the audio connection portion between play items is displayed in the playlist in Modification 4-4.
  • FIG. 40A is a diagram for describing an example of a method for generating an audio gap at the time of export in Modification 4-5.
  • FIG. 40B is a diagram illustrating an example of a playlist in which frames that need to be deleted when a gap is generated are shown in Modification 4-5.
  • FIG. 41 is a diagram illustrating a storage example when the video data including the brightness in the HDR (High Dynamic Range) brightness range is stored in the MP4 file according to the modification 4-6.
  • FIG. 42 is a diagram for explaining the operation when viewing the exported DMP data on the mobile terminal based on the DLNA (Digital Living Network Alliance) standard in Modification 4-7.
  • FIG. 43 is a diagram for explaining a method of generating an MP4 file in the fifth embodiment.
  • FIG. 44A is a diagram for explaining the format conversion process in the modified example 5-1.
  • FIG. 44B shows Mapping info. In Modification 5-1. It is a figure which shows the structural example of a file.
  • FIG. 44C shows Mapping info. In Modification 5-1. It is a figure for demonstrating the information contained in a file.
  • FIG. 45 is a diagram illustrating a storage example of static HDR metadata in the modification 5-2.
  • FIG. 46 is a diagram illustrating MP4 of the base layer and the enhancement layer in Modification
  • a video stream including a plurality of video data corresponding to different luminance ranges may be generated.
  • This disclosure provides a video stream generation method and the like that can generate a video stream that can appropriately reproduce video data in a plurality of luminance ranges.
  • FIG. 1 is a diagram schematically showing an example of the structure of MPEG2-TS content stored on an optical disc.
  • a Stream File is stored as content.
  • Stream File is XXXXXX. It is recorded with a file name of M2TS. A number is described in XXXXXX. When a plurality of contents are stored, it is possible to individually manage these contents by this number.
  • the Stream File is divided into a plurality of units each called 6144-byte Aligned Unit.
  • Aligned Unit is a unit of encryption. Note that the data amount of the Stream File may not necessarily be a multiple of 6144 bytes. If it is not a multiple of 6144 bytes, it is desirable to make the data amount of the stream file a multiple of 6144 bytes by a method such as storing NULL Data at the end of the content.
  • FIG. 2 is a diagram for explaining a method of decrypting the aligned unit.
  • the content on the optical disc is encrypted using the unit key Ku which is data.
  • the 6144-byte data included in the aligned unit is separated into the first 16-byte data and the remaining 6128-byte data, and the remaining 6128-byte data is encrypted.
  • AES_E When decrypting the Aligned Unit, AES_E first encrypts the first 16 bytes of data using the AES (Advanced Encryption Standard) encryption method using the unit key Ku. Next, an exclusive OR operation is performed on the data obtained by this encryption and the leading 16-byte data. AES_DCBC uses the result of this exclusive OR operation as a key, and decrypts the remaining 6128 bytes of data in AES-CBC (Cipher Block Chaining) mode. The first 16 bytes of data are added to the plaintext data obtained by this decryption. As a result, 6144 bytes of plaintext corresponding to the aligned unit is obtained.
  • AES Advanced Encryption Standard
  • FIG. 3 is a diagram showing the internal structure of the aligned unit in a plain text state.
  • Aligned Unit is composed of 32 source packets of 192 bytes each.
  • Each Source Packet is composed of a TP_extra_header that is a 4-byte header and a 188-byte Transport Packet that is a TS packet.
  • the 188-byte Transport Packet is composed of a 4-byte TS Header and a 184-byte TS Payload. Information indicating the attribute of TS Payload is described in TS Header.
  • TS Header from sync_byte (8bits), transport_error_indicator (1bit), payload_unit_start_indicator (1bit), transport_priority (1bit), PID (13bits), transport_scrambling_control (2bits), adaptation_field_control (2bits), and continuity_counter (4 bits) Composed.
  • the PID is information for identifying the type of elementary stream stored in the TS Payload, such as video or audio. Even when there are a plurality of types of audio, the type of audio of the elementary stream can be identified by this PID.
  • FIG. 4 is a diagram showing a method for creating an actual Elementary Stream from a plurality of TS Payloads.
  • a PES_Header and an Elementary Stream are configured by connecting a plurality of TS Payloads to which the same PID is assigned.
  • the first TS Payload of the plurality of TS Payloads is configured to include PES_Header.
  • a PES (Packetized Elementary Stream) or a PES packet is composed of at least a part of the PES_Header and the Elementary Stream.
  • the MPEG2-TS file (Stream File) is encrypted for each Aligned Unit. Therefore, in order to convert the file into an MP4 file, the above-described decryption is performed, and further re-encryption is performed.
  • a conversion device such as a smartphone or a tablet
  • plain text content is once created, there is a security problem.
  • a video stream including a plurality of video data corresponding to different luminance ranges may be generated.
  • a video stream including a plurality of video data corresponding to different luminance ranges may be generated.
  • a video stream generation method generates a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • a plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data so as to be all video data in the first luminance range.
  • the video stream is generated so as to be all video data in the second luminance range.
  • the video stream generation method can generate a video stream that can appropriately reproduce video data in a plurality of luminance ranges.
  • the plurality of second video data may be a plurality of video data specified by one playlist.
  • the maximum luminance value in the second luminance range may exceed 100 nits.
  • a playback device plays back a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • a playback unit wherein the video stream includes a plurality of second video data that are continuously and seamlessly played out of the plurality of first video data, so that all the video data in the first luminance range are obtained. Alternatively, all the video data is generated in the second luminance range.
  • the playback device can appropriately play back the video stream.
  • the recording medium records a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range.
  • the video stream is configured such that, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or All are generated so as to be video data in the second luminance range.
  • the playback device can appropriately play back the video stream recorded on the recording medium.
  • FIG. 5 is a block diagram showing a configuration of the file generation apparatus according to the present embodiment.
  • the file generation apparatus 10 in the present embodiment is an apparatus that generates an MP4 file, and includes an original file acquisition unit 11, a difference file acquisition unit 12, a procedure file acquisition unit 13, and a generation unit 14.
  • the original file acquisition unit 11 acquires an original file configured in a file format different from MP4.
  • the difference file acquisition unit 12 acquires a difference file including data that is not included in the original file.
  • the procedure file acquisition unit 13 acquires a procedure file indicating a procedure for generating an MP4 file.
  • the generation unit 14 generates an MP4 file by combining the data included in the difference file and the data included in the original file according to the procedure indicated in the procedure file. In other words, the generation unit 14 converts the original file into an MP4 file.
  • FIG. 6 is a diagram for explaining a method of generating an MP4 stream file from an MPEG2-TS stream file, a difference file, and a copy manifest file.
  • an optical disc for example, a Blu-ray (registered trademark, the same applies hereinafter) disc
  • a stream file A (XXXX.M2TS) that is the above-described original file
  • a copy manifest file that is the above-described procedure file.
  • XXXX.CMNF and the above-described difference file (XXXX.DMP4) are recorded.
  • the copy manifest file (XXXX.CMNF) describes a conversion procedure for processing the original file and converting it into an MP4 file.
  • the difference file (XXXX.DMP4) stores data necessary for conversion to an MP4 file.
  • the generating unit 14 converts the data of the stream file A (XXXX.M2TS) and the difference file (XXXX.M2TS) according to the description of the copy manifest file (XXXX.CMNF).
  • the stream file B (XXXX.MP4) which is an MP4 file is generated by alternately combining the data of XXXXX.DMP4). In other words, the generation unit 14 converts the stream file A (XXXX.M2TS) into the stream file B (XXXX.MP4).
  • the original file can be converted without being restored to an audio or video elementary stream (for example, a HE-AAC or MPEG-4 AVC stream). If the original file is encrypted, the conversion from the original file to the MP4 file can be easily performed without breaking the encryption.
  • an audio or video elementary stream for example, a HE-AAC or MPEG-4 AVC stream.
  • This copy manifest file (XXXX.CMNF) is “Input File A”, “Input File B”, “Output File”, “Output File Size”, “ATTRIBUTE”, “MP4 DECODER BUFFER SIZE”. including.
  • “Input File A” and “Input File B” indicate the file names of the two input files.
  • the conversion process starts from a copy of the top part of the file indicated by “Input File A”.
  • “Output File” indicates an output file, that is, a file name of a generated MP4 file.
  • “Output File Size” indicates the data size of the output MP4 file. This data size is described with byte precision. By confirming this data size, it is possible to confirm whether or not the medium on which the output MP4 file is recorded has sufficient free space before the conversion process.
  • “ATTRIBUTE” indicates the attribute of each file, specifically, what kind of elementary stream is converted and what kind of file is generated.
  • “ATTRIBUTE” includes 4K video in which the converted MP4 file is compressed with HEVC (High Efficiency Video Coding) and 5.1ch English audio of AAC (Advanced Audio Coding). Indicates that Thus, before the conversion process, it is possible to confirm in advance what the converted file obtained when converting according to this copy manifest file is.
  • “ATTRIBUTE” may indicate the data structure of the MP4 file or the like, and may indicate the brand (that is, the type) of MP4 stored in “ftyp” of the MP4 file.
  • MP4 DECODER BUFFER SIZE indicates a minimum buffer size necessary for reproducing the converted stream file B (XXXX.MP4), which is an output MP4 file.
  • This buffer size is an amount that depends on what multiplexing rule is used to multiplex video and audio in the MP4 file that is the stream file B after conversion.
  • MP4 DECODER BUFFER SIZE may indicate what kind of decoder resources (memory amount and data transfer rate) are necessary to reproduce the stream file B after conversion.
  • “COPY MANIFEST” indicates the range of each part of the file indicated by “Input File A” and the range of each part of the file indicated by “Input File B”. Each of these portions is a portion that is sequentially copied and pasted to generate an MP4 file indicated by “Output File”. The range of each part is indicated by the copy start position and the copy size, or only by the copy size.
  • “COPY MANIFEST” is a file part indicated by “Input File A” and a part of the file indicated by “Input File B” are alternately copied and pasted. Indicates the range of the part.
  • the difference file (XXXX.DMP4) is copied and pasted from the beginning of the difference file for each part of the specified size. Therefore, in “COPY MANIFEST”, it is not necessary to specify the copy start position in order to indicate each part of the difference file (XXXX.DMP4). That is, the range of each part of the difference file is indicated only by the copy size (data size) without using the copy start position.
  • the stream file A (XXXX.M2TS) includes data that is not necessary for the converted stream file B (XXXX.MP4). Therefore, in “COPY MANIFEST”, in order to indicate each part of the stream file A that is the original file, the range of each part is indicated by the copy start position and the copy size.
  • the copy start position is a byte position from the beginning of the file
  • the copy size is a data size in bytes.
  • the generation unit 14 repeats copying and pasting alternately the portion included in the original file and the portion included in the difference file indicated by “COPY MANIFEST” according to the copy manifest file. That is, the generation unit 14 repeats alternately combining the part included in the original file and the part included in the difference file, which are indicated by “COPY MANIFEST”. As a result, an MP4 file that is the stream file B after conversion is generated.
  • the same converted stream file B (XXXX.MP4) can be generated regardless of the device used to convert the original file. That is, it becomes easy to reproduce the stream file B after conversion without any trouble on any device.
  • the file generation apparatus 10 may obtain the difference file (XXXX.DMP4) and the copy manifest file (XXXX.CMNF) from an optical disc such as a Blu-ray disc, and both or one of these files may be obtained via the Internet. You may get it at In this case, it is a special change to the file generation apparatus 10 to present the user with various selections such as converting the original file into a file in the latest file format or an MP4 file including another video and audio. It is possible without requiring.
  • the file generation apparatus 10 may perform the conversion while the stream file A that is the original file is encrypted, and after the decryption of the original file is performed, the file is generated by performing the conversion to the MP4 file.
  • the MP4 file may be encrypted again.
  • the file stream (XXXX.M2TS) which is the original file may be plain text. Since the difference file is composed of header information, it is not necessary to encrypt the difference file. However, if stream file A (XXXX.M2TS), which is the original file, or stream file B (XXXX.MP4), which is an MP4 file, is plain text, the entire file is expanded in memory or temporarily saved on the hard disk Operations such as doing this may not be allowed for security reasons.
  • the file generation apparatus 10 may delete the areas of the stream file A (XXXX.M2TS), which is the plaintext original file, in order from the area where the conversion to the MP4 file is completed. Further, when encrypting the stream file B (XXXXXX.MP4) which is an MP4 file, the file generation apparatus 10 generates a portion such as “Movie fragment” included in the MP4 file or a predetermined number of MP4 samples. Each time it is done, the generated portions may be encrypted in sequence. If an encryption method in which the data size does not change before and after encryption is used, the area of the data to be copied does not change regardless of the presence or absence of encryption.
  • the copy manifest file may indicate whether or not the stream file A (XXXX.M2TS) that is the original file is encrypted.
  • the copy manifest file can be converted after the encoded data multiplexed in the stream file A is encrypted or converted into an MP4 file after converting the encrypted encoded data into plain text. It may indicate whether or not
  • FIG. 7 is a diagram for explaining a method of generating a difference file and a copy manifest file.
  • the difference file (XXXX.DMP4) and copy manifest file (XXXX.CMNF) can be generated as follows.
  • the stream file A (XXXX.M2TS), which is the original file, is converted in format to generate the converted stream file B (XXXX.MP4), which is an MP4 file.
  • XXXX.MP4 which is an MP4 file.
  • at least one portion including data matching each other is searched between the stream file A and the stream file B which are the original files. At this time, the search is performed so that the data size of each part becomes the largest.
  • a difference file is generated by concatenating the remaining parts included in the stream file B other than the part searched as described above according to the order included in the stream file B.
  • the correlation result of each file at this time is recorded in the copy manifest file as “COPY MANIFEST”.
  • the above-described search is performed by sequentially acquiring the data included in each of the stream file A and the stream file B in the direction from the top to the back of each file and comparing the data. And the comparison is performed without returning to the reverse direction to the above-mentioned direction.
  • the above-described conversion process (copy process) can be performed sequentially, that is, by one continuous process, and speeding up or memory reduction can be realized.
  • a picture of a predetermined PTS (Presentation TimeStamp) included in the video is audio so that data of a picture having a large code amount such as an I picture does not underflow. May be multiplexed earlier in time than a frame of the same PTS as the predetermined PTS included in the.
  • the PTS of the first picture of the video and the PTS of the first frame of the audio in “Movie fragment” should be multiplexed or close to each other. Is common.
  • the conversion process may not be performed sequentially. As a result, conversion may occur while the pointer for reading or writing is sequentially moved back and forth. Therefore, whether or not the conversion process can be performed by one continuous process, or when it cannot be performed by one continuous process, the maximum data size that needs to be returned may be registered in the copy manifest file.
  • a specific threshold value may be provided. For example, only a portion including data that matches 8 bytes or more is registered in the copy manifest file. Even if each of the remaining portions other than that portion included in the stream file B includes data of less than 8 bytes that matches the data of the stream file A, the data included in those remaining portions is stored in the difference file. Stored. Further, this threshold value may be described in the copy manifest file as “MIN COPY SIZE: 8 bytes”.
  • the MPEG-2TS file may be converted into the MP4 file by using a copy manifest file indicating a multiplexing unit in the MP4 file.
  • a copy manifest file indicating a multiplexing unit in the MP4 file.
  • audio, video, or text is multiplexed as different “Movie fragments”.
  • the first and last audio frame and video picture DTS in decoding order and the byte offset value from the beginning of the MPEG-2TS file are registered together with the media identification information. May be. It should be noted that the registration order of “Movie fragment” is the same as the order of appearance of “Movie fragment” in the MP4 file.
  • FIG. 8 is a flowchart of the file generation method in the present embodiment.
  • the file generation method in the present embodiment is a method in which the file generation device 10 generates an MP4 file.
  • the original file acquisition unit 11 of the file generation device 10 acquires an original file configured in a file format different from MP4 (step S11).
  • the difference file acquisition unit 12 acquires a difference file including data that is not included in the original file (step S12).
  • the procedure file acquisition unit 13 acquires a procedure file indicating a procedure for generating an MP4 file (step S13).
  • generation part 14 produces
  • the original file acquisition unit 11 acquires an original file configured in the MPEG2-TS file format.
  • an MP4 file is generated by combining the data included in the difference file and the data included in the original file according to a predetermined procedure. Therefore, an MP4 file can be easily generated without returning an original file constituted by a file format such as MPEG2-TS to each stream such as a video stream or an audio stream. Even if the original file is encrypted, it is not necessary to decrypt and re-encrypt it. Therefore, it is possible to suppress the processing load for generating the MP4 file.
  • the original file acquisition unit 11, the difference file acquisition unit 12, and the procedure file acquisition unit 13 acquire the files by reading the original file, the difference file, and the procedure file from the optical disc, respectively.
  • the procedure file acquisition unit 13 acquires the files by reading the original file, the difference file, and the procedure file from the optical disc, respectively.
  • the ranges of the parts included in the difference file and the ranges of the parts included in the original file are alternately arranged so that the ranges of the parts included in the difference file, Each range of a plurality of parts included in the original file is described. Therefore, in step S14, the generation unit 14 generates an MP4 file by combining the parts indicated by the ranges in the order of the ranges described in the procedure file. Thereby, each part included in the MP4 file can be generated in order from the head side of the MP4 file, and the MP4 file can be generated more easily because it does not return.
  • each of the multiple parts included in the difference file is described in the procedure file according to the data size.
  • each range of the plurality of parts included in the original file is described in the procedure file by the start position and data size of the part.
  • step S14 the generation unit 14 further determines whether the medium has enough free space for recording the MP4 file based on the data size of the MP4 file described in the procedure file. Also good. Thus, since it is determined whether or not there is enough free space for recording the MP4 file on the medium, if there is no free space, processing such as canceling the generation of the MP4 file in advance may be performed. it can. That is, it is possible to prevent an error from occurring.
  • the MP4 file attributes are described in the procedure file. Therefore, the file generation apparatus 10 may further read out the attribute described in the procedure file.
  • the MP4 file attribute is read from the procedure file before the MP4 file is generated, it can be determined in advance whether or not the desired MP4 file is generated.
  • the procedure file describes the buffer size required for playing MP4 files. Therefore, the file generation device 10 may further read the buffer size described in the procedure file. Thus, if the buffer size necessary for reproducing the MP4 file is read from the procedure file, it is possible to easily determine whether or not the MP4 file can be reproduced without analyzing the MP4 file.
  • the file generation device 10 further specifies the file having the first file name described in the procedure file as the original file, and specifies the file having the second file name described in the procedure file as the difference file. May be. Thereby, the original file and difference file used for generating the MP4 file can be appropriately acquired.
  • step S14 the generation unit 14 combines header information corresponding to MP4 that is data included in the difference file with data included in the original file. Thereby, an MP4 file having appropriate header information of MP4 can be easily generated.
  • step S11 the original file acquisition unit 11 may acquire an original file in a plain text state, and in step S14, the generation unit 14 may encrypt the generated MP4 file.
  • the confidentiality of the data can be ensured while leaving the data contained in the original file as the MP4 file.
  • step S14 every time the part constituting the original file is acquired, the generation unit 14 generates and encrypts the part of the MP4 file corresponding to the part, and the part constituting the MP4 file is encrypted. Each time it is done, the portion of the original file corresponding to that portion may be deleted. Thereby, it is possible to prevent all the data included in the plaintext original file from being temporarily stored in the storage area, and to ensure the confidentiality of the data more reliably.
  • the MP4 file is generated using the difference file and the copy manifest file.
  • the MP4 file may be generated without using these files.
  • an MPEG2-TS stream file composed of a plurality of Source Packets each having a plaintext header is converted into an MP4 stream file using a counter.
  • an MP4 stream file is generated.
  • the MPEG2-TS stream file is an original file
  • the MP4 stream file is an MP4 file.
  • FIG. 9 is a diagram for explaining a file generation method in the present modification.
  • An MPEG2-TS stream file (that is, content) is composed of a plurality of source packets as described above.
  • the source packet is abbreviated as SP.
  • each source packet included in the MPEG2-TS stream file in this modification only the TS Payload portion of the data included in the source packet is encrypted. That is, among the data included in the source packet, TS_extra_header and TS Header are not encrypted and are plain text.
  • AES-CTR (CountTeR) mode is used for encryption.
  • encryption and decryption are performed using the counter value.
  • FIG. 9 using the value of the video counter (AES Counter for Video), multiple TS Payloads each containing video data are encrypted, and the value of the audio counter (AES Counter for Audio) is Are used to encrypt a plurality of TS Payloads each including audio data.
  • the video counter counts only the video source packet data so that the count value increases in accordance with the arrow shown in FIG.
  • the audio counter counts only the audio source packet data so that the count value increases in accordance with the arrow shown in FIG. Details of encryption in the AES-CTR mode will be described later.
  • the file generation device can easily convert an MPEG2-TS stream file into an MP4 stream file by taking out only TS Payload from each of a plurality of Source Packets included in the MPEG2-TS stream file. it can.
  • FIG. 10A is a diagram for explaining data encryption in the AES-CTR mode.
  • a key and an initial value IV (Initial Vector) are used.
  • the ciphertext c1 corresponding to the first 16 bytes is generated by the exclusive OR operation between the value obtained by this encryption and the first 16 bytes of the data to be encrypted (m1 shown in FIG. 10A).
  • the ciphertext c2 corresponding to the next 16-byte data is generated.
  • a ciphertext is generated by performing an exclusive OR in bit units in the last block.
  • FIG. 10B is a diagram for explaining data decoding in the AES-CTR mode.
  • the same processing as that for encryption is performed on the data to be decrypted. That is, at the time of decryption, the process of encrypting the IV using the key is performed.
  • the file generation method is a file generation method for generating an MP4 file, which acquires an original file composed of a plurality of packets, and for each packet included in the original file, Among them, only the remaining encrypted payload portion excluding the header information in the plaintext state is acquired and combined to generate an MP4 file.
  • the original file configured in the MPEG2-TS file format is acquired.
  • an MP4 file can be easily generated without returning an original file constituted by a file format such as MPEG2-TS to each stream such as a video stream or an audio stream.
  • there is no need to decrypt and re-encrypt the original file Therefore, it is possible to suppress the processing load for generating the MP4 file.
  • the payloads of the plurality of packets including video data are encrypted using the counter value of the first counter for video
  • the audio data Each of the payloads of the plurality of packets including is encrypted using a counter value of a second counter for audio different from the first counter.
  • the first counter counts only data included in each of a plurality of packets corresponding to video from the beginning of the original file to the back, and the second counter proceeds from the beginning of the original file to the back. Thus, only the data included in each of the plurality of packets corresponding to the audio is counted.
  • the first counter is used as a video-dedicated counter, it is possible to easily decode a video elementary configured by combining the payloads of a plurality of packets corresponding to video in the MP4 file. it can.
  • the second counter is used as an audio-only counter, it is possible to easily decode an audio elementary configured by combining the payloads of a plurality of packets corresponding to audio in the MP4 file. it can.
  • the original file is composed of a plurality of aligned units, and each of the plurality of aligned units is composed of a plurality of source packets.
  • the plurality of packets included in the original file are a plurality of Source Packets included in each of the plurality of Aligned Units.
  • the payload is TS Payload
  • the header information is composed of TP_extra_header and TS Header.
  • the MP4 file is generated using the difference file and the copy manifest file.
  • the MP4 file may be generated without using these files.
  • an MPEG2-TS stream file including auxiliary information is converted into an MP4 stream file using the auxiliary information. As a result, an MP4 stream file is generated.
  • an access unit in MPEG2-TS includes both initialization information essential for decoding a video picture or audio frame, and encoded data of a picture or frame.
  • an access unit (referred to as a sample or MP4 sample in MP4) in an MP4 file is composed only of encoded data of a picture or a frame, and initialization information necessary for decoding is encoded data as header information of the MP4 file. Stored separately.
  • auxiliary information for reducing the amount of processing related to the conversion and a method of converting a multiplexed format using the auxiliary information explain.
  • the encoded data is encrypted, the amount of processing when decrypting and re-encrypting is large.
  • conversion to an MP4 file can be performed only by copying data without decrypting the encoded data.
  • the MPEG2-TS stream file that is the original file before conversion may be another TS (transport stream).
  • the original file is not only a TS specified by the MPEG-2 system, but also a TS (for example, a Blu-ray disc or a TS used for video distribution) in which header information of a predetermined number of bytes is added to the TS packet.
  • the MP4 file generated by the conversion may be an MP4 file using “Movie fragment”, or an MP4 file not using “Movie fragment”.
  • the format of the file generated by the conversion is DEFF (Digital Entertainment Content Ecosystem) CFF (Common File Format) or MPEG-DASH (Dynamic Adaptive Stream) such as MPEG4 based on MP4. Good.
  • the original file will be described as a transport stream.
  • FIG. 11 is a diagram showing an example in which an MPEG-4 AAC access unit stored in a transport stream is stored in an MP4 file.
  • the MPEG-4 AAC access unit in the transport stream is composed of three types of data: LATM (Low Overhead Audio Transport Multiplex) header, PayloadLengthInfo (), and PayloadMux ().
  • LATM header includes initialization information necessary for decoding MPEG-4 AAC encoded data (also referred to as AAC data) such as the number of channels and sampling frequency. More specifically, the initialization information is stored in AudioSpecificConfig () in the LATM header.
  • PayloadLengthInfo () stores the size of PayloadMux (), and AAC data is stored in PayloadMux ().
  • AudioSpecificConfig () in the LATM header is stored in the sample entry in stsd in the moov of the MP4 file.
  • PayloadLengthInfo () and PayloadMux () are stored in mdat as sample data.
  • sample data is data stored in the sample.
  • sample data in mdat is referred to from moov, or when “Movie fragment” is used, sample data in mdat is referred to from moof.
  • an ADTS (Audio Data Transport Stream) header is used instead of a LATM header, and an access unit is composed of an ADTS header and AAC data (called raw_data_block ()).
  • the ADTS header is separated from the access unit, and at least ads_fixed_header () among the data included in the ADTS header is stored in the sample entry.
  • AAC data is stored in mdat as sample data.
  • FIG. 12 is a diagram illustrating an example in which an access unit of MPEG-4 AVC (Advanced Video Coding) stored in the transport stream is stored in MP4.
  • MPEG-4 AVC Advanced Video Coding
  • initialization information necessary for decoding such as Sequence Parameter Set (SPS) and Picture Parameter Set (PPS), is stored as part of the access unit.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • the initialization information is stored as the header information of the MP4 file.
  • the access unit shown in FIG. 12 constitutes an IDR (Instantaneous Decoder Refresh) picture.
  • NPS Network Adaptation Layer
  • SPS Network Adaptation Layer
  • a mode in which initialization information such as SPS and PPS can be included in MPEG-4 AVC sample data can be selected.
  • the mode is indicated by the identification information of the sample entry.
  • the identification information is “avc1” or “avc2”, it is prohibited to include the initialization information in the sample data.
  • the identification information is “avc3” or “avc4”, it is permitted to include initialization information in the sample data. Therefore, when the transport stream is converted into an MP4 file, when the above-described identification information in the MP4 file is set to “avc1” or “avc2”, the data stored in the mdat from the access unit in the transport stream is set.
  • the NPS unit of SPS and PPS or the NAL unit of FillerData used for stuffing is deleted from the inside.
  • the identification information is set to “avc3” or “avc4”
  • the SPS or PPS NAL unit does not have to be deleted. Therefore, whether to delete SPS and PPS may be switched according to the setting value of the identification information in the MP4 file.
  • HEVC High Efficiency Video Coding
  • MPEG-4 AVC High Efficiency Video Coding
  • initialization information may be included in the sample data. Therefore, when converting the transport stream into an MP4 file, whether to delete the initialization information from the data stored in the mdat from the access unit in the transport stream is determined according to the type of encoding method. The processing may be performed according to the determination result.
  • LATM payload As described above, when storing MPEG-4 AAC encoded data in an MP4 file, the LATM header is separated from the access unit. Furthermore, only PayloadLengthInfo () and PayloadMux () are stored in mdat as sample data. Hereinafter, PayloadLengthInfo () and PayloadMux () are collectively referred to as LATM payload.
  • the LATM header and the LATM payload are stored in separate TS packets. Thereby, the LATM header can be easily separated.
  • FIG. 13A is a diagram showing an example of storing the LATM header and the LATM payload in the TS packet. Stuffing is performed as necessary so that the data of the LATM header and the LATM payload are not mixed in the payload of the same TS packet.
  • the LATM header of access unit 1 is stored in the payload of the first TS packet.
  • stuffing is performed on the remaining area of the TS payload.
  • the PES packet is not described, but actually, the data of the access unit is stored in the payload of the PES packet, and the data of the PES packet is stored in the payload of the TS packet.
  • the payload_unit_start_indicator of the TS header is set to 1 in the TS packet including the head data of the PES packet. If it is ensured that the LATM header is included in the payload of the TS packet in which payload_unit_start_indicator is set to 1, whether or not the LATM header is included in the TS packet can be determined based on the value of payload_unit_start_indicator.
  • an AU_info table as auxiliary information may be arranged at the head of the payload of the PES packet.
  • This AU_info table includes the number of access units included in the payload of the PES packet, the LATM header and the size of the LATM payload in each access unit.
  • FIG. 13B is a diagram illustrating an example of the syntax of the AU_info table.
  • the AU_info table includes AU_info_identification_code, number_of_AU indicating the number of access units, and a size_of_LengthInfo indicating the size of the LATM header and LATM payload in the access unit.
  • AU_info_identification_code is a bit string specific to the AU_info table. By searching this code, it can be determined whether or not the AU_info table exists.
  • the AU_info table may have a data structure in which the Box data size and the Box type are combined. However, if the presence of the AU_info table is signaled by a descriptor in the transport stream or auxiliary data for conversion to an MP4 file prepared separately from the transport stream, the above code is omitted. Also good.
  • the AU_info table may also be used when storing one access unit in one PES packet.
  • a method for identifying data to be separated for conversion to an MP4 file by indicating the size or data offset of each component in the access unit is applied to MPEG-4 AVC encoded data. May be. That is, when storing MPEG-4 AVC encoded data in an MP4 file, the above-described method may be applied to separate the NPS units of SPS and PPS.
  • FIG. 13C is a diagram illustrating an example of the syntax of the AU_info table for indicating whether or not each constituent element in the access unit needs to be excluded from the sample data of the MP4 file.
  • the AU_info table includes AU_info_identification_code, number_of_data_unit, size_of_data_unit, and conversion_mode.
  • number_of_data_unit indicates the number of data units included in the access unit.
  • size_of_data_unit indicates the size of the data unit.
  • the conversion_mode is a conversion mode indicating how to handle the data unit at the time of conversion to the MP4 file. If the conversion_mode is 0, the conversion_mode indicates that the data unit is copied as sample data of the MP4 file. If the conversion_mode is 1, the conversion_mode indicates that the data unit is excluded from the sample data, that is, the data unit is not copied as the sample data.
  • the conversion_mode may indicate the handling of the data unit after the data unit is excluded. For example, the conversion_mode indicates that the data unit is excluded from the sample data and then stored in the sample entry.
  • information of each of the plurality of data units is stored in ascending order in the decoding order. For example, when one access unit of MPEG-4 AVC is stored as one PES packet, the data unit corresponds to a NAL unit, and the number of NAL units constituting the access unit is indicated by num_of_data_unit. Then, conversion_mode is set to 1 for each NPS unit of SPS and PPS. Each of the LATM header and the LATM payload may be regarded as a data unit. In this case, by setting the conversion_mode to 1 for the data unit corresponding to the LATM header, this AU_info table can be applied to the MPEG-4 AAC. When a plurality of access units are stored in the PES packet, number_of_data_unit indicates the total number of data units included in all the access units in the PES packet.
  • the AU_info table may be stored in the adaptation_field of the TS packet header (TS Header in FIG. 3) including the start portion of the PES packet.
  • the AU_info table may be stored as a part of encoded data such as NAL unit in MPEG-4 AVC or HEVC or SEI (Supplemental Enhancement Information).
  • the AU_info table can be stored for each access unit or for each random access.
  • the AU_info table may be stored for each PES packet, and only in the PES packet including the access unit leading in the decoding order in the random access unit.
  • a table may be stored.
  • the AU_info table stores information on all access units constituting the random access unit.
  • FIG. 14 is a block diagram showing a configuration of a file generation apparatus according to this modification.
  • the file generation apparatus 100 generates the MP4 file by converting the transport stream including the AU_info table into the MP4 file.
  • the file generation apparatus 100 includes an auxiliary information search unit 101, an auxiliary information analysis unit 103, and a generation unit 104.
  • the auxiliary information search unit 101 searches the AU_info table that is auxiliary information from the transport stream.
  • the auxiliary information analysis unit 103 determines whether or not an AU_info table exists based on the search result. Further, when the auxiliary information analysis unit 103 determines that the AU_info table exists, the auxiliary information analysis unit 103 analyzes the AU_info table.
  • the generation unit 104 generates an MP4 file based on the analysis result from the auxiliary information analysis unit 103.
  • the generation unit 104 includes a sample generation unit 104a and a sample entry generation unit 104b.
  • the sample generation unit 104a stores LATM payload data or NAL units other than SPS and PPS as sample data in the mdat of the MP4 file.
  • the sample entry generation unit 104b stores the LATM header data or each NPS unit of SPS and PPS in the sample entry in stsd in the moov of the MP4 file.
  • Such a file generation device 100 can easily convert a transport stream including the AU_info table described above into an MP4 file.
  • MPEG2-TS and MP4 have different storage locations for initialization information required for decoding. Furthermore, the storage format of NAL units in MPEG-4 AVC or HEVC differs between MPEG2-TS and MP4. Therefore, conversion from a transport stream to an MP4 file requires conversion of the storage format.
  • the storage format of the NAL unit in MPEG2-TS and MP4 will be described with reference to FIGS. 15A to 15C.
  • FIG. 15A is a diagram showing a schematic structure of a NAL unit.
  • the NAL unit is composed of a header and a payload.
  • type information indicating the type of data stored in the payload is stored.
  • FIG. 15B is a diagram showing an example of the storage format of the NAL unit in MPEG2-TS.
  • MPEG2-TS a unique bit string called a start code is added to the NAL unit as identification information in order to identify the boundary of the NAL unit (hereinafter, the format of such identification information is called a start code format).
  • a decoding device or the like can separate a desired NAL unit by searching the start code and the type information stored in the header of the NAL unit.
  • FIG. 15C is a diagram showing an example of the storage format of the NAL unit in MP4.
  • MP4 in order to identify the boundary of the NAL unit, a field indicating the data size of the NAL unit as identification information is added to the NAL unit (hereinafter, the format of such identification information is referred to as a NAL size format).
  • the field length of the field indicating the data size is stored in the AVCDecoderConfigurationRecord in the sample entry.
  • AVCDecoderConfigurationRecord is an area for storing initialization information at the time of decoding.
  • a decoding device or the like can separate a desired NAL unit based on the data size of the NAL unit.
  • MPEG2-TS and MP4 also differ in that the format of identification information indicating the boundary between NAL units is a start code format or a NAL size format. Therefore, when converting a transport stream into an MP4 file, it is necessary to convert identification information indicating the boundary of the NAL unit. Since the storage format of the NAL unit is defined for each encoding method, the conversion operation to the MP4 file may be switched with reference to the audio or video encoding method.
  • NAL unit data size is required. Therefore, it is desirable that the data size of the NAL unit constituting the access unit can be acquired in advance. By doing so, it is possible to reduce the processing amount when determining the data size of the NAL unit by searching the start code in the access unit of the start code format and detecting the NAL unit boundary.
  • size information indicating the data size of each NAL unit included in the access unit is stored at the head of the access unit in the transport stream in this modification.
  • FIG. 16A is a diagram illustrating a configuration example of an access unit in the transport stream according to the present modification.
  • size information indicating the data size of each NAL unit constituting the access unit multiplexed in the transport stream is stored at the head of the access unit.
  • this size information is stored in a newly defined size information NAL unit.
  • NAL unit types include private and user data. Therefore, one of these types is selected, and the selected type of NAL unit is used as the size information NAL unit. Since there is no need to encrypt the size information, this size information NAL unit is stored in plain text.
  • FIG. 16B is a diagram illustrating an example of the syntax of the size information included in the size information NAL unit.
  • the size information includes number_of_nalu and nal_size.
  • number_of_nalu indicates the number of NAL units constituting the access unit
  • nal_size indicates the data size of each NAL unit. Since the size information NAL unit is not stored in the MP4 file, the size information may not indicate the data size of the size information NAL unit itself.
  • the size information NAL unit is arranged in front of the NAL unit for signaling the head of the access unit called Access Unit Delimiter (AUD), but is arranged immediately after the AUD. Also good.
  • AUD Access Unit Delimiter
  • the size information of the size information NAL unit indicates the size of each NAL unit after the AUD. Therefore, the size information does not indicate the data size of AUD. However, since the data size of the AUD is fixed, the file generation device 100 may store the data size in advance. Further, similarly to the AU_info table, the size information may be arranged at the head of the payload of the PES packet.
  • FIG. 16C is a diagram illustrating another example of the syntax of the size information included in the size information NAL unit.
  • a variable length code such as zero_byte may be included in front of the NAL unit in the transport stream in addition to the start code. Therefore, as shown in FIG. 16C, the data size of the identification information including the start code of the NAL unit (prefix_size shown in FIG. 16C) may be stored in the size information. If the data size of the identification information is fixed, the data size of the identification information may be stored in the MPEG2-TS descriptor or auxiliary data at the time of conversion to the MP4 file. Further, in the NAL size format, the field length of the field indicating the data size of the NAL unit after conversion into the MP4 file may be indicated.
  • the identification information may be regarded as a data unit, and the contents of Nal_size_info may be indicated by an AU_info table.
  • a mode of converting the data structure of the data unit may be added in addition to the two operations of deleting the data unit and leaving it as it is by making conversion_mode multi-valued.
  • identification information for identifying the type of the data unit may be added to the AU_info table.
  • the type of NAL unit such as an SPS NAL unit, a PPS NAL unit, or a slice NAL unit in MPEG-4 AVC or HEVC can be determined based on such identification information.
  • a field indicating whether or not the data unit is encrypted may be provided separately.
  • Data units with different conversion_modes may be stored in different TS packets.
  • the conversion_mode is 2
  • the data unit stored in the sample entry as header information may be stored in the TS packet as plain text.
  • NAL unit of the slice data may be encrypted, and the other parts may be plain text. Since encryption is performed in units of TS packets, plaintext and encrypted parts cannot be mixed in the payload of TS packets, AUD has a small data size, and if AUD is stored as an independent packet, stuffing increases and multiplexing This is because efficiency decreases. Further, stuffing is necessary when the boundary of the NAL unit data of the encrypted slice is not aligned with the end of the payload of the TS packet. When performing stuffing, there is a method of using adaptation_field of a TS packet header, or inserting Filler Data NAL unit or Filler Data SEI into encoded data.
  • the adaptation_field of the TS packet header When the adaptation_field of the TS packet header is used, the adaptation_field needs to be in plain text, but switching the process of whether or not to encrypt a variable-length area is expensive. Therefore, when performing stuffing, it is desirable that the boundary of the NAL unit data is aligned with the end of the payload of the TS packet by using the stuffing data structure in the encoded data.
  • the user data storage SEI (User unregistered SEI) may be inserted into the adaptation field of the TS packet or the access unit, and the size information may be stored in the SEI.
  • the start code format can be converted to the NAL size format based on the size information of the NAL unit stored by any one or more of these methods. Further, information indicating whether size information is stored may be stored using a descriptor in MPEG2-TS.
  • FIG. 17 is a flowchart showing a processing operation in which the file generation device 100 according to this modification generates an MP4 file. Specifically, this flowchart shows an example of a processing operation for changing a transport stream into an MP4 file with reference to the AU_info table shown in FIG. 13C.
  • the auxiliary information search unit 101 of the file generation device 100 searches the AU_info table arranged at the beginning of the payload of the PES packet (step S101).
  • the auxiliary information analysis unit 103 determines whether or not an AU_info table exists based on the search result (step S102).
  • the auxiliary information analysis unit 103 includes the data size of each data unit included in the AU_info table and the conversion of each data unit.
  • the mode is acquired (step S103).
  • the sample generation unit 104a of the generation unit 104 regards the access unit separated from the PES packet as a data unit, and samples the data unit. The data is copied and pasted on mdat (step S105).
  • the sample generation unit 104a regards the payload of the PES packet as data for one access unit and separates it.
  • the sample generation unit 104a searches for the boundary of each access unit in the encoded data. To separate those access units.
  • the auxiliary information analysis unit 103 determines whether the conversion mode is 0 (step S104). If it is determined that the conversion mode is 0 (“Yes” in step S104), the sample generation unit 104a copies the data unit corresponding to the conversion mode as sample data and pastes it to mdat (step S105). On the other hand, if it is determined that the conversion mode is not 0 (“No” in step S104), the auxiliary information analysis unit 103 determines whether or not the conversion mode is 1 (step S106). If it is determined that the conversion mode is 1 (“Yes” in step S106), the sample generation unit 104a converts the data structure of the data unit corresponding to the conversion mode, and converts the converted data structure to the data structure.
  • the stored data unit is stored in mdat as sample data (step S107).
  • the sample generation unit 104a converts the format of the identification information of the NAL unit boundary from the start code format to the NAL size format.
  • the sample entry generation unit 104b stores the data unit corresponding to the conversion mode in the mdat without storing the data unit.
  • the sample entry generation unit 104b stores NPS units of SPS and PPS in MPEG-4 AVC in the sample entry.
  • the sample entry generation unit 104b separates AudioSpecificConfig () from the MPEG-4 AAC LATM header and stores it in the sample entry.
  • the portion stored in the sample entry is defined in advance in the encoding method, but auxiliary data for specifying the storage portion in the sample entry may be indicated in the AU_info table.
  • the address indicating the copy start position of the stream file described in the copy manifest file in the above embodiment may not be an absolute value from the beginning of the stream file.
  • the address indicating the copy start position may be a difference value from the address indicating the copy start position of the immediately preceding entry.
  • mode 1 data is copied alternately from the stream file and the difference file.
  • the range of data to be copied is described as (address of copy start position, copy size), and the bit length of each field is (int32, int8), for example.
  • mode 2 if the copy size is 0, copy is skipped. Since data can be copied continuously from the same file, the data length of the address can be shortened compared to mode 1. For example, the range of data to be copied is described as (address of copy start position, copy size), and the bit length of each field is (int16, int8), for example.
  • mode 3 instead of explicitly indicating the copy size in mode 2, data up to the end of the payload of the TS packet indicated by the address is copied.
  • the copy size field is omitted.
  • a difference value between index numbers of TS packets in the stream file may be used.
  • the range of data to be copied is described as (packet number, copy mode), and the bit length of each field is, for example, (int7, int1).
  • the copy mode indicates whether copying is skipped.
  • FIG. 18 is a diagram showing a specific example of address designation when mode 2 is used.
  • the start position 1 and the start position 2 which are copy start positions are the 210th byte and the 91428th byte, respectively.
  • the maximum value of the field length is 65535. Therefore, the difference value of the address cannot be expressed by one entry. Therefore, when jumping from the start position 1 to the start position 2, two entries (65535, 0) and (25683, 180) are used. By doing so, it is possible to acquire 180 bytes of data after jumping to the start position 2.
  • FIG. 19 is a diagram illustrating an example of reading a continuous area exceeding the upper limit of the copy size.
  • the address or copy size indicating the copy start position may be described in units of 4 bytes instead of units of 1 byte.
  • identification information indicating whether to copy from a difference file or a stream file is separately provided, so that entries for one file are not consecutively described, but entries for one file are consecutive. May be described.
  • FIG. 20 is a diagram for explaining a process of creating an MP4 file by copying data from an elementary stream.
  • an MPEG2-TS file in which video is multiplexed is 10 GB and the size of a TS packet is 192 bytes
  • the number of packets is 55924053, and the same number of entries is required.
  • the playback time length of this video is 2 hours and the frame rate is 30 Hz
  • the total number of frames is 216000. Therefore, when an entry is generated for each frame, the number of entries can be greatly reduced as compared with a case where an entry is generated for each packet.
  • an MPEG2-TS file is double-encrypted by AACS (Advanced Access Content System) and BD +, and data is interleaved and rearranged by BD +. Even in such a case, the order of the data constituting the encoded stream can be uniquely determined after decryption and separation of the encoded stream, so that the copying operation according to this method is possible.
  • AACS Advanced Access Content System
  • the entry consists of (file ID, copy start position address, copy size).
  • the bit length of each field is, for example, (int4, int22, int22 in 1-byte units).
  • the file ID is identification information of a file including data to be copied. For example, 0 is assigned to the difference file as the file ID, and a value of 1 or more is assigned to the file of the elementary stream.
  • the maximum size of one frame is about 4 Mbytes.
  • the maximum difference value of the address at the copy start position may be the maximum size of one frame, and 4 Mbytes can be expressed by 22 bits.
  • the copy size is 22 bits in order to express the maximum size of one frame.
  • the entry consists of (file ID, copy start position address, copy size).
  • the bit length of each field is, for example, (int4, int12, int16 in 1-byte units).
  • AVC or HEVC it is necessary to convert the header of the NAL unit from the start code format to the NAL size format, and it is necessary to copy data in units of payload of the NAL unit. For this reason, a field for the address of the copy start position is provided, but if the elementary stream in the TS can be copied as it is, the field of the address for the copy start position may be omitted.
  • one entry may indicate the entire NAL unit, and the header of the NAL unit may be converted into a NAL size format after copying. Also at this time, since the data can be read continuously, the address of the copy start position is unnecessary.
  • a plurality of MPEG2-TS files can be continuously reproduced by referring to a playlist, and a stream constraint condition at a file boundary is also defined. For example, when a plurality of files or playback sections are seamlessly connected, the playback sections of two audio to be connected may be overlapped.
  • MP4 it is possible to specify a plurality of MP4 files that are continuously played back using a playlist, and it is assumed that the same constraints are added.
  • FIG. 21 is a diagram showing an example of audio and video playback sections in two MP4 files that are played back continuously.
  • the audio playback sections overlap.
  • DTS Decode TimeStamp
  • PTS Physical Transport Stream
  • Information indicating whether or not the MP4 playback sections overlap or information indicating the overlapping playback sections is stored in the playlist or MP4 file.
  • the PTS of the first sample of audio and video in the MP4 file referred to by the play item in the playlist and the playback end time of the last sample are described.
  • the absolute time of the DTS or PTS of the first sample of the MP4 file may be stored in the moov of the MP4 file.
  • the absolute time of DTS or PTS of the first sample of Movie fragment or the first sample of each track in Movie fragment may be stored in moof or traf.
  • MP4 there is no overlap or gap in the video playback section, and it is guaranteed that PTS is continuous. In this case, it is only necessary to show the information about overlap only for audio or text.
  • XXX2. If the PTS of the first sample of the MP4 video is T0, XXX2.
  • An offset value between T0 and the reproduction end time of the last sample of the MP4 audio may be stored.
  • the offset value with the PTS of the first sample of MP4 is set to XXX2. You may store in MP4.
  • the playback device selects or synthesizes audio samples to be output based on these pieces of information related to overlap. Note that the video playback sections may be overlapped, or the audio or video playback sections may not be overlapped, but a gap may be
  • a plurality of files are continuously played using a playlist.
  • a single MP4 file may be generated by integrating playback sections that are played back continuously. .
  • FIG. 22A is a diagram for explaining a method of generating one MP4 file by integrating playback sections.
  • playback section 1 and playback section 2 are integrated to form XXX3.
  • MP4 is generated.
  • the audio in the playback section 1 is composed of, for example, 100 samples from sample 1-1 to sample 1-100.
  • the audio in the playback section 2 is composed of, for example, 100 samples from sample 2-1 to sample 2-100.
  • audio will be described as an example.
  • samples 2-1 to 2-100 are stored following samples 1-1 to 1-100, and each sample is played back in order during playback.
  • start time: PTS, end time: PTS + playback time length start time: PTS, end time: PTS + playback time length
  • sample 2-1 is deleted and XXX3.
  • An MP4 audio track is configured. Thereby, the overlap between samples is eliminated. The same applies to the case where the playback section of the plurality of samples included in the playback section 1 and the playback section of the plurality of samples included in the playback section 2 overlap.
  • ⁇ T be the time length of the overlapping playback sections.
  • the last sample in the playback section 1 and the first sample in the playback section 2 are different from each other, and ⁇ T is stored in the trof of the moof. This ⁇ T indicates that the playback section of ⁇ T from the beginning of the audio track in the movie fragment included in the playback section 2 overlaps with the playback section of the audio track of the immediately previous movie fragment.
  • a non-reproduction section corresponding to the gap section is generated by the edit list function in MP4 or the duration-is-empty flag set in the movie fragment.
  • an overlap section (overlapping playback section) or a gap section (a section where a gap exists) may be indicated in the metadata in the MP4 header or an external file.
  • MP4 including a gap section has higher affinity with conventional MP4 than MP4 including an overlap section. Therefore, when the MP4 file is generated by integrating the playback sections including the overlap sections, for example, in the playback section 2 of FIG. 22A, samples including at least a part of the overlap sections are deleted.
  • a non-reproduction section is generated. This method can be applied not only to audio but also to video and subtitles. Further, information indicating whether or not deletion is necessary, a sample that needs to be deleted, a time length of a gap generated as a result of deletion, and the like may be stored as auxiliary information such as a copy manifest.
  • Such a playback apparatus that plays back an MP4 file plays back audio data in the overlap section based on information such as the overlap section included in the MP4 file. That is, if the audio data to be reproduced is data in the overlap section, the playback apparatus synthesizes the decoding result of the audio sample including the data in each overlapped playback section, for example. Then, the playback device outputs the synthesized decoding result. Further, when integrating playback sections that are continuously played back, it is necessary to identify whether or not an overlap section or a gap section exists in the playback section to be integrated. Therefore, information indicating the presence / absence of an overlap section and the time length thereof may be acquired as auxiliary information in the optical disc or from the Internet.
  • FIG. 22B is a block diagram of the file generation apparatus according to the present embodiment.
  • the file generation apparatus 20 in the present embodiment is a file generation apparatus that generates an MP4 file, and includes an integration unit 21 and a storage unit 22.
  • the integration unit 21 generates one MP4 file by integrating the two streams so that the two streams are continuously reproduced.
  • the storage unit 22 stores, in the generated MP4 file, information indicating a section in which the playback timing overlaps in each of the two streams.
  • the above-mentioned two streams are the playback section 1 and the playback section 2 shown in FIG. 22A
  • the generated MP4 file is a file “XXX3.MP4” shown in FIG. 22A.
  • the section where the playback timing overlaps in each of the two streams is, for example, a section of ⁇ T shown in FIG. 22A.
  • FIG. 22C is a flowchart of the file generation method in the present embodiment.
  • the file generation method in the present embodiment is a file generation method for generating an MP4 file, and includes step S21 and step S22.
  • step S21 one MP4 file is generated by integrating the two streams so that the two streams are continuously reproduced.
  • step S21 information indicating a section where the reproduction timing overlaps in each of the two streams is stored in the generated MP4 file.
  • step S21 two streams that are at least part of the original file each configured in the MP4 file format are integrated.
  • two streams each including audio data are integrated.
  • the playback device that plays back the MP4 file can easily specify the data of the overlap section from the MP4 file using the information.
  • the playback apparatus can appropriately play back the data by combining the data in the overlapping section. That is, an MP4 file suitable for overlapping reproduction can be generated.
  • step S21 if the above-described section exists over a plurality of samples included in any one of the two streams, the two streams are deleted after deleting at least one of the plurality of samples. To integrate. Thereby, since the sample is deleted, the overlap section can be shortened. As a result, it is possible to reduce the burden of special processing by the playback device for the overlap section.
  • step S22 time information indicating the time length of the above-described section is stored in the MP4 file as the above-described information. That is, the time information indicating the above ⁇ T is stored in the MP4 file.
  • a playback apparatus that plays back an MP4 file can easily specify the time length of the overlap section using the information.
  • the reproducing apparatus can appropriately reproduce the data within the specified time length by combining the data of the overlapping sections.
  • step S22 the time information is stored in the traf in the moof in the MP4 file. Thereby, the reproducing
  • the information may be acquired from a device holding the above information via a communication network such as the Internet.
  • the information may be obtained from an optical disk on which the above information is recorded. Accordingly, the information can be easily stored in the MP4 file without generating information indicating the overlap section.
  • FIG. 22D is a block diagram of the playback device in the present embodiment.
  • the playback device 30 in the present embodiment is a playback device that plays back an MP4 file, and includes an extraction unit 31 and a synthesis unit 32.
  • the extraction unit 31 extracts, from the MP4 file, information indicating two sections in which playback timing overlaps in a playback target content (for example, an audio track).
  • the synthesizing unit 32 specifies two sections in the content based on the extracted information, and synthesizes and outputs the decoding results for the respective data in the two sections.
  • FIG. 22E is a flowchart of the reproduction method according to the present embodiment.
  • the reproduction method in the present embodiment is a reproduction method for reproducing an MP4 file, and includes step S31 and step S32.
  • step S31 information indicating two sections where the playback timing overlaps in the content to be played (for example, an audio track) is extracted from the MP4 file.
  • step S32 two sections in the content are specified based on the extracted information, and the decoding results for the respective data in the two sections are synthesized and output.
  • the playback device can easily specify the data of the overlap section from the MP4 file. As a result, the playback device can appropriately play back the data in the overlap section.
  • the recording medium in the present embodiment is a recording medium that records an MP4 file.
  • the MP4 file includes content (for example, an audio track) that is read and reproduced by a computer, and information indicating two sections in which reproduction timing overlaps.
  • the playback device that reads and plays back the MP4 file from the recording medium can easily specify the data of the two sections described above from the MP4 file using the information.
  • the playback device can appropriately play back the data by combining the data of those sections.
  • FIG. 23A is a diagram illustrating an example of a menu screen when an MP4 file is generated from content stored on an optical disc.
  • FIG. 23B is a diagram for explaining a method of generating an MP4 file using an optical disc and a network.
  • audio and subtitles in multiple languages are stored, and when the MP4 file is generated, the language stored in the MP4 file can be selected.
  • Japanese and English are selected for each of audio and subtitles from Japanese, English, Spanish, and Chinese stored in the disc.
  • the sample size in audio or subtitle differs for each language, the content of the copy manifest file depends on the sample size. For this reason, the number of copy manifest files increases in proportion to the combination of selected languages in audio or subtitles. Therefore, the MP4 file may always store audio and subtitle data in all languages, further store information indicating the language selected by the user, and select the user's desired language during playback. . By doing so, the copy manifest file can be made the same regardless of the selected language.
  • an audio encoding method such as AAC or AC3 may be selected depending on whether or not a device that plays back an MP4 file has support.
  • audio data of all encoding methods may be stored in the MP4 file. In the case of storing audio data of all encoding methods, at the time of reproduction, the encoding method is selected based on a user's selection operation or preset information of the reproduction device.
  • the audio and subtitles of all languages may be stored without selecting the language when generating the MP4 file, and the user may select it during playback.
  • the copy manifest file can be acquired via the network, it is not necessary to store the copy manifest file on the optical disc. In particular, when the number of copy manifest files increases to make it possible to select an arbitrary language, acquisition via a network is effective. Only the copy manifest file corresponding to the default language combination may be stored in the optical disc, and the copy manifest file corresponding to the other combination may be downloaded from the server.
  • audio or subtitles in a language that can be acquired from an optical disc or a network, and audio or subtitle languages included in the MP4 file are respectively acquired, and an external language out of the languages not included in the MP4 file is acquired.
  • the user may select and acquire a language that can be acquired from.
  • a list of externally obtainable audio is stored in an MP4 file or the like. If the playback apparatus cannot decode the audio encoding system in the MP4 file during playback of the MP4 file, the audio of the encoding system supported by the playback apparatus may be selected and acquired from the outside. At this time, the data acquired from the outside may be encoded data including only captions or audio, or an MP4 file. At this time, at the time of reproduction, the video etc. included in the original MP4 file and the newly acquired data are reproduced synchronously. Alternatively, a complete MP4 file including all of video, audio, and subtitles may be acquired from the outside.
  • the content stored on the optical disc may be an MP4 file instead of an MPEG2-TS file.
  • the MP4 file data stored in the optical disc may be copied or exported as it is to a device-bound or media-bound recording medium or device without performing the conversion process.
  • the key for encrypting the content may be changed.
  • a device that generates an MP4 file such as a BD player converts the content in the optical disc into the MP4 file by determining whether the content in the optical disc is in the MPEG2-TS format or the MP4 format based on the identification information of the data format.
  • An MP4 file may be generated by determining whether it is necessary.
  • auxiliary information such as a copy manifest file may indicate information indicating whether conversion to MP4 is necessary. Further, even if the content stored on the optical disc is in the MP4 format, the user may select a type such as audio or subtitles in a specific language in the content, a theater release version, or a director's cut version. Then, only the data selected from the MP4 file in the optical disk based on the selection result may be extracted to generate the MP4 file.
  • the file size can also be reduced by indicating the information for specifying the multiplexing unit of the output MP4 file in the copy manifest file, and the number of copy manifest files can be reduced. It is effective when there are many.
  • the information shown in the copy manifest it is possible to uniquely determine the unit of the movie fragment in the MP4 file and use language-independent information.
  • the information is, for example, the identification information of the PTS or DTS of the sample that is the head of the movie fragment, or the MPEG2-TS file from which the sample data is acquired.
  • the MP4 file header information cannot be included in a copy manifest file that can be used in common for different languages. Therefore, when converting to an MP4 file, the unit of the movie fragment is determined based on the copy manifest file, and the header information of the MP4 file is generated based on the PTS or DTS for each sample or the size of the sample. To do.
  • the size of the NAL unit constituting the access unit (corresponding to the sample of the MP4 file) and information indicating the PTS or DTS may be stored in the copy manifest.
  • FIG. 24 is a diagram showing an example of a copy manifest showing the NAL unit size, PTS, and DTS.
  • the MPEG2-TS start code format can be converted to the MP4 NAL size format using the size information.
  • the size information may indicate the size of the start code portion and the size of the NAL unit portion separately.
  • the byte length of the field indicating the size of the NAL unit may be the same as the byte length of the size portion in the NAL size format.
  • the data in the start code portion can be converted into the NAL size format by replacing the data indicating the size of the NAL unit portion.
  • This start code corresponds to the identification information shown in FIG. 15B and includes zero_byte.
  • the PTS or DTS may be expressed not in the PTS or DTS value in the MPEG2-TS PES header but in the data format used in the MP4 header.
  • the difference value between the DTSs of two samples that are consecutive in decoding order can be shown, and for PTS, the difference value between DTS and PTS can be shown.
  • information indicating the absolute value of the PTS or DTS of the first sample may be stored. Further, information for identifying a NAL unit to be deleted at the time of conversion to an MP4 file may be added.
  • header information such as ADTS and LATM is deleted from the sample data.
  • size of the header information is fixed, only one of the total value of the header information and the size of the payload data and the size of the payload data may be indicated.
  • the frame rate is fixed, only the default value may be indicated in the DTS information.
  • the playback time length for each sample may also be different.
  • a copy manifest file may be prepared for each audio encoding method.
  • subtitle data when subtitle data is stored in the MP4 file, the subtitle data may be stored together at the end of the file.
  • FIG. 25 is a diagram showing an example of caption data stored at the end of the MP4 file.
  • the movie fragment of the AV (Advanced Video) data is the same.
  • the video or audio movie fragment and the subtitle movie fragment are interleaved and stored, it is necessary to change the contents of the moof. This is because the position of the movie fragment of the AV data changes when the size of the caption data changes.
  • caption data is smaller in size than AV data. Therefore, it is also possible to reproduce the subtitle data of the entire content or the subtitle data included in a unit such as a chapter obtained by dividing the content in a memory collectively. At this time, if subtitle data is stored together at the end of the file, there is an advantage that the subtitle data can be easily obtained.
  • the caption data may be based on a text font or image data in a PNG (Portable Network Graphics) format or the like.
  • trun may be generated for each unit such as a chapter to improve accessibility to subtitle data included in a predetermined unit.
  • the trun may be generated so that the size of the caption data constituting the trun is equal to or smaller than the buffer size in accordance with the buffer size that holds the text data during reproduction.
  • subtitle data in a specific language can be easily obtained by storing each language in a different movie fragment.
  • information for specifying the language stored in the movie fragment is required. Therefore, for example, each language may be handled as a different track, and the track ID may be associated with the language.
  • the track ID is indicated by a box in the traf.
  • the information that associates the track ID with the language may be stored in a metadata storage box or the like in MP4, or may be management information different from the MP4 file.
  • the correspondence between languages and movie fragments can be applied to audio.
  • a random accessible sample in video, audio or subtitle is indicated by mfra.
  • the playback sections of video and audio movie fragments that are continuous with each other match, only the video random access points need be shown.
  • an audio sample having the same PTS, immediately before or immediately after can be obtained from the immediately following movie fragment.
  • the PTS of the first sample of video (V-1) matches the first sample of audio (A-1).
  • the text is stored at the end of the file, it is necessary to indicate a random access point independently for the text.
  • audio or subtitle data in all languages in the optical disc content is stored in the MP4 file.
  • a random access point may be indicated in mfra only for a track corresponding to the selected language.
  • the content stored on the optical disc has different resolutions for video and graphics.
  • the resolution of video is 4K
  • the resolution of graphics such as captions is 2K in order to reduce the processing amount.
  • FIG. 26 is a diagram illustrating a case in which subtitles with 2K resolution are scaled to 4K and displayed.
  • information for specifying a subtitle display area is required together with subtitle data and its resolution.
  • the display area is specified using, for example, the size and display position of a rectangular display area.
  • the information indicating the resolution of the track can indicate that the subtitle track is 2K and the video track is 4K.
  • the XML description part of the Timed Text is part of the XML (extensive data) that constitutes the Timed Text.
  • it may be stored in a box indicating metadata in the MP4 file.
  • the resolutions of the video and subtitles are acquired, and if the resolutions of both are different, the subtitles are scaled and displayed so as to match the video resolution.
  • the caption is image data
  • the image data is enlarged, and if it is text data, a size that matches the video resolution is selected.
  • the display area is also determined by calculation according to the scaling coefficient. Information indicating the display area after scaling according to the video resolution may be stored.
  • an MP4 file When generating an MP4 file, data such as audio, video, and subtitles is acquired from content stored on the optical disc and multiplexed into one MP4 file, or a plurality of MP4 files are generated as a DMP format. be able to. For example, a video elementary stream is separated from M2TS data stored on an optical disc to generate a video MP4. For audio and subtitles, an MP4 file including audio and subtitles stored separately from the M2TS is acquired. Then, the MP4 file of the generated video and the MP4 file including the acquired audio and subtitles can be combined into a DMP format. At this time, the MP4 file for audio and subtitles may be a file in which the audio and subtitles are independent or may be multiplexed.
  • an export target is determined with reference to an export playlist.
  • the export playlist may be stored in the disc in advance or may be downloaded via the network.
  • FIG. 27 is a diagram showing a method for storing export data.
  • FIG. 28A is a diagram showing an example of an export playlist.
  • FIG. 28B is a diagram illustrating an example of a copy manifest file.
  • two M2TS files (XXX1.M2TS and XXX2.M2TS) multiplexed with AV
  • an MP4 file YYY1.MP4 multiplexed with export audio are stored in the disc.
  • subtitles can be handled in the same manner as audio.
  • PLAYLIST EXAMPLE 1 is composed of two play items.
  • the video is XXX1.
  • M2TS and XXX2.
  • the audio is YYY1.
  • the start position of the file can be indicated by a logical address in the disk by start_adr.
  • start_adr the start position of the file
  • out_mux may indicate whether the data is multiplexed in the M2TS or stored as a separate file from the M2TS.
  • the MP4 track in which the audio data is stored and the TrackID are shown.
  • the TrackID is used.
  • the field may be omitted.
  • the type of media stored in the file such as audio, video, and caption may be identified based on the file name, and further, the language and encoding method may be indicated.
  • the encoding method does not indicate the encoding method itself, but in the case of audio, the sound quality may be distinguished. For example, lossless compressed audio has high sound quality, and audio compressed with MPEG-2 or MPEG-4 AAC has medium sound quality.
  • playlist example 2 the audio is stored as an MP4 file, but the video indicated by play item 1 and play item 2 is YYY. A case provided as a continuous playback section in MP4 is shown.
  • Playlist example 3 is also an example similar to playlist example 2, but YYY.
  • MP4 is a single track MP4, and the TrackID field is omitted.
  • the playlist for export as shown in playlist example 1 to playlist example 3 may be distinguished from the playlist used when playing back the content on the disc by the file name or the like. Also, the playlist for export and the playlist for reproducing content on the disc may be stored in different directories in the file system.
  • PinP Picture in Picture
  • multi-angle, 3D, sub-path, browsable slide show, etc. may be prohibited, but the file name, whether function restrictions are imposed, Or you may show by the metadata etc. which manage the play list for export. If the export playlist includes a function that is prohibited from being used, it may be determined that the playlist is invalid, and error processing such as not generating the export MP4 may be performed.
  • the export playlist may be downloaded and acquired via a network, or M2TS and MP4 data referenced by the export playlist may be downloaded via the network.
  • M2TS or MP4 When downloading M2TS or MP4 via a network, the IP address or URL of the download destination may be shown separately in the playlist.
  • the URL of the directory is indicated in the metadata relating to the export playlist, and only the file name is described in the playlist. Good.
  • a URL is downloaded by concatenating a URL indicated by metadata and a file name to form a complete URL.
  • time information indicating the time of decoding or displaying the elementary stream corresponding to each of the two M2TS files (XXX1.M2TS and XXX2.M2TS) and the position information of the elementary stream are associated with each other. Contains information. This associated information is the same as the copy manifest file described in FIG.
  • FIG. 29A is a diagram for describing an example of a file generation method when a plurality of versions of main contents are stored.
  • FIG. 29B is a diagram showing a copy manifest file when generating an MP4 file in the playback path of the director's cut version.
  • BD and other optical discs may store multiple versions of the main content, such as a director's cut version and a theater release version.
  • a director's cut version For example, in FIG. 29A, playback is performed in the order of playback sections (1), (2), and (4) in the director's cut version, and playback is performed in the order of playback sections (1), (3), and (4) in the theater release version.
  • the audio for export is stored as a single track MP4.
  • the copy manifest file when the reproduction path of the director's cut version is selected includes the range of each part of the file indicated by “Input File A” and the file indicated by “Input File B”. The range of each part of the file and the range of each part of the file indicated by “Input File C” are shown. For the range of each file part, “Output File”, “Output File Size”, and The conversion to the MP4 file indicated by “ATTRIBUTE” is repeated.
  • an MP4 file is generated by concatenating elementary streams separated from three M2TSs, and the audio elementary stream is stored in advance in one MP4 file. That is, in the MP4 for the director's cut version, the elementary streams corresponding to the playback sections (1), (2), and (4) are continuously stored, and in the MP4 for the theater release version, the playback section (1), Elementary streams corresponding to (2) and (4) are continuously stored. In this way, by connecting the audio elementary stream for export as one elementary stream in advance, the playback sections (2) and (4), or the connection sections of the playback sections (3) and (4), etc. There is an advantage that no audio overlap or gap occurs. Therefore, the playback apparatus does not have to perform processing for audio overlap and gap.
  • FIG. 30 is a diagram for explaining another example of the file generation method when a plurality of versions of the main content are stored.
  • FIG. 29 the case where the audio for export is one MP4 file has been described, but a plurality of MP4 files corresponding to video playback sections may be stored as shown in FIG. At this time, audio overlaps and gaps occur at the connection portion of the playback section, but the processing is performed by the method described above.
  • FIG. 31 shows an example of the relationship between the audio MP4 file for export and the video MP4 file separated from the M2TS.
  • the units of Movie Fragment in different media such as audio, video and subtitles are consistent.
  • the PTS of the random access point is determined based on the random access point of the video, and the audio and caption are the same as the PTS of the video random access point, or , Playback is performed from the frame having the PTS immediately before and after.
  • audio and subtitles when using an export single track MP4 file stored in advance, the data of these MP4 files are exported without change.
  • the video MP4 file generated based on the video elementary stream separated from the M2TS is generated so that the unit of Movie Fragment is consistent with the audio and subtitles for export. That is, based on the elementary stream separated from the M2TS, it is desirable to generate a video MP4 file having a playback time corresponding to the playback time of the audio or subtitle MP4 file. By doing so, at the time of random access, reproduction can be started from Movie Fragment having the same index number in each medium.
  • the sample with DTS at the top in Movie Fragment is an I picture in MPEG-4 AVC or HEVC, or a randomly accessible picture such as an IDR picture.
  • FIG. 32A is a block diagram of the file generation apparatus according to the present embodiment.
  • the file generation apparatus 40 in this embodiment is a file generation apparatus that generates an MP4 file from an elementary stream, and includes an acquisition unit 41, a selection unit 42, and a generation unit 43.
  • the acquisition unit 41 acquires a playlist including identification information indicating each of the plurality of elementary streams.
  • the selection unit 42 selects an elementary stream indicated by predetermined identification information from the acquired playlist.
  • the generation unit 43 is a manifest file corresponding to the selected elementary stream, and data included in the elementary stream based on the manifest file necessary for converting the file format based on a predetermined rule. Is converted into an MP4 file format to generate an MP4 file.
  • the predetermined identification information is, for example, a file name of a stream file such as “XXX1.M2TS” or “XXX2.M2TS” shown in each playlist example in FIG.
  • the playlist may further include section information indicating a part of the elementary stream indicated by the predetermined identification information.
  • the playlist uses the first identification information indicating the first elementary stream and the second identification information indicating the second elementary stream as predetermined identification information, and the first section of the first elementary stream
  • the 1st section information to show and the 2nd section information which shows the 2nd section of the 2nd elementary stream may be included as section information.
  • the elementary stream obtained from the stream file (XXX1.M2TS) in FIG. 27 corresponds to the first elementary stream
  • the elementary stream obtained from the stream file (XXX2.M2TS) is the second elementary stream. It corresponds to.
  • “XXX1.M2TS” of play item 1 corresponds to the first identification information
  • “XXX2.M2TS” of play item 2 corresponds to the second identification information.
  • FIG. 28A “XXX1.M2TS” of play item 1 corresponds to the first identification information
  • XXX2.M2TS” of play item 2 corresponds to the second identification information.
  • the manifest file is a copy manifest file as shown in FIG. 24 or 28B, and is information in which the time of decoding or display is associated with the position in the elementary stream.
  • the manifest file corresponds to each of the plurality of elementary streams on a one-to-one basis.
  • the manifest file may be associated with the file name corresponding to the file name of the elementary stream (M2TS file), or the association between the manifest file and the elementary stream using a table. May be performed.
  • FIG. 32B is a flowchart of the file generation method in the present embodiment.
  • the file generation method in the present embodiment is a file generation method for generating an MP4 file from an elementary stream, and includes step S41, step S42, and step S43.
  • step S41 a playlist including identification information indicating each of the plurality of elementary streams is acquired.
  • step S42 an elementary stream indicated by predetermined identification information is selected from the acquired playlist.
  • step S43 a manifest file corresponding to the selected elementary stream, the data included in the elementary stream is converted based on the manifest file necessary for converting the file format based on a predetermined rule.
  • An MP4 file is generated by converting to an MP4 file format.
  • the data included in the elementary stream selected from the playlist can be converted into the MP4 file format based on the manifest file corresponding to the elementary stream.
  • the manifest file for example, the elementary stream indicated by the predetermined identification information of the playlist can be specified without calculation, so that the processing load can be suppressed.
  • step S42 When the playlist includes section information indicating a part of the elementary stream indicated by the predetermined identification information, in step S42, the section of the elementary stream indicated by the section information is further selected. In step S43, the section of the selected elementary stream may be converted into the MP4 file format.
  • the data of the section of the elementary stream selected from the playlist can be converted into the MP4 file format based on the manifest file corresponding to the elementary stream.
  • the manifest file By using the manifest file, the section of the elementary stream indicated by the section information of the playlist can be specified without calculation, so that the processing load can be suppressed.
  • step S43 If the section information is indicated by time information indicating the time of decoding or displaying the elementary stream, and the manifest file is information in which the time and the position in the elementary stream are associated with each other, in step S43, The position of the section in the elementary stream corresponding to the time information indicated by the section information of the playlist is identified from the manifest file, the section of the identified elementary stream is extracted, and the section of the extracted elementary stream is You may convert into the MP4 file format.
  • the elementary stream can be easily obtained from the section information indicated in the playlist.
  • the position of the section can be specified. Thereby, processing load can be suppressed.
  • the playlist uses the first identification information indicating the first elementary stream and the second identification information indicating the second elementary stream as predetermined identification information, and the first section of the first elementary stream
  • the first identification information indicated by the first identification information is obtained from the acquired playlist. Selecting a first section indicated by the first section information of one elementary stream and a second section indicated by the second section information of the second elementary stream indicated by the second identification information; In the conversion, data including the first section of the selected first elementary stream and the second section of the second elementary stream. It may be converted to the MP4 file format.
  • step S43 the first section of the selected first elementary stream is extracted based on the first manifest file corresponding to the first elementary stream, and the second elementary stream is supported.
  • the second section of the selected second elementary stream may be extracted based on the second manifest file, and the data including the extracted first section and second section may be converted into the MP4 file format.
  • each manifest file corresponding to each of the two elementary streams is used even if each segment of the two elementary streams is selected by the playlist, the two segments are easily selected. Can be identified. Thereby, processing load can be suppressed.
  • an audio MP4 file corresponding to the elementary stream is further selected in step S42, and selected in step S43.
  • the elementary stream of the video corresponding to the elementary stream is extracted, and the extracted elementary stream of the video and the MP4 file of the selected audio are It may be used to generate an MP4 file.
  • FIG. 33 is a block diagram of a file generation device according to this modification.
  • the file generation device 200 includes a playlist analysis unit 201, an export target selection unit 202, an M2TS separation unit 203, an export file acquisition unit 204, a remultiplexing unit 205, and a copy manifest analysis unit 206. .
  • the file generation apparatus 200 generates and outputs MP4 including audio, video, or subtitles based on the elementary stream separated from the M2TS and the single track MP4 for export.
  • the output MP4 may be in a format in which elementary streams of a plurality of media are stored in one file, or in a DMP format.
  • the playlist analysis unit 201 corresponds to the acquisition unit 41 and the selection unit 42 of the file generation device 40.
  • the playlist analysis unit 201 acquires a playlist on the disc or via a network, and acquires one or more playlists for export. Parse the list.
  • the export target selection unit 202 corresponds to the selection unit 42 of the file generation apparatus 40, and based on the analysis result of the playlist analysis unit 201, the content provided by the playlist to be exported by the user, or the content within the content Generates a menu for selecting language settings, caption data export / non-export, etc., accepts input to the generated menu, and selects the user's selection result (playlist determined according to accepted menu input) Based on this, a playlist to be exported is determined.
  • the data in which the elementary stream constituting the content selected by the user is stored is determined, and when the elementary stream is stored in the M2TS, the M2TS separation unit 203 is provided by the copy manifest analysis unit 206.
  • the elementary stream is separated based on the copy manifest information.
  • the export file acquisition unit 204 acquires the MP4 file.
  • the export file acquisition unit 204 may acquire the MP4 file.
  • the remultiplexing unit 205 generates an MP4 file for output using the elementary stream acquired from the M2TS separation unit 203 and the MP4 file acquired by the export file acquisition unit 204.
  • the elementary stream When storing a plurality of media in one MP4 file, the elementary stream is separated from the export MP4 data, and then the audio, video, or subtitle elementary stream is multiplexed into one MP4 file.
  • the DMP format In the case of outputting in the DMP format, a single track MP4 is generated from the elementary stream output by the M2TS separation unit, and the DMP content is generated together with the export MP4 data output from the EXPT file acquisition unit.
  • metadata for managing a plurality of MP4 files included in the DMP is generated separately.
  • the re-multiplexing unit 205 may output the video MP4 file, the audio MP4 file, and the subtitle MP4 file as independent files without multiplexing.
  • the M2TS separation unit 203, the export file acquisition unit 204, the remultiplexing unit 205, and the copy manifest analysis unit 206 correspond to the generation unit 43 of the file generation device 40.
  • FIG. 34 is a diagram illustrating an example of a case where an MP4 file is divided and generated. Specifically, an example in which an MP4 file having a size corresponding to the entire content of 11.40 GB is divided into three files so as to be 4 GB or less in order to be recorded on an SD card is shown.
  • MP4 file generated from data such as M2TS is recorded in a recording device to which the MP4 file is taken out, such as removable media such as an SD card, HDD such as a smartphone or a tablet.
  • a recording device such as removable media such as an SD card, HDD such as a smartphone or a tablet.
  • the upper limit value of the file size that can be handled is limited depending on the file system of the recording device.
  • the SD card is 4 GB
  • the SDHC card is 32 GB. Therefore, when the size of the MP4 file corresponding to the entire content exceeds the upper limit value of the file system in the recording device, it is necessary to divide the MP4 file.
  • Movie Fragment In MP4 using Movie Fragment, it is desirable to store Movie Fragments that have the same or close playback sections in audio, video, subtitles, etc. in the same file.
  • audio and video data with the same playback section is stored in different files, it is necessary to access the data of two MP4 files at the same time during playback, depending on the data reading speed and seek speed of the recording device. This is because, compared with the case of reproducing from one file, there is a problem that the data must be reproduced after being buffered excessively.
  • the MP4 file is generated so that the audio fragment, the video fragment, and the movie fragment of the caption with the same or close playback section are included in the same MP4 file and the file size is 4 GB or less.
  • the file size is 4 GB or less.
  • FIG. 35 is a diagram illustrating another example of the case where the MP4 file is divided and generated.
  • the SampleEntry of the original MP4 file contains all the initialization information required for the entire content, so the contents of stsd need not be changed.
  • the other Boxes basically need not be changed, the reproduction time length of the entire file is stored for each track in tkhd or mvhd of each track. Therefore, these playback time lengths may be changed to correspond to the playback time length of the divided MP4 file. Alternatively, when it is indicated by some auxiliary information that the file is a divided file, the change of the reproduction time length may be unnecessary.
  • the content of mfra may be changed to indicate a random access point in each MP4 file.
  • the mfra random access information indicates an offset from the beginning of the moov file to which the sample serving as the random access point belongs.
  • the offset value corresponds to the original MP4, and thus does not become the offset value of the divided file. Therefore, when searching for a random access point in the divided file, for the second and subsequent files, the sum of the sizes of the MP4 files whose playback order is the previous is added to obtain the file offset value of the original MP4 file. By reproducing, sample data to be a random access point is obtained.
  • the updated file size is less than the maximum size in the file system.
  • the playback order of the divided files can be identified by the file name or content management information storing information indicating the playback order of the files.
  • subtitle data when subtitle data is stored together at the end of the MP4 file without being interleaved, information for identifying a divided file including subtitle data is used as content management information or the like. include.
  • subtitle data is acquired by accessing a divided file in which subtitle data is stored.
  • the initialization information for decoding the caption data is stored in the moov as with the audio and video.
  • the SD card is connected to the same device as the device on which the optical disc exists, such as a BD player, and the output destination.
  • a recording medium such as an HDD
  • the MP4 generation module prior to the generation of the MP4 file, the MP4 generation module mainly acquires the information indicating the maximum file size in the file system of the output destination recording medium.
  • the original MP4 file may be notified to the output destination device, and when division is necessary, information indicating the maximum file size may be transmitted from the output destination device to the MP4 generation module.
  • a meta that describes the selectable language or content meta information such as the MP4 file acquisition destination and the URL of the DRM (Digital Right Management) management server It is possible to first acquire a file and make an MP4 file acquisition request based on the analysis result of the metafile. In such a case, information indicating the maximum file size may be described in the MP4 file acquisition request message or command.
  • the default metafile is acquired from the optical disk, and if updated, the updated metafile is acquired via the network.
  • the URL of the management server that is first accessed by the playback device is described, and the management server determines whether the metafile is the latest based on the version number of the metafile in the optical disc. Otherwise, it is possible to notify the playback device of the latest metafile acquisition destination.
  • the DRM or content acquisition destination described in the default metafile, or the content content may be different, and there is a playback device as well as the metafile update. Based on the identification information of the country or region in which it is performed, it can be processed in the management server in the same manner as the metafile update. The same applies when the metafile update contents differ for each country or region.
  • FIG. 36 is a diagram illustrating another example of the case where the MP4 file is divided and generated.
  • MP4 files When generating an MP4 file, it is common to multiplex data of different media such as audio, video, or subtitles into the same file, but each media is independent as shown in FIG.
  • Some formats are MP4 files. This format is called DMP (Digital Media Package), and media data acquired from multiple MP4 files is played back synchronously during playback.
  • DMP Digital Media Package
  • MP4 files and content management files are archived in the ZIP format or the like.
  • division can be performed in the same manner as the division method described in FIGS. That is, the playback section of the MP4 file of each medium constituting the same DMP is divided so as to be the same or close.
  • one Movie Fragment is prohibited from being stored across a plurality of DMPs.
  • the data size of audio and subtitles is smaller than that of video, only the video may be divided into a plurality of files, and all data may be stored in the first division file of audio and subtitles.
  • attribute information relating to the entire content can be stored in the content management file stored in the first DMP after the division.
  • identification information of the subsequent DMP file divided and information indicating the reproduction order may be stored.
  • the archive information of the file in the DMP or the identification information of the DMP is described, and the information related to the entire content need not be described. Instead of generating a plurality of DMPs, a single DMP data may be divided into a plurality of files.
  • DMP in DMP, as described with reference to FIGS. 21 and 22, it is possible to continuously reproduce MP4 files constituting a plurality of reproduction sections by referring to a playlist or the like.
  • the connection destination and the connection source are each one file, but in DMP, the connection destination and the connection source are each a plurality of files. Describes the file identification information. Also, audio gaps and overlaps at the connection points of continuously played files can be handled in the same manner by the above-described processing.
  • FIG. 37 is a diagram showing a storage position when data used for export, such as MP4 for export, is stored on an optical disc. Since it is desirable that the data for export can be read or copied at high speed, it is stored in a continuous area on the outer periphery of the optical disk. On the other hand, for M2TS, it is essential that data that can guarantee that data such as audio, video, or graphics does not underflow when jumping between layers of an optical disc is arranged on the outer periphery.
  • the bit rate R may be a maximum value of a bit rate defined by a profile or level at which video is encoded, or an average bit rate in actual encoded data.
  • the average rate indicates an average rate in a section from D_T1 to (Tdec1 + T1 + t2), where T_dec1 is a video DTS corresponding to the time immediately before the jump.
  • the export data is arranged in an area as close to the outermost periphery as possible.
  • FIG. 38 is a diagram showing an example of a playlist indicating the size of the elementary stream in the playlist for export.
  • playlist example 1 shows the size of elementary streams multiplexed in M2TS or MP4.
  • the data size of the exported MP4 can be estimated based on these sizes, it is possible to determine whether or not there is sufficient free space for storing the exported MP4 in the export destination recording medium.
  • the copy manifest includes data of the header part in the MP4 to be exported
  • the size of the header part of the MP4 can be determined, so the data size of the exported MP4 is determined together with the size of the elementary stream. it can.
  • Play list example 2 in FIG. 38B shows the sum of the sizes of the basic part and the extended part and the basic part when the audio is composed of a basic part and an extended part (such as an extension for lossless).
  • the size of the output data when exporting only the basic part, only the extended part, or the basic part and the extended part together can be determined.
  • the present invention can be applied not only to audio but also to video encoded by a layer structure.
  • FIG. 39 is a diagram illustrating an example of a playlist in which information on gaps generated in an audio connection unit between play items is shown in the playlist. If connection_condition is seamless_w_gap, the video is seamlessly connected in the connection of the play item, but a gap is generated in the audio. If a gap exists, the gap length can be indicated by gap_duration.
  • FIG. 40A is a diagram for describing an example of a method for generating an audio gap during export.
  • the playback section of the audio frame becomes discontinuous in the seamless connection unit, the playback section of the audio is overlapped between play items.
  • two audio streams that overlap each other are connected in MP4, it is necessary to delete the audio frame at the connection portion to generate a gap.
  • FIG. 40B is a diagram illustrating an example of a playlist in which frames that need to be deleted when a gap is generated are illustrated.
  • the last frame PTS of the audio referenced from the play item 1 when the play item 1 and the play item 2 are connected is indicated by last_frame_pts.
  • the last_frame_pts is set to 30.1 s.
  • a frame to be deleted may be specified by information other than the PTS, such as an index number of a frame that needs to be deleted and a storage destination address.
  • the audio frame may be deleted so that there is an overlap (remains) between audio 1 and audio 2. That is, after deleting an audio frame, there may be an overlap between the last frame of audio 1 and the first frame of audio 2.
  • the time length of the gap may be shown together.
  • auxiliary information used at the time of export is stored in a playlist, but may be stored in reproduction management metadata different from the playlist.
  • FIGS. 40A and 40B three frames from frame 98 to frame 100 of audio 1 are deleted, and a gap is generated between frame 97 of audio 1 and frame 0 of audio 2.
  • a gap may be generated between audio 1 and audio 2 by deleting the frame of audio 2.
  • three frames (frame group B) from frame 0 to frame 2 in audio 2 in FIG. 40A are deleted, and a gap is generated between frame 100 of audio 1 and frame 3 of audio 2. May be.
  • the playlist example shown in FIG. 40B instead of last_frame_pts indicating the PTS of the last frame of the audio of play item 1, first_frame_pts indicating the PTS of the first frame of the audio of play item 2 is provided, and frame 3 of audio 2 is provided. If the PTS is 30.4 s, first_frame_pts may be set to 30.4 s.
  • FIG. 41 shows a BT.B called HDR (High Dynamic Range). It is a figure which shows the example of a storage at the time of storing the video data containing the brightness
  • SDR Standard Dynamic Range
  • the 0th play item that is reproduced first in the playlist for export contains HDR content, and stores content indicating a warning message indicating that it cannot be displayed correctly if the display is not HDR-compatible. Keep it.
  • the playback section corresponding to the 0th play item is stored as the top data of MP4. Therefore, when MP4 is played back, this warning message is displayed first.
  • the warning message may be composed only of subtitles.
  • whether the HDR content is stored in the MP4 file may be signaled in the MP4 header information. For example, in moov, it is possible to indicate whether at least a part of the playback section of the video track uses HDR, and in moof, it is possible to indicate whether the video samples constituting the Movie Fragment use HDR. .
  • luminance information may also be stored as MP4 header information. If the luminance information is fixed in the MP4 file, it may be set as information in the moov, and if it is variable in the MP4 file, it may be set as information in the moof. At this time, it is assumed that the luminance information is the same in the Movie Fragment.
  • the luminance information may be fixed.
  • information indicating that HDR-related information is fixed between play items may be stored, and in MP4, HDR-related information is also included in a video track. Information indicating that it is fixed may be stored.
  • HDR-related information or the like may be stored as meta-data for managing the MP4 file without being directly stored in the MP4 file.
  • FIG. 42 is a diagram for explaining an operation when viewing DMP data exported from an optical disc to an SD card, a portable hard disk, or the like on a mobile terminal such as a smartphone or a tablet based on the DLNA (Digital Living Network Alliance) standard.
  • DLNA Digital Living Network Alliance
  • a recording medium for storing DMP data is a DLNA server, and a smartphone or a tablet is a DLNA client.
  • a smartphone or a tablet is a DLNA client.
  • the DLNA server separates the MP4 files of audio, video, or subtitles from the DMP, establishes independent sessions for these MP4 files, and sends them to the DLNA client.
  • an elementary stream is separated from MP4 files of a plurality of media received by a plurality of independent sessions, and synchronized playback is performed.
  • the DMP method In the DMP method, elementary streams for each medium are stored in different MP4 files, so even if the language combination such as audio, video and subtitles changes, the MP4 file in the language corresponding to each combination is selected. That's fine. Therefore, the DMP method has an advantage that it is not necessary to change the contents of the MP4 header as in the case of storing elementary streams of a plurality of media in one MP4 file.
  • package media such as BD have functions such as selecting a theater release version and a director's cut version, and extracting a selected angle from a plurality of angles.
  • the elementary stream to be reproduced differs depending on the selected angle or the like.
  • the elementary stream corresponding to the playback section is indicated by a play item in the playlist.
  • initialization information necessary for decoding is collectively stored in a sample entry in the moov. Therefore, when elementary streams of a plurality of playback sections that are continuously played are stored in one MP4 file, different elementary streams are stored depending on the selected angle or the like. Thereby, the initialization information required for decoding may differ depending on the selected angle or the like.
  • a default parameter set group is stored in the sample entry, and when the NAL unit of the parameter set is included in the MP4 sample, decoding may be performed using the parameter set in the sample.
  • the first is a case where a parameter set having the same ID as the default parameter set is updated. At this time, when a parameter set effective at the time of decoding of the sample is included in the elementary stream, decoding is performed using the parameter set in the elementary stream.
  • the second case is a case where the sample entry does not include a parameter set corresponding to the ID that is referenced when the sample is decoded. Also at this time, the apparatus acquires a parameter set effective at the time of decoding from the elementary stream and performs decoding.
  • the parameter set may be stored in the elementary stream only when the parameter set is not included in the default parameter set group, or all the parameter sets that are referred to at the time of decoding may be stored in the elementary stream.
  • the parameter set is stored only within the sample, and the sample entry may not include the parameter set.
  • the storage method of these parameter sets may be indicated by the type of sample entry or other identification information.
  • initialization information such as sampling frequency and the number of channels is generally the same between seamlessly connected elementary streams. Accordingly, a moov including default initialization information can be created. The same applies to text data.
  • FIG. 43 shows an example of generating an MP4 file of a selected angle using a moov storing default initialization information.
  • FIG. 43A shows an M2TS file that constitutes each playback section. In the playback section 2, there are three angles, angle 1 to angle 3.
  • FIG. 43 (b) shows a movie when an MP4 file is generated based on a moov box containing a sample entry storing default initialization information and an elementary stream separated from the M2TS constituting each playback section. A set of moof boxes for each fragment is shown. For example, angle 1 in the playback section is composed of N2 movie fragments.
  • FIG. 43B shows a moof box in each movie fragment.
  • the MP4 may be a single-track MP4 or a multi-track MP4 in which data of a plurality of media is multiplexed.
  • a sample entry including a default parameter set is stored in moov # 0.
  • FIG. 43 (c) shows an example of generating an MP4 file including angle 1 based on the M2TS shown in FIG. 43 (a) and the MP4 header information shown in FIG. 43 (b).
  • moov # 0 including default initialization information
  • movie fragments for each playback section are stored.
  • the sample stored in mdat is separated from the M2TS file based on information such as the sample indicated in the moof and the size of the NAL unit.
  • information indicating the brand of the MP4 file such as ftyp or random access information by mfra may be included in the MP4 file.
  • MP4 header information referred to when generating the export MP4 is indicated by an export playlist, export meta information, or the like.
  • the byte offset and size of the elementary stream to be acquired from the M2TS file can be acquired by referring to the COPY MANIFEST field.
  • the elementary stream from the M2TS file can be acquired. Data may be acquired, and the acquired data may be stored as sample data of the MP4 file.
  • the PES packet is separated from the M2TS file, and the access unit stored in the PES payload is separated.
  • the access unit is separated, the data format of the access unit is converted from the byte stream format to the NAL size format, and the converted data is stored as MP4 sample data.
  • the device can acquire the size of the NAL unit by searching for the start code for each NAL unit. However, when searching for the start code, it is necessary to search the access unit data in order. Is big.
  • MP4 it is also possible to store the size of each subsample, which is a unit into which the sample is divided, in the stream.
  • the apparatus can convert the byte stream format to the NAL size format with reference to these sizes.
  • the NAL unit needs to search for a start code for separation.
  • a new box for storing offset information from the head of the sample to the start position of each NAL unit and the size of the NAL unit is newly defined, and the difference is obtained as MP4 header information such as moov and moof.
  • MP4 header information such as moov and moof.
  • the device may store the data in the byte stream format in the MP4 file without converting the data in the byte stream format into the NAL size format.
  • at least identification information such as the brand of the MP4 file or the type of the sample entry indicates that the sample data is in a byte stream format.
  • the field length of the NAL size in the NAL size format and whether the parameter set may be stored in the sample can be obtained by referring to the sample entry in the moov, but these are shown in the copy manifest. Also good.
  • the MP4 file may be a single track MP4 storing an elementary stream of a single medium such as audio only or video only.
  • the apparatus can determine the samples constituting the movie fragment by referring to the MP4 header information or the COPY MANIFEST field in the copy manifest. Accordingly, even when it is necessary to delete a sample, the apparatus can operate so as not to store the sample to be deleted in the MP4 by referring to the COPY MANIFEST field of the MP4 header information or the copy manifest.
  • mapping info Mapping info.
  • Mapping info Is used for AVC / HEVC conversion processing and export. As shown in FIG. 44A, in this conversion process, it is necessary to convert the start code (Start-code) into the data length (length). The start code is searched by analyzing the stream, and the data length of each NAL unit is obtained.
  • the processing for searching for the start code has a large processing load in a high bit rate stream.
  • Mapping info By introducing, the start code search becomes unnecessary.
  • FIG. 44B shows Mapping info. It is a figure which shows the structural example of a file.
  • a file is provided for each clip of an AV stream file, for example.
  • the file includes an offset (offset) and a data length (len) of a plurality of NAL units for each AU (Access Unit) in the clip AV stream.
  • the offset indicates the data length from the start of the start code of the NAL unit to the start of the NAL unit. Note that the data length from the beginning of the M2TS file to the beginning of the NAL unit may be used as the offset.
  • the device is Mapping info. Can be found at the head of each NAL unit without searching for the start code. Therefore, the export process can be speeded up.
  • Modification 5-2 As parameters indicating characteristics at the time of mastering in HDR content, there are static HDR metadata that is fixed for each title or each playlist, and dynamic HDR metadata that is variable for each scene.
  • the title and the playlist are information indicating video signals that are continuously reproduced.
  • video signals that are continuously played back are referred to as continuous playback units.
  • static HDR metadata includes at least one of EOTF function (curve) type, 18% Gray value, Diffuse White value, Knee point, and Clip point.
  • the EOTF is information that associates a plurality of luminance values with a plurality of code values, and is information for changing the luminance range of the video signal. Since the other information is attribute information regarding the luminance of the video signal, the static HDR metadata is information regarding the luminance range of the video signal and can be said to be information for specifying the luminance range of the video signal.
  • the 18% Gray value and the Diffuse White value indicate the luminance value (nit) in a video with a predetermined reference brightness, in other words, the reference brightness in the video. More specifically, the 18% Gray value indicates a luminance value (nit) after mastering of an object having a brightness of 18 nits before mastering.
  • the Diffuse White value indicates a luminance value (nit) corresponding to white.
  • Knee point and Clip point indicate points where the characteristics of the luminance value corresponding to the code value in the EOTF function and the luminance value displayed on the display device change. Specifically, Knee point and Clip point indicate change points at which the increment of the actually displayed luminance value is different from the one-to-one value with respect to the luminance of the video signal indicated by EOTF.
  • Knee point is information for specifying a point that deviates from a linear change in the EOTF function.
  • Clip point indicates a point where the clipping of the luminance value is started at the time of display.
  • clip refers to converting an input luminance value greater than a certain value into the same output luminance value.
  • the types of EOTF functions curves are, for example, HDR EOTF and SDR EOTF.
  • Dynamic HDR metadata is a parameter indicating a mastering characteristic that is different for each scene, or data of an extension layer for extending an HDR stream of a base layer having a bit depth of 10 bits to 12 bits.
  • the peak luminance of a signal having a peak luminance of 1000 nits can be expanded only by the base layer and can be expressed up to 4000 nits.
  • the parameter indicating the mastering characteristic is assumed to be stored in a video stream such as SEI
  • the enhancement layer data is assumed to be stored as a stream separate from the base layer. When these data are multiplexed on the TS, for example, the base layer and the enhancement layer are stored as TS packets having different PIDs.
  • the mastering characteristic indicates the relationship between the original (before mastering) luminance and the luminance after mastering.
  • the parameter indicating the mastering characteristic is the same information as the static HDR metadata described above, in other words, is at least one piece of information included in the static HDR metadata.
  • FIG. 45 shows a storage example of static HDR metadata.
  • static HDR metadata is stored in a playlist in a package medium such as a Blu-ray disc.
  • Static HDR metadata is stored as one piece of metadata for each stream referenced from the playlist.
  • static HDR metadata is fixed for each playlist.
  • static HDR metadata may be stored in a manifest file that is referred to prior to stream acquisition.
  • static HDR metadata may be stored in a descriptor indicating a stream attribute.
  • the static HDR metadata may be stored as management information indicating title attributes.
  • the video stream generation method generates a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range.
  • the plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all of the second luminance data are in the second luminance range.
  • a video stream is generated so as to become video data.
  • the plurality of second video data is prohibited from including video data in the first luminance range and video data in the second luminance range.
  • the first luminance range is an SDR, and the luminance range where the peak luminance (maximum luminance value) is 100 nits.
  • the second luminance range is HDR, and is a luminance range in which the peak luminance (maximum luminance value) exceeds 100 nits.
  • the second luminance range includes the entire first luminance range, and the peak luminance of the second luminance range is larger than the peak luminance of the first luminance range.
  • the plurality of second video data is a plurality of video data (a plurality of clips specified by a plurality of play items) specified by one playlist.
  • the play item does not need to specify the entire clip as a playback section, and only a part of the clip may be specified.
  • connection_condition shown in FIG. If connection_condition is seamless_w_gap, the video is seamlessly connected in the connection of the play item.
  • the storage format of the video stream may be MP4 described above or MPEG2-TS.
  • the storage format may be a stream of a format other than these.
  • the video stream generation device executes the video stream generation method.
  • the playback device and playback method according to the present embodiment play back the video stream generated by the video stream generation method or the video stream generation device. That is, the playback device includes a playback unit that plays back a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range. In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced become all video data in the first luminance range, or all in the second luminance range. It is generated to be video data.
  • the video stream generated by the video stream generation method or the video stream generation apparatus is recorded. That is, the recording medium records a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range.
  • the recording medium records a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range.
  • a plurality of second video data that are continuously and seamlessly reproduced become all video data in the first luminance range, or all in the second luminance range. It is generated to be video data.
  • the base layer and the extension layer are exported as independent single track MP4 files.
  • the management information indicating the attribute information of the single track MP4, such as DMP metadata includes identification information of the MP4 of the base layer and the MP4 of the enhancement layer. More generally, this management information indicates that these MP4s have dependencies when decoding different single track MP4s, and that the type of dependency is an extension of the HDR signal.
  • dynamic HDR metadata is stored in a video stream by SEI or the like
  • dynamic HDR metadata is stored in the track in the attribute information of the single track MP4 that stores the track of the video stream. Information indicating this, and identification information for specifying the type of dynamic HDR metadata to be stored may be included.
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the video stream generation method and the playback device have been described based on each embodiment and each modification.
  • the present disclosure is limited to these embodiments and each modification. It is not something. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art are applied to each embodiment and each modification, and a form constructed by combining the components in each embodiment and each modification is also possible. It may be included within the scope of one or more embodiments.
  • a file constituted by MPEG2-TS is used as the original file.
  • the original file may be any file or transport stream other than the MPEG2-TS file as long as the file is configured in a file format different from MP4.
  • each of these playback sections may be a movie fragment of an MP4 file, It may be a stream.
  • Each of the above devices is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting each of the above devices may be configured by one system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present disclosure may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present disclosure also provides a computer-readable recording medium such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present disclosure may be a computer system including a microprocessor and a memory, and the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
  • the data transmission method and the data reproduction method according to one or more aspects of the present disclosure have been described based on the embodiments, but the present disclosure is not limited to the embodiments. Unless it deviates from the gist of the present disclosure, one or more of the present disclosure may be applied to various modifications conceived by those skilled in the art in the present embodiment, or forms configured by combining components in different embodiments. It may be included within the scope of the embodiments.
  • the present disclosure can be applied to a video stream generation method and a playback device that plays back a video stream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A video stream generation method according to an aspect of the present disclosure comprises a generation step of generating a video stream including a plurality of pieces of first video data including video data of a first brightness range and video data of a second brightness range wider than the first brightness range, said video stream being generated in the generation step such that all of a plurality of pieces of second video data to be continuously played back in a seamless manner, which are included in the plurality of pieces of first video data, are the video data of the first brightness range or the video data of the second brightness range.

Description

映像ストリーム生成方法、再生装置及び記録媒体Video stream generation method, playback apparatus, and recording medium
 本開示は、映像ストリーム生成方法、再生装置及び記録媒体に関する。 The present disclosure relates to a video stream generation method, a playback device, and a recording medium.
 従来の光ディスクで利用されているファイルフォーマットは、ISO/IEC 138181-1で規定されるMPEG2-TS(MPEG-2 Transport Stream)方式である。以下、MPEG2-TS方式を単にMPEG2-TSと称する。つまり、映像ストリーム、音声ストリーム、および字幕ストリームをMPEG2-TSのファイルフォーマットで多重化することによって構成されるファイルが、光ディスクに記録されている。具体的には、MPEG2-TSでは、映像ストリーム、音声ストリーム、および字幕ストリームなどは、それぞれ188Bytesの複数のTSパケットに分割された上で多重化され、光ディスクに記録される。このMPEG2-TSは、前からシーケンシャルに読み込まれて処理されるデータを伝送または記録する、放送または光ディスクのようなメディアに対して最適化されている。したがって、比較的バッファ容量の少ない民生機でも、効率的にストリームを読み込んで復号して再生することが可能である。 The file format used in conventional optical discs is the MPEG2-TS (MPEG-2 Transport Stream) system defined by ISO / IEC 138181-1. Hereinafter, the MPEG2-TS system is simply referred to as MPEG2-TS. That is, a file configured by multiplexing a video stream, an audio stream, and a subtitle stream in the MPEG2-TS file format is recorded on the optical disc. Specifically, in MPEG2-TS, a video stream, an audio stream, a subtitle stream, and the like are each divided into a plurality of 188-byte TS packets, multiplexed, and recorded on an optical disc. This MPEG2-TS is optimized for media such as broadcast or optical discs that transmit or record data that is read and processed sequentially from the front. Therefore, even a consumer device having a relatively small buffer capacity can efficiently read, decode, and reproduce a stream.
 これに対して、昨今のネットワークでのコンテンツ配信において利用されつつあるファイルフォーマットは、ISO/IEC 14496-12で規定されるMP4方式である。以下、MP4方式を単にMP4と称する。MP4は、HDD(Hard Disk Drive)やフラッシュメモリのようなランダムアクセス可能なメディアへの適用を前提に、極めて柔軟なデータ構造を採用している。このMP4の一般的な利用形態では、映像ストリーム、音声ストリーム、および字幕ストリームなどのストリームが、数秒程度のフラグメントという単位に分割され、これらのフラグメントが順次並べられることによって、一つのファイルが構成される。 On the other hand, the file format that is being used in the distribution of contents in the recent network is the MP4 system defined by ISO / IEC 14496-12. Hereinafter, the MP4 system is simply referred to as MP4. MP4 employs an extremely flexible data structure on the premise that it is applied to a randomly accessible medium such as an HDD (Hard Disk Drive) or a flash memory. In this general usage form of MP4, streams such as a video stream, an audio stream, and a subtitle stream are divided into units of fragments of about several seconds, and these fragments are sequentially arranged to form one file. The
 今後、普及が見込まれる4Kなどの高品質なコンテンツを配布するためのメディアとしては、ビット単価の問題からまだまだ光ディスクを活用することが多いと考えられている。一方、スマートフォンまたはタブレットは、光ディスクドライブを持たないが、その携帯性の高さ、または昨今の大画面化および高精細化を活かして、ネットワークでのコンテンツ配信の受信および再生用の端末として利用されている。このため、スマートフォンまたはタブレットでは、MP4に対応する機能および処理が多く、MPEG2-TSへの適用はあまり進んでいない。 As a medium for distributing high-quality content such as 4K, which is expected to become popular in the future, it is considered that optical discs are still often used because of the problem of bit unit price. On the other hand, a smartphone or tablet does not have an optical disk drive, but it is used as a terminal for receiving and playing back content distribution over a network by taking advantage of its high portability or the recent increase in screen size and definition. ing. For this reason, smartphones and tablets have many functions and processes corresponding to MP4, and their application to MPEG2-TS has not progressed much.
 したがって、光ディスクで配布されたMPEG2-TSのファイルであるコンテンツをスマートフォンまたはタブレットにコピーする際には、そのコンテンツのファイルフォーマットをMP4に変換することがある(例えば、特許文献1参照)。このような変換によって、MP4のファイルであるMP4ファイルが生成される。 Therefore, when copying content that is an MPEG2-TS file distributed on an optical disc to a smartphone or tablet, the file format of the content may be converted to MP4 (see, for example, Patent Document 1). By such conversion, an MP4 file that is an MP4 file is generated.
特開2012-175608号公報JP 2012-175608 A
 本開示の一態様に係る映像ストリーム生成方法は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを生成する生成ステップを含み、前記生成ステップでは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように前記映像ストリームを生成する。 A video stream generation method according to an aspect of the present disclosure generates a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. A plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data so as to be all video data in the first luminance range. Alternatively, the video stream is generated so as to be all video data in the second luminance range.
 本開示の一態様に係る再生装置は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを再生する再生部を備え、前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている。 A reproduction apparatus according to an aspect of the present disclosure reproduces a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. The video stream includes a plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data, or all the video data in the first luminance range, or All are generated so as to be video data in the second luminance range.
 本開示の一態様に係る記録媒体は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームが記録されており、前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている。 A recording medium according to an aspect of the present disclosure records a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all The video data is generated in the second luminance range.
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific modes may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. And any combination of recording media.
図1は、光ディスクに格納されているMPEG2-TSのコンテンツの構造の一例を模式的に示す図である。FIG. 1 is a diagram schematically showing an example of the structure of MPEG2-TS content stored on an optical disc. 図2は、Aligned Unitの復号方法を説明するための図である。FIG. 2 is a diagram for explaining a method of decrypting the aligned unit. 図3は、平文の状態のAligned Unitの内部構造を示す図である。FIG. 3 is a diagram showing an internal structure of the aligned unit in a plain text state. 図4は、複数のTS Payloadから実際のElementary Streamを作成する方法を示す図である。FIG. 4 is a diagram illustrating a method of creating an actual Elementary Stream from a plurality of TS Payloads. 図5は、実施の形態1におけるファイル生成装置の構成を示すブロック図である。FIG. 5 is a block diagram illustrating a configuration of the file generation device according to the first embodiment. 図6は、実施の形態1における、MPEG2-TSのストリームファイル、差分ファイルおよびコピーマニフェストファイルから、MP4のストリームファイルを生成する方法を説明するための図である。FIG. 6 is a diagram for explaining a method of generating an MP4 stream file from an MPEG2-TS stream file, a difference file, and a copy manifest file in the first embodiment. 図7は、実施の形態1における、差分ファイルおよびコピーマニフェストファイルを生成する方法を説明するための図である。FIG. 7 is a diagram for explaining a method of generating a difference file and a copy manifest file in the first embodiment. 図8は、実施の形態1におけるファイル生成方法のフローチャートである。FIG. 8 is a flowchart of the file generation method according to the first embodiment. 図9は、実施の形態1の変形例1におけるファイル生成方法を説明するための図である。FIG. 9 is a diagram for explaining a file generation method according to the first modification of the first embodiment. 図10Aは、実施の形態1の変形例1における、AES-CTRモードによるデータの暗号化を説明するための図である。FIG. 10A is a diagram for explaining data encryption in the AES-CTR mode in the first modification of the first embodiment. 図10Bは、実施の形態1の変形例1における、AES-CTRモードによるデータの復号を説明するための図である。FIG. 10B is a diagram for explaining data decoding in the AES-CTR mode in the first modification of the first embodiment. 図11は、実施の形態1の変形例2における、トランスポートストリームに格納されるMPEG-4 AACのアクセスユニットをMP4ファイルに格納する例を示す図である。FIG. 11 is a diagram illustrating an example in which the MPEG-4 AAC access unit stored in the transport stream is stored in the MP4 file in the second modification of the first embodiment. 図12は、実施の形態1の変形例2における、トランスポートストリームに格納されるMPEG-4 AVCのアクセスユニットをMP4に格納する例を示す図である。FIG. 12 is a diagram illustrating an example in which the MPEG-4 AVC access unit stored in the transport stream is stored in MP4 in the second modification of the first embodiment. 図13Aは、実施の形態1の変形例2における、LATMヘッダとLATMペイロードとのTSパケットへの格納例を示す図である。FIG. 13A is a diagram illustrating a storage example of a LATM header and a LATM payload in a TS packet in the second modification of the first embodiment. 図13Bは、実施の形態1の変形例2におけるAU_infoテーブルのシンタックスの一例を示す図である。FIG. 13B is a diagram illustrating an example of syntax of the AU_info table in the second modification of the first embodiment. 図13Cは、実施の形態1の変形例2におけるAU_infoテーブルのシンタックスの他の例を示す図である。FIG. 13C is a diagram illustrating another example of syntax of the AU_info table in the second modification of the first embodiment. 図14は、実施の形態1の変形例2におけるファイル生成装置の構成を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration of the file generation device according to the second modification of the first embodiment. 図15Aは、実施の形態1の変形例2における、NALユニットの概略構造を示す図である。FIG. 15A is a diagram showing a schematic structure of a NAL unit in the second modification of the first embodiment. 図15Bは、実施の形態1の変形例2における、MPEG2-TSにおけるNALユニットの格納フォーマットの例を示す図である。FIG. 15B is a diagram illustrating an example of the storage format of the NAL unit in MPEG2-TS in the second modification of the first embodiment. 図15Cは、実施の形態1の変形例2における、MP4におけるNALユニットの格納フォーマットの例を示す図である。FIG. 15C is a diagram illustrating an example of the storage format of the NAL unit in MP4 in the second modification of the first embodiment. 図16Aは、実施の形態1の変形例2におけるトランスポートストリームにおけるアクセスユニットの構成例を示す図である。FIG. 16A is a diagram illustrating a configuration example of an access unit in a transport stream according to the second modification of the first embodiment. 図16Bは、実施の形態1の変形例2における、サイズ情報NALユニットに含まれるサイズ情報のシンタックスの一例を示す図である。FIG. 16B is a diagram illustrating an example of the syntax of the size information included in the size information NAL unit in the second modification of the first embodiment. 図16Cは、実施の形態1の変形例2における、サイズ情報NALユニットに含まれるサイズ情報のシンタックスの他の例を示す図である。FIG. 16C is a diagram illustrating another example of the syntax of the size information included in the size information NAL unit in the second modification of the first embodiment. 図17は、実施の形態1の変形例2におけるファイル生成装置がMP4ファイルを生成する処理動作を示すフローチャートである。FIG. 17 is a flowchart illustrating a processing operation in which the file generation device according to the second modification of the first embodiment generates an MP4 file. 図18は、実施の形態1の変形例3における、モード2を使用した場合のアドレス指定の具体例を示す図である。FIG. 18 is a diagram illustrating a specific example of address designation when mode 2 is used in the third modification of the first embodiment. 図19は、実施の形態1の変形例3における、コピーサイズの上限値を超える連続領域を読み出す例を示す図である。FIG. 19 is a diagram illustrating an example of reading a continuous area exceeding the upper limit value of the copy size in the third modification of the first embodiment. 図20は、実施の形態1の変形例3における、エレメンタリーストリームからデータをコピーしてMP4ファイルを生成する処理を説明するための図である。FIG. 20 is a diagram for describing a process of generating an MP4 file by copying data from an elementary stream in the third modification of the first embodiment. 図21は、実施の形態2における、連続して再生される2つのMP4ファイルのオーディオとビデオの再生区間の例を示す図である。FIG. 21 is a diagram illustrating an example of audio and video playback sections of two MP4 files that are played back continuously in the second embodiment. 図22Aは、実施の形態2における、再生区間を統合して1つのMP4ファイルを生成する方法を説明するための図である。FIG. 22A is a diagram for describing a method of generating one MP4 file by integrating playback sections in the second embodiment. 図22Bは、実施の形態2におけるファイル生成装置のブロック図である。FIG. 22B is a block diagram of a file generation device according to Embodiment 2. 図22Cは、実施の形態2におけるファイル生成方法のフローチャートである。FIG. 22C is a flowchart of the file generation method in the second embodiment. 図22Dは、実施の形態2における再生装置のブロック図である。FIG. 22D is a block diagram of the playback device in the second embodiment. 図22Eは、実施の形態2における再生方法のフローチャートである。FIG. 22E is a flowchart of the reproduction method in the second embodiment. 図23Aは、実施の形態3における、光ディスクに格納されたコンテンツからMP4ファイルを生成する場合のメニュー画面の一例を示す図である。FIG. 23A is a diagram showing an example of a menu screen when an MP4 file is generated from content stored on an optical disc in the third embodiment. 図23Bは、実施の形態3における、光ディスクおよびネットワークを利用したMP4ファイルの生成方法を説明するための図である。FIG. 23B is a diagram for describing a method of generating an MP4 file using an optical disc and a network in the third embodiment. 図24は、実施の形態3における、NALユニットのサイズ、PTSおよびDTSを示すコピーマニフェストの一例を示す図である。FIG. 24 is a diagram illustrating an example of a copy manifest showing the size of the NAL unit, the PTS, and the DTS in the third embodiment. 図25は、実施の形態3における、MP4ファイルの末尾に格納されている字幕データの一例を示す図である。FIG. 25 is a diagram illustrating an example of caption data stored at the end of the MP4 file in the third embodiment. 図26は、実施の形態3における、2Kの解像度の字幕を4Kにスケーリングして表示するケースを示す図である。FIG. 26 is a diagram illustrating a case where subtitles with 2K resolution are scaled to 4K and displayed in the third embodiment. 図27は、実施の形態4におけるエクスポート用データの格納方法について示す図である。FIG. 27 is a diagram illustrating a method for storing export data according to the fourth embodiment. 図28Aは、実施の形態4におけるエクスポート用のプレイリストの例について示す図である。FIG. 28A is a diagram illustrating an example of an export playlist in the fourth embodiment. 図28Bは、実施の形態4におけるコピーマニフェストファイルの例について示す図である。FIG. 28B is a diagram illustrating an example of a copy manifest file in the fourth embodiment. 図29Aは、実施の形態4における、複数のバージョンの本編コンテンツが格納されている場合のファイル生成方法の一例について説明するための図である。FIG. 29A is a diagram for describing an example of a file generation method when a plurality of versions of main content are stored in the fourth embodiment. 図29Bは、実施の形態4における、ディレクターズカット版の再生経路におけるMP4ファイルを生成する場合のコピーマニフェストファイルを示す図である。FIG. 29B is a diagram showing a copy manifest file when an MP4 file is generated in the reproduction path of the director's cut version according to the fourth embodiment. 図30は、実施の形態4における、複数のバージョンの本編コンテンツが格納されている場合のファイル生成方法の他の一例について説明するための図である。FIG. 30 is a diagram for describing another example of the file generation method when a plurality of versions of the main content are stored in the fourth embodiment. 図31は、実施の形態4における、エクスポート用のオーディオのMP4ファイルとM2TSから分離したビデオのMP4ファイルとの関係の一例を示す図である。FIG. 31 is a diagram illustrating an example of a relationship between an audio MP4 file for export and a video MP4 file separated from the M2TS in the fourth embodiment. 図32Aは、実施の形態4におけるファイル生成装置のブロック図である。FIG. 32A is a block diagram of a file generation device according to Embodiment 4. 図32Bは、実施の形態4におけるファイル生成方法のフローチャートである。FIG. 32B is a flowchart of the file generation method in the fourth embodiment. 図33は、変形例4-1におけるファイル生成装置のブロック図である。FIG. 33 is a block diagram of a file generation device in Modification 4-1. 図34は、変形例4-1における、MP4ファイルを複数に分割して生成する場合の一例を示す図である。FIG. 34 is a diagram illustrating an example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1. 図35は、変形例4-1における、MP4ファイルを複数に分割して生成する場合の他の一例を示す図である。FIG. 35 is a diagram illustrating another example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1. 図36は、変形例4-1における、MP4ファイルを複数に分割して生成する場合の他の一例を示す図である。FIG. 36 is a diagram illustrating another example of the case where the MP4 file is generated by being divided into a plurality of parts in Modification 4-1. 図37は、変形例4-2における、エクスポート時に使用されるデータを光ディスクに格納する際の格納位置について示す図である。FIG. 37 is a diagram showing a storage position when data used at the time of export is stored in the optical disc in the modified example 4-2. 図38は、変形例4-3における、エクスポート用のプレイリスト内にエレメンタリーストリームのサイズを示すプレイリスト例を示す図である。FIG. 38 is a diagram illustrating a playlist example indicating the size of the elementary stream in the playlist for export in the modification 4-3. 図39は、変形例4-4における、プレイアイテム間のオーディオの接続部に発生するギャップの情報をプレイリスト内に示すプレイリスト例を示す図である。FIG. 39 is a diagram illustrating an example of a playlist in which information on gaps generated in the audio connection portion between play items is displayed in the playlist in Modification 4-4. 図40Aは、変形例4-5における、エクスポート時にオーディオのギャップを生成する方法例について説明するための図である。FIG. 40A is a diagram for describing an example of a method for generating an audio gap at the time of export in Modification 4-5. 図40Bは、変形例4-5における、ギャップを生成する際に削除する必要があるフレームが示されたプレイリスト例を示す図である。FIG. 40B is a diagram illustrating an example of a playlist in which frames that need to be deleted when a gap is generated are shown in Modification 4-5. 図41は、変形例4-6における、HDR(High Dynamic Range)の輝度範囲の輝度を含むビデオデータをMP4ファイルに格納する際の格納例を示す図である。FIG. 41 is a diagram illustrating a storage example when the video data including the brightness in the HDR (High Dynamic Range) brightness range is stored in the MP4 file according to the modification 4-6. 図42は、変形例4-7における、エクスポートしたDMPデータを、DLNA(Digital Living Network Alliance)規格などに基づいて、モバイル端末で視聴する際の動作を説明するための図である。FIG. 42 is a diagram for explaining the operation when viewing the exported DMP data on the mobile terminal based on the DLNA (Digital Living Network Alliance) standard in Modification 4-7. 図43は、実施の形態5におけるMP4ファイルの生成方法を説明するための図である。FIG. 43 is a diagram for explaining a method of generating an MP4 file in the fifth embodiment. 図44Aは、変形例5-1におけるフォーマット変換処理を説明するための図である。FIG. 44A is a diagram for explaining the format conversion process in the modified example 5-1. 図44Bは、変形例5-1におけるMapping info.ファイルの構成例を示す図である。FIG. 44B shows Mapping info. In Modification 5-1. It is a figure which shows the structural example of a file. 図44Cは、変形例5-1におけるMapping info.ファイルに含まれる情報を説明するための図である。FIG. 44C shows Mapping info. In Modification 5-1. It is a figure for demonstrating the information contained in a file. 図45は、変形例5-2における静的HDRメタデータの格納例を示す図である。FIG. 45 is a diagram illustrating a storage example of static HDR metadata in the modification 5-2. 図46は、変形例5-2における基本レイヤ及び拡張レイヤのMP4を示す図である。FIG. 46 is a diagram illustrating MP4 of the base layer and the enhancement layer in Modification 5-2.
 (本開示の基礎となった知見)
 前述の映像ストリーム生成法では、異なる輝度範囲に対応した複数の映像データを含む映像ストリームが生成される場合がある。このような場合には、複数の輝度範囲の映像データを適切に再生できることが望まれている。
(Knowledge that became the basis of this disclosure)
In the above video stream generation method, a video stream including a plurality of video data corresponding to different luminance ranges may be generated. In such a case, it is desired that video data in a plurality of luminance ranges can be appropriately reproduced.
 本開示は、複数の輝度範囲の映像データを適切に再生できる映像ストリームを生成できる映像ストリーム生成方法等を提供する。 This disclosure provides a video stream generation method and the like that can generate a video stream that can appropriately reproduce video data in a plurality of luminance ranges.
 本発明者は、「背景技術」の欄において記載した上記特許文献1のファイル生成方法に関し、以下の課題が生じることを見出した。 The present inventor has found that the following problems occur with respect to the file generation method of Patent Document 1 described in the “Background Art” column.
 上記特許文献1のファイル生成方法では、MPEG2-TSで多重化されたコンテンツを、一度、映像ストリーム、音声ストリーム、または字幕ストリームなどの各ストリームに戻した上で、そのコンテンツのファイルフォーマットをMP4に変換する必要がある。また、一般的に、光ディスクで配布される商用コンテンツは暗号化されている。したがって、変換の際には、一旦、暗号を解いてからファイルフォーマットを変換し、その後に、再度暗号化を行う必要がある。以下、MPEG2-TSのコンテンツの構造などについて詳細に説明する。 In the file generation method of Patent Document 1, content multiplexed in MPEG2-TS is once returned to each stream such as a video stream, an audio stream, or a subtitle stream, and the file format of the content is changed to MP4. Need to convert. In general, commercial content distributed on an optical disc is encrypted. Therefore, at the time of conversion, it is necessary to first decrypt the encryption, convert the file format, and then perform encryption again. The structure of MPEG2-TS content will be described in detail below.
 図1は、光ディスクに格納されているMPEG2-TSのコンテンツの構造の一例を模式的に示す図である。光ディスクには、コンテンツとしてStream Fileが格納される。図1に示す例では、光ディスクにはStream Fileが1つしか格納されていないが、複数格納されていてもよい。またここでは、Stream FileはXXXXX.M2TSというファイル名で記録されている。XXXXXには、番号が記載される。複数のコンテンツが格納される場合には、この番号によって、それらのコンテンツを個別に管理することが可能である。 FIG. 1 is a diagram schematically showing an example of the structure of MPEG2-TS content stored on an optical disc. On the optical disc, a Stream File is stored as content. In the example shown in FIG. 1, only one Stream File is stored on the optical disc, but a plurality of Stream Files may be stored. Also here, Stream File is XXXXXX. It is recorded with a file name of M2TS. A number is described in XXXXXX. When a plurality of contents are stored, it is possible to individually manage these contents by this number.
 Stream Fileは、それぞれ6144BytesのAligned Unitと呼ばれる複数の単位に区分される。Aligned Unitは暗号化の単位である。なお、Stream Fileのデータ量は、必ずしも6144Bytesの倍数にならない可能性がある。6144Bytesの倍数にならない場合には、コンテンツの末尾にNULL Dataを格納する等の方法によって、Stream Fileのデータ量を6144Bytesの倍数にすることが望ましい。 The Stream File is divided into a plurality of units each called 6144-byte Aligned Unit. Aligned Unit is a unit of encryption. Note that the data amount of the Stream File may not necessarily be a multiple of 6144 bytes. If it is not a multiple of 6144 bytes, it is desirable to make the data amount of the stream file a multiple of 6144 bytes by a method such as storing NULL Data at the end of the content.
 図2は、Aligned Unitの復号方法を説明するための図である。 FIG. 2 is a diagram for explaining a method of decrypting the aligned unit.
 光ディスク上のコンテンツは、データであるユニット鍵Kuを用いて暗号化されている。暗号化の際には、Aligned Unitに含まれる6144Bytesのデータは、先頭の16Bytesのデータと、残る6128Bytesのデータとに分離され、その残りの6128Bytesのデータが暗号化される。 The content on the optical disc is encrypted using the unit key Ku which is data. At the time of encryption, the 6144-byte data included in the aligned unit is separated into the first 16-byte data and the remaining 6128-byte data, and the remaining 6128-byte data is encrypted.
 Aligned Unitの復号の際には、AES_Eは、まず、先頭の16Bytesのデータに対して、ユニット鍵Kuを用いたAES(Advanced Encryption Standard)暗号方式の暗号化を行う。次に、この暗号化によって得られたデータと、先頭の16Bytesのデータとの排他的論理和の演算が行われる。AES_DCBCは、この排他的論理和の演算の結果を鍵として利用し、残る6128BytesのデータをAES-CBC(Cipher Block Chaining)モードで復号する。この復号によって得られる平文のデータに、先頭の16Bytesのデータが付け加えられる。その結果、Aligned Unitに対応する6144Bytesの平文が得られる。 When decrypting the Aligned Unit, AES_E first encrypts the first 16 bytes of data using the AES (Advanced Encryption Standard) encryption method using the unit key Ku. Next, an exclusive OR operation is performed on the data obtained by this encryption and the leading 16-byte data. AES_DCBC uses the result of this exclusive OR operation as a key, and decrypts the remaining 6128 bytes of data in AES-CBC (Cipher Block Chaining) mode. The first 16 bytes of data are added to the plaintext data obtained by this decryption. As a result, 6144 bytes of plaintext corresponding to the aligned unit is obtained.
 図3は、平文の状態のAligned Unitの内部構造を示す図である。 FIG. 3 is a diagram showing the internal structure of the aligned unit in a plain text state.
 Aligned Unitは、それぞれ192Bytesの32個のSource Packetから構成される。各Source Packetは、4BytesのヘッダであるTP_extra_headerと、TSパケットである188BytesのTransport Packetとから構成される。さらに188BytesのTransport Packetは、4BytesのTS Headerと、184BytesのTS Payloadとから構成される。TS Headerには、TS Payloadの属性を示す情報が記載されている。具体的には、TS Headerは、sync_byte(8bits)、transport_error_indicator(1bit)、payload_unit_start_indicator(1bit)、transport_priority(1bit)、PID(13bits)、transport_scrambling_control(2bits)、adaptation_field_control(2bits)、およびcontinuity_counter(4bits)から構成される。ここで、PIDは、TS Payload内に格納されるエレメンタリーストリームの種別、例えばビデオまたは音声などを識別するための情報である。また、音声が複数種類ある場合でも、このPIDによって、エレメンタリーストリームの音声の種類を識別することができる。 Aligned Unit is composed of 32 source packets of 192 bytes each. Each Source Packet is composed of a TP_extra_header that is a 4-byte header and a 188-byte Transport Packet that is a TS packet. Further, the 188-byte Transport Packet is composed of a 4-byte TS Header and a 184-byte TS Payload. Information indicating the attribute of TS Payload is described in TS Header. Specifically, TS Header from sync_byte (8bits), transport_error_indicator (1bit), payload_unit_start_indicator (1bit), transport_priority (1bit), PID (13bits), transport_scrambling_control (2bits), adaptation_field_control (2bits), and continuity_counter (4 bits) Composed. Here, the PID is information for identifying the type of elementary stream stored in the TS Payload, such as video or audio. Even when there are a plurality of types of audio, the type of audio of the elementary stream can be identified by this PID.
 図4は、複数のTS Payloadから実際のElementary Streamを作成する方法を示す図である。同じPIDが割り当てられた複数のTS Payloadをつなぎ合わせることによって、PES_HeaderとElementary Streamが構成される。ここで、複数のTS Payloadのうちの最初のTS Payloadは、PES_Headerを含むように構成されている。なお、PES_HeaderとElementary Streamの少なくとも一部とからPES(Packetized Elementary Stream)またはPESパケットが構成される。 FIG. 4 is a diagram showing a method for creating an actual Elementary Stream from a plurality of TS Payloads. A PES_Header and an Elementary Stream are configured by connecting a plurality of TS Payloads to which the same PID is assigned. Here, the first TS Payload of the plurality of TS Payloads is configured to include PES_Header. A PES (Packetized Elementary Stream) or a PES packet is composed of at least a part of the PES_Header and the Elementary Stream.
 以上のように、MPEG2-TSのファイル(Stream File)は、Aligned Unitごとに暗号化されている。したがって、そのファイルをMP4のファイルに変換するためには、上述のような復号が行われ、さらに再暗号化が行われる。スマートフォンまたはタブレットなどの変換機器では、この復号および暗号化に時間がかかるという課題がある。さらに、一旦、平文のコンテンツを作成することとなるため、セキュリティ上の課題もある。 As described above, the MPEG2-TS file (Stream File) is encrypted for each Aligned Unit. Therefore, in order to convert the file into an MP4 file, the above-described decryption is performed, and further re-encryption is performed. In a conversion device such as a smartphone or a tablet, there is a problem that it takes time to perform the decryption and encryption. Furthermore, since plain text content is once created, there is a security problem.
 また、このような映像ストリーム生成法では、異なる輝度範囲(例えば、後述するSDR及びHDR)に対応した複数の映像データを含む映像ストリームが生成される場合がある。このような場合には、複数の輝度範囲の映像データを適切に再生できることが望まれている。 Also, in such a video stream generation method, a video stream including a plurality of video data corresponding to different luminance ranges (for example, SDR and HDR described later) may be generated. In such a case, it is desired that video data in a plurality of luminance ranges can be appropriately reproduced.
 本開示の一態様に係る映像ストリーム生成方法は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを生成する生成ステップを含み、前記生成ステップでは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように前記映像ストリームを生成する。 A video stream generation method according to an aspect of the present disclosure generates a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. A plurality of second video data that are continuously and seamlessly reproduced among the plurality of first video data so as to be all video data in the first luminance range. Alternatively, the video stream is generated so as to be all video data in the second luminance range.
 これによれば、シームレスに再生される再生区間において、輝度範囲が切り替わることが禁止される。これにより、当該映像ストリーム生成方法は、複数の輝度範囲の映像データを適切に再生できる映像ストリームを生成できる。 According to this, it is prohibited to switch the luminance range in the playback section that is played back seamlessly. Accordingly, the video stream generation method can generate a video stream that can appropriately reproduce video data in a plurality of luminance ranges.
 例えば、前記複数の第2映像データは、一つのプレイリストにより指定される複数の映像データであってもよい。 For example, the plurality of second video data may be a plurality of video data specified by one playlist.
 例えば、第2輝度範囲の最大輝度値は100nitを超えてもよい。 For example, the maximum luminance value in the second luminance range may exceed 100 nits.
 また、本開示の一態様に係る再生装置は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを再生する再生部を備え、前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている。 A playback device according to an aspect of the present disclosure plays back a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. A playback unit, wherein the video stream includes a plurality of second video data that are continuously and seamlessly played out of the plurality of first video data, so that all the video data in the first luminance range are obtained. Alternatively, all the video data is generated in the second luminance range.
 これによれば、映像ストリームのシームレスに再生される再生区間において、輝度範囲が切り替わることが禁止されている。よって、当該再生装置は、当該映像ストリームを適切に再生できる。 According to this, it is prohibited to switch the luminance range in the playback section in which the video stream is played back seamlessly. Therefore, the playback device can appropriately play back the video stream.
 また、本開示の一態様に係る記録媒体は、第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームが記録されており、前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている。 In addition, the recording medium according to an aspect of the present disclosure records a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range. The video stream is configured such that, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or All are generated so as to be video data in the second luminance range.
 これによれば、映像ストリームのシームレスに再生される再生区間において、輝度範囲が切り替わることが禁止されている。よって、再生装置は、当該記録媒体に記録されている映像ストリームを適切に再生できる。 According to this, it is prohibited to switch the luminance range in the playback section in which the video stream is played back seamlessly. Therefore, the playback device can appropriately play back the video stream recorded on the recording medium.
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific modes may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. Alternatively, it may be realized by any combination of recording media.
 また、上記特徴に関しては、主に、(変形例5-2)において説明する。 The above features will be mainly described in (Modification 5-2).
 以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.
 (実施の形態1)
 図5は、本実施の形態におけるファイル生成装置の構成を示すブロック図である。
(Embodiment 1)
FIG. 5 is a block diagram showing a configuration of the file generation apparatus according to the present embodiment.
 本実施の形態におけるファイル生成装置10は、MP4ファイルを生成する装置であって、元ファイル取得部11と、差分ファイル取得部12と、手順ファイル取得部13と、生成部14とを備える。元ファイル取得部11は、MP4と異なるファイルフォーマットで構成されている元ファイルを取得する。差分ファイル取得部12は、その元ファイルに含まれていないデータを含む差分ファイルを取得する。手順ファイル取得部13は、MP4ファイルを生成するための手順を示す手順ファイルを取得する。生成部14は、その手順ファイルに示される手順にしたがって、差分ファイルに含まれるデータと、元ファイルに含まれるデータとを組み合わせることによって、MP4ファイルを生成する。言い換えれば、生成部14は、元ファイルをMP4ファイルに変換する。 The file generation apparatus 10 in the present embodiment is an apparatus that generates an MP4 file, and includes an original file acquisition unit 11, a difference file acquisition unit 12, a procedure file acquisition unit 13, and a generation unit 14. The original file acquisition unit 11 acquires an original file configured in a file format different from MP4. The difference file acquisition unit 12 acquires a difference file including data that is not included in the original file. The procedure file acquisition unit 13 acquires a procedure file indicating a procedure for generating an MP4 file. The generation unit 14 generates an MP4 file by combining the data included in the difference file and the data included in the original file according to the procedure indicated in the procedure file. In other words, the generation unit 14 converts the original file into an MP4 file.
 以下、このファイル生成装置10による処理動作について詳細に説明する。 Hereinafter, the processing operation by the file generation device 10 will be described in detail.
 図6は、MPEG2-TSのストリームファイル、差分ファイルおよびコピーマニフェストファイルから、MP4のストリームファイルを生成する方法を説明するための図である。 FIG. 6 is a diagram for explaining a method of generating an MP4 stream file from an MPEG2-TS stream file, a difference file, and a copy manifest file.
 本実施の形態では、例えば、光ディスク(例えばBlu-ray(登録商標、以下同様)ディスク)に、上述の元ファイルであるストリームファイルA(XXXXX.M2TS)と、上述の手順ファイルであるコピーマニフェストファイル(XXXXX.CMNF)と、上述の差分ファイル(XXXXX.DMP4)とが記録されている。コピーマニフェストファイル(XXXXX.CMNF)には、この元ファイルをどのように処理してMP4ファイルに変換するのかの変換手順が記述されている。差分ファイル(XXXXX.DMP4)は、MP4ファイルへ変換するために必要となるデータを格納している。 In the present embodiment, for example, an optical disc (for example, a Blu-ray (registered trademark, the same applies hereinafter) disc), a stream file A (XXXX.M2TS) that is the above-described original file, and a copy manifest file that is the above-described procedure file. (XXXX.CMNF) and the above-described difference file (XXXX.DMP4) are recorded. The copy manifest file (XXXX.CMNF) describes a conversion procedure for processing the original file and converting it into an MP4 file. The difference file (XXXX.DMP4) stores data necessary for conversion to an MP4 file.
 生成部14は、MPEG2-TSのストリームファイルA(XXXXX.M2TS)を変換する際には、コピーマニフェストファイル(XXXXX.CMNF)の記述に従って、ストリームファイルA(XXXXX.M2TS)のデータと差分ファイル(XXXXX.DMP4)のデータとを交互に組み合わせることにより、MP4ファイルであるストリームファイルB(XXXXX.MP4)を生成する。言い換えれば、生成部14は、ストリームファイルA(XXXXX.M2TS)をストリームファイルB(XXXXX.MP4)に変換する。 When converting the MPEG2-TS stream file A (XXXX.M2TS), the generating unit 14 converts the data of the stream file A (XXXX.M2TS) and the difference file (XXXX.M2TS) according to the description of the copy manifest file (XXXX.CMNF). The stream file B (XXXX.MP4) which is an MP4 file is generated by alternately combining the data of XXXXXX.DMP4). In other words, the generation unit 14 converts the stream file A (XXXX.M2TS) into the stream file B (XXXX.MP4).
 これにより、元ファイルを音声または映像のエレメンタリーストリーム(例えば、HE-AACまたはMPEG-4 AVCのストリーム)に復元することなく、その変換を行うことができる。また、元ファイルが暗号化されていれば、その暗号化も解くことなく、元ファイルからMP4ファイルへの変換が簡単にできる。 Thus, the original file can be converted without being restored to an audio or video elementary stream (for example, a HE-AAC or MPEG-4 AVC stream). If the original file is encrypted, the conversion from the original file to the MP4 file can be easily performed without breaking the encryption.
 このコピーマニフェストファイル(XXXXX.CMNF)は、“Input File A”、“Input File B”、“Output File”、“Output File Size”、“ATTRIBUTE”、“MP4 DECODER BUFFER SIZE”、および“COPY MANIFEST”を含む。“Input File A”および“Input File B”は、入力される2つのファイルのファイル名を示す。“Input File A”によって示されるファイルの先頭部分のコピーから変換処理が始められる。“Output File”は、出力されるファイル、つまり生成されるMP4ファイルのファイル名を示す。“Output File Size”は、その出力されるMP4ファイルのデータサイズを示す。このデータサイズは、バイト精度で記述されている。このデータサイズを確認することで、出力されるMP4ファイルが記録されるメディアに、十分な空き容量があるか否かを変換処理の前に確認することができる。“ATTRIBUTE”は、各ファイルの属性を示し、具体的には、どのようなエレメンタリーストリームが変換されてどのようなファイルが生成されるのかを示す。図6に示す例では、“ATTRIBUTE”は、変換後のMP4ファイルが、HEVC(High Efficiency Video Coding)で圧縮された4K映像と、AAC(Advanced Audio Coding)の5.1ch英語音声とを含んでいることを示す。これによって、変換処理の前に、このコピーマニフェストファイルに従って変換した際に得られる変換後のファイルがどのようなファイルかを事前に確認することができる。また、“ATTRIBUTE”は、MP4ファイルのデータ構造などを示してもよく、MP4ファイルの“ftyp”に格納されるMP4のブランド(つまり種類)を示してもよい。 This copy manifest file (XXXX.CMNF) is “Input File A”, “Input File B”, “Output File”, “Output File Size”, “ATTRIBUTE”, “MP4 DECODER BUFFER SIZE”. including. “Input File A” and “Input File B” indicate the file names of the two input files. The conversion process starts from a copy of the top part of the file indicated by “Input File A”. “Output File” indicates an output file, that is, a file name of a generated MP4 file. “Output File Size” indicates the data size of the output MP4 file. This data size is described with byte precision. By confirming this data size, it is possible to confirm whether or not the medium on which the output MP4 file is recorded has sufficient free space before the conversion process. “ATTRIBUTE” indicates the attribute of each file, specifically, what kind of elementary stream is converted and what kind of file is generated. In the example shown in FIG. 6, “ATTRIBUTE” includes 4K video in which the converted MP4 file is compressed with HEVC (High Efficiency Video Coding) and 5.1ch English audio of AAC (Advanced Audio Coding). Indicates that Thus, before the conversion process, it is possible to confirm in advance what the converted file obtained when converting according to this copy manifest file is. “ATTRIBUTE” may indicate the data structure of the MP4 file or the like, and may indicate the brand (that is, the type) of MP4 stored in “ftyp” of the MP4 file.
 また、“MP4 DECODER BUFFER SIZE”は、出力されるMP4ファイルである変換後のストリームファイルB(XXXXX.MP4)を再生するために、最低必要となるバッファサイズを示す。このバッファサイズは、変換後のストリームファイルBであるMP4ファイルにおいて、どのような多重化規則で映像と音声などが多重化されているかに依存する量である。“MP4 DECODER BUFFER SIZE”は、バッファサイズ以外にも、変換後のストリームファイルBを再生するために、どのようなデコーダリソース(メモリ量やデータ転送速度)が必要かを示してもよい。 In addition, “MP4 DECODER BUFFER SIZE” indicates a minimum buffer size necessary for reproducing the converted stream file B (XXXX.MP4), which is an output MP4 file. This buffer size is an amount that depends on what multiplexing rule is used to multiplex video and audio in the MP4 file that is the stream file B after conversion. In addition to the buffer size, “MP4 DECODER BUFFER SIZE” may indicate what kind of decoder resources (memory amount and data transfer rate) are necessary to reproduce the stream file B after conversion.
 “COPY MANIFEST”は、“Input File A”によって示されるファイルの各部分の範囲と、“Input File B”によって示されるファイルの各部分の範囲とを示す。これの各部分は、“Output File”によって示されるMP4ファイルを生成するために順次コピーして貼り付けられる部分である。また、それぞれの部分の範囲は、コピー開始位置とコピーサイズとによって、またはコピーサイズのみによって示される。また、“COPY MANIFEST”は、“Input File A”によって示されるファイルの部分と、“Input File B”によって示されるファイルの部分とが交互に繰り返しコピーおよび貼り付けられるように、それらのファイルの各部分の範囲を示す。 “COPY MANIFEST” indicates the range of each part of the file indicated by “Input File A” and the range of each part of the file indicated by “Input File B”. Each of these portions is a portion that is sequentially copied and pasted to generate an MP4 file indicated by “Output File”. The range of each part is indicated by the copy start position and the copy size, or only by the copy size. In addition, “COPY MANIFEST” is a file part indicated by “Input File A” and a part of the file indicated by “Input File B” are alternately copied and pasted. Indicates the range of the part.
 差分ファイル(XXXXX.DMP4)は、その差分ファイルの先頭から、指定のサイズの部分ごとに、コピーされて貼り付けられる。したがって、“COPY MANIFEST”では、差分ファイル(XXXXX.DMP4)の各部分を示すために、コピー開始位置を指定する必要がない。つまり、コピー開始位置を用いずに、コピーサイズ(データサイズ)のみによって、差分ファイルの各部分の範囲が示される。 The difference file (XXXX.DMP4) is copied and pasted from the beginning of the difference file for each part of the specified size. Therefore, in “COPY MANIFEST”, it is not necessary to specify the copy start position in order to indicate each part of the difference file (XXXX.DMP4). That is, the range of each part of the difference file is indicated only by the copy size (data size) without using the copy start position.
 一方、ストリームファイルA(XXXXX.M2TS)は、変換後のストリームファイルB(XXXXX.MP4)に必要のないデータを含む。したがって、“COPY MANIFEST”では、元ファイルであるストリームファイルAの各部分を示すために、コピー開始位置およびコピーサイズによって、その各部分の範囲が示される。コピー開始位置は、ファイルの先頭からのバイト位置であり、コピーサイズはバイト単位のデータサイズである。 On the other hand, the stream file A (XXXX.M2TS) includes data that is not necessary for the converted stream file B (XXXX.MP4). Therefore, in “COPY MANIFEST”, in order to indicate each part of the stream file A that is the original file, the range of each part is indicated by the copy start position and the copy size. The copy start position is a byte position from the beginning of the file, and the copy size is a data size in bytes.
 生成部14は、コピーマニフェストファイルにしたがって、“COPY MANIFEST”によって示される、元ファイルに含まれる部分と、差分ファイルに含まれる部分とを、交互にコピーして貼り付けることを繰り返す。つまり、生成部14は、“COPY MANIFEST”によって示される、元ファイルに含まれる部分と、差分ファイルに含まれる部分とを、交互に組み合わせることを繰り返す。これにより、変換後のストリームファイルBであるMP4ファイルが生成される。 The generation unit 14 repeats copying and pasting alternately the portion included in the original file and the portion included in the difference file indicated by “COPY MANIFEST” according to the copy manifest file. That is, the generation unit 14 repeats alternately combining the part included in the original file and the part included in the difference file, which are indicated by “COPY MANIFEST”. As a result, an MP4 file that is the stream file B after conversion is generated.
 したがって、コピーマニフェストファイルにしたがえば、どのような機器で元ファイルを変換したとしても、同一の変換後のストリームファイルB(XXXXX.MP4)を生成することが可能となる。つまり、変換後のストリームファイルBを、どのような機器においても不具合無く再生することが容易となる。 Therefore, according to the copy manifest file, the same converted stream file B (XXXX.MP4) can be generated regardless of the device used to convert the original file. That is, it becomes easy to reproduce the stream file B after conversion without any trouble on any device.
 なお、ファイル生成装置10は、差分ファイル(XXXXX.DMP4)とコピーマニフェストファイル(XXXXX.CMNF)を、Blu-rayディスクなどの光ディスクから取得してもよく、これらの両方もしくは片方のファイルをインターネット経由で取得してもよい。この場合は、元ファイルを、最新のファイルフォーマットのファイル、または別の映像および音声を含むMP4ファイルなどへ変換するなどの様々な選択をユーザーに提示することが、ファイル生成装置10に特段の変更を要することなく可能となる。 The file generation apparatus 10 may obtain the difference file (XXXX.DMP4) and the copy manifest file (XXXX.CMNF) from an optical disc such as a Blu-ray disc, and both or one of these files may be obtained via the Internet. You may get it at In this case, it is a special change to the file generation apparatus 10 to present the user with various selections such as converting the original file into a file in the latest file format or an MP4 file including another video and audio. It is possible without requiring.
 また、ファイル生成装置10は、元ファイルであるストリームファイルAが暗号化されたままの状態で変換を行ってもよく、元ファイルの暗号を解いた後に、MP4ファイルへの変換を行い、生成されたMP4ファイルを再び暗号化してもよい。また、元ファイルであるファイルストリーム(XXXXX.M2TS)は平文であってもよい。なお、差分ファイルは、ヘッダ情報から構成されるため、差分ファイルの暗号化は不要である。ただし、元ファイルであるストリームファイルA(XXXXX.M2TS)、あるいは、MP4ファイルであるストリームファイルB(XXXXX.MP4)が平文である場合に、ファイル全体をメモリに展開する、あるいは、ハードディスクに一旦保存するなどの動作は、セキュリティ面から許容されないことがある。 Further, the file generation apparatus 10 may perform the conversion while the stream file A that is the original file is encrypted, and after the decryption of the original file is performed, the file is generated by performing the conversion to the MP4 file. The MP4 file may be encrypted again. Further, the file stream (XXXX.M2TS) which is the original file may be plain text. Since the difference file is composed of header information, it is not necessary to encrypt the difference file. However, if stream file A (XXXX.M2TS), which is the original file, or stream file B (XXXX.MP4), which is an MP4 file, is plain text, the entire file is expanded in memory or temporarily saved on the hard disk Operations such as doing this may not be allowed for security reasons.
 したがって、ファイル生成装置10は、平文の元ファイルであるストリームファイルA(XXXXX.M2TS)のうち、MP4ファイルへの変換が終了した領域から順に、その領域を削除してもよい。また、ファイル生成装置10は、MP4ファイルであるストリームファイルB(XXXXXX.MP4)を暗号化するときには、そのMP4ファイルに含まれる“Movie fragment”、あるいは、所定の数のMP4サンプルなどの部分が生成される度に、その生成された部分を順に暗号化してもよい。なお、暗号化の前後でデータサイズが変化しないような暗号化方式を用いれば、暗号化の有無に関わらず、コピーされるデータの領域は変化しない。 Therefore, the file generation apparatus 10 may delete the areas of the stream file A (XXXX.M2TS), which is the plaintext original file, in order from the area where the conversion to the MP4 file is completed. Further, when encrypting the stream file B (XXXXXXX.MP4) which is an MP4 file, the file generation apparatus 10 generates a portion such as “Movie fragment” included in the MP4 file or a predetermined number of MP4 samples. Each time it is done, the generated portions may be encrypted in sequence. If an encryption method in which the data size does not change before and after encryption is used, the area of the data to be copied does not change regardless of the presence or absence of encryption.
 また、コピーマニフェストファイルは、元ファイルであるストリームファイルA(XXXXX.M2TS)が暗号化されているかどうかを示してもよい。あるいは、コピーマニフェストファイルは、そのストリームファイルAに多重化された符号化データを暗号化されたまま変換するのか、その暗号化された符号化データを平文にしてからMP4ファイルに変換した後に再び暗号化するのかなどを示してもよい。 Also, the copy manifest file may indicate whether or not the stream file A (XXXX.M2TS) that is the original file is encrypted. Alternatively, the copy manifest file can be converted after the encoded data multiplexed in the stream file A is encrypted or converted into an MP4 file after converting the encrypted encoded data into plain text. It may indicate whether or not
 図7は、差分ファイルおよびコピーマニフェストファイルを生成する方法を説明するための図である。 FIG. 7 is a diagram for explaining a method of generating a difference file and a copy manifest file.
 差分ファイル(XXXXX.DMP4)とコピーマニフェストファイル(XXXXX.CMNF)は次のようにして生成することが可能である。オーサリングの段階で、元ファイルであるストリームファイルA(XXXXX.M2TS)をフォーマット変換することにより、MP4ファイルである変換後のストリームファイルB(XXXXX.MP4)を生成する。次に、元ファイルであるストリームファイルAと、ストリームファイルBとのそれぞれの間で、互いに一致するデータを含む少なくとも1つの部分を検索する。このとき、それぞれの部分のデータサイズが最も大きくなるように検索する。次に、ストリームファイルBに含まれる、上述のように検索された部分以外の残りの部分のそれぞれを、ストリームファイルBに含まれている順番にしたがって連結することにより、差分ファイルを生成する。このときの、各ファイルの相関関係結果を、“COPY MANIFEST”としてコピーマニフェストファイルに記録する。 The difference file (XXXX.DMP4) and copy manifest file (XXXX.CMNF) can be generated as follows. At the authoring stage, the stream file A (XXXX.M2TS), which is the original file, is converted in format to generate the converted stream file B (XXXX.MP4), which is an MP4 file. Next, at least one portion including data matching each other is searched between the stream file A and the stream file B which are the original files. At this time, the search is performed so that the data size of each part becomes the largest. Next, a difference file is generated by concatenating the remaining parts included in the stream file B other than the part searched as described above according to the order included in the stream file B. The correlation result of each file at this time is recorded in the copy manifest file as “COPY MANIFEST”.
 なお、上述の検索は、ストリームファイルAとストリームファイルBとのそれぞれに含まれるデータを、それぞれのファイルの先頭から後方へ向かう方向に順次取得し、それらのデータを比較することによって行われる。そして、その比較は、上述の方向と逆方向に戻ることなく行われる。これにより、上述の変換処理(コピー処理)を、シーケンシャルに、つまり1つの連続した処理によって行うことが可能となり、高速化または少メモリ化を実現することができる。 Note that the above-described search is performed by sequentially acquiring the data included in each of the stream file A and the stream file B in the direction from the top to the back of each file and comparing the data. And the comparison is performed without returning to the reverse direction to the above-mentioned direction. As a result, the above-described conversion process (copy process) can be performed sequentially, that is, by one continuous process, and speeding up or memory reduction can be realized.
 なお、ビデオおよびオーディオをMPEG2-TSで多重化する際には、Iピクチャなど符号量の大きいピクチャのデータがアンダーフローしないように、ビデオに含まれる所定のPTS(Presentation TimeStamp)のピクチャが、オーディオに含まれるその所定のPTSと同一のPTSのフレームに比べて時間的に前に多重化されることがある。一方で、ビデオおよびオーディオをMP4で多重化する際には、“Movie fragment”におけるビデオの先頭ピクチャのPTSとオーディオの先頭フレームのPTSとが一致、あるいは近傍となるように、多重化されることが一般的である。 In addition, when video and audio are multiplexed by MPEG2-TS, a picture of a predetermined PTS (Presentation TimeStamp) included in the video is audio so that data of a picture having a large code amount such as an I picture does not underflow. May be multiplexed earlier in time than a frame of the same PTS as the predetermined PTS included in the. On the other hand, when video and audio are multiplexed by MP4, the PTS of the first picture of the video and the PTS of the first frame of the audio in “Movie fragment” should be multiplexed or close to each other. Is common.
 このように、ストリームファイルAとストリームファイルBにおいて、オーディオ、ビデオ、またはテキストの多重化単位が異なると、変換処理をシーケンシャルに行うことができないことがある。その結果、読出し、あるいは、書き込みのポインタを順次、前後に移動させながら変換することも生じる。したがって、変換処理が1つの連続した処理で行えるかどうか、あるいは、1つの連続した処理で行えない場合に、後戻りが必要な最大データサイズなどを、コピーマニフェストファイルに登録してもよい。 As described above, if the audio, video, or text multiplexing unit is different between the stream file A and the stream file B, the conversion process may not be performed sequentially. As a result, conversion may occur while the pointer for reading or writing is sequentially moved back and forth. Therefore, whether or not the conversion process can be performed by one continuous process, or when it cannot be performed by one continuous process, the maximum data size that needs to be returned may be registered in the copy manifest file.
 なお、ストリームファイルAとストリームファイルBとに対して行われる、一致するデータを含む部分の検索が、小さいデータの単位で行われると、コピーマニフェストファイルのデータサイズが大きくなったり、変換処理が煩雑になったりする。このため、特定の閾値を設けてもよい。例えば、互いに8バイト以上一致するデータを含む部分のみをコピーマニフェストファイルに登録する。ストリームファイルBに含まれる、その部分以外の残りの部分のそれぞれが、ストリームファイルAのデータと一致する8バイト未満のデータを含んでいても、それらの残りの部分に含まれるデータは差分ファイルに格納される。また、この閾値を、コピーマニフェストファイルに“MIN COPY SIZE: 8 bytes”のように記述しても良い。 Note that if the search for the portion including matching data, which is performed on the stream file A and the stream file B, is performed in units of small data, the data size of the copy manifest file becomes large and the conversion process is complicated. It becomes. For this reason, a specific threshold value may be provided. For example, only a portion including data that matches 8 bytes or more is registered in the copy manifest file. Even if each of the remaining portions other than that portion included in the stream file B includes data of less than 8 bytes that matches the data of the stream file A, the data included in those remaining portions is stored in the difference file. Stored. Further, this threshold value may be described in the copy manifest file as “MIN COPY SIZE: 8 bytes”.
 また、差分ファイルを用いずに、MP4ファイルにおける多重化単位を示すコピーマニフェストファイルを用いて、MPEG-2TSのファイルをMP4のファイルに変換してもよい。例えば、MP4では、オーディオ、ビデオ、あるいは、テキストがそれぞれ異なる“Movie fragment”として多重化される。このとき、復号順で“Movie fragment”の先頭および最終となるオーディオフレームおよびビデオピクチャのそれぞれのDTS、あるいは、MPEG-2TSのファイルの先頭からのバイトオフセット値などを、メディアの識別情報と共に登録してもよい。なお、“Movie fragment”の登録順は、MP4のファイルにおける“Movie fragment”の出現順と一致するものとする。 Further, instead of using the difference file, the MPEG-2TS file may be converted into the MP4 file by using a copy manifest file indicating a multiplexing unit in the MP4 file. For example, in MP4, audio, video, or text is multiplexed as different “Movie fragments”. At this time, the first and last audio frame and video picture DTS in decoding order and the byte offset value from the beginning of the MPEG-2TS file are registered together with the media identification information. May be. It should be noted that the registration order of “Movie fragment” is the same as the order of appearance of “Movie fragment” in the MP4 file.
 図8は、本実施の形態におけるファイル生成方法のフローチャートである。 FIG. 8 is a flowchart of the file generation method in the present embodiment.
 本実施の形態におけるファイル生成方法は、ファイル生成装置10がMP4ファイルを生成する方法である。このファイル生成方法では、まず、ファイル生成装置10の元ファイル取得部11は、MP4と異なるファイルフォーマットで構成されている元ファイルを取得する(ステップS11)。次に、差分ファイル取得部12は、その元ファイルに含まれていないデータを含む差分ファイルを取得する(ステップS12)。次に、手順ファイル取得部13は、MP4ファイルを生成するための手順を示す手順ファイルを取得する(ステップS13)。そして、生成部14は、その手順ファイルに示される手順にしたがって、差分ファイルに含まれるデータと、元ファイルに含まれるデータとを組み合わせることによって、上述のMP4ファイルを生成する(ステップS14)。例えば、ステップS11では、元ファイル取得部11は、MPEG2-TSのファイルフォーマットで構成されている元ファイルを取得する。 The file generation method in the present embodiment is a method in which the file generation device 10 generates an MP4 file. In this file generation method, first, the original file acquisition unit 11 of the file generation device 10 acquires an original file configured in a file format different from MP4 (step S11). Next, the difference file acquisition unit 12 acquires a difference file including data that is not included in the original file (step S12). Next, the procedure file acquisition unit 13 acquires a procedure file indicating a procedure for generating an MP4 file (step S13). And the production | generation part 14 produces | generates the above-mentioned MP4 file by combining the data contained in a difference file, and the data contained in an original file according to the procedure shown in the procedure file (step S14). For example, in step S11, the original file acquisition unit 11 acquires an original file configured in the MPEG2-TS file format.
 これにより、予め定められた手順にしたがって、差分ファイルに含まれるデータと、元ファイルに含まれるデータとを組み合わせることによってMP4ファイルが生成される。したがって、MPEG2-TSなどのファイルフォーマットによって構成される元ファイルを、映像ストリームまたは音声ストリームなどの各ストリームに戻すことなく、MP4ファイルを簡単に生成することができる。また、元ファイルが暗号化されていてもそれを復号して再暗号化する必要がない。したがって、MP4ファイルを生成するための処理負荷を抑えることができる。 Thus, an MP4 file is generated by combining the data included in the difference file and the data included in the original file according to a predetermined procedure. Therefore, an MP4 file can be easily generated without returning an original file constituted by a file format such as MPEG2-TS to each stream such as a video stream or an audio stream. Even if the original file is encrypted, it is not necessary to decrypt and re-encrypt it. Therefore, it is possible to suppress the processing load for generating the MP4 file.
 また、ステップS11~S13では、元ファイル取得部11、差分ファイル取得部12、および手順ファイル取得部13はそれぞれ、光ディスクから元ファイル、差分ファイルおよび手順ファイルを読み出すことによってそれらのファイルを取得する。これにより、MP4ファイルの生成に必要となる全てのファイルが1つの光ディスクから取得されるため、それらのファイルを探す手間を省くことができ、MP4ファイルをより簡単に生成することができる。 In steps S11 to S13, the original file acquisition unit 11, the difference file acquisition unit 12, and the procedure file acquisition unit 13 acquire the files by reading the original file, the difference file, and the procedure file from the optical disc, respectively. As a result, since all the files necessary for generating the MP4 file are acquired from one optical disc, it is possible to save the trouble of searching for these files and to generate the MP4 file more easily.
 ここで、手順ファイルには、差分ファイルに含まれる部分の範囲と、元ファイルに含まれる部分の範囲とが交互に配列されるように、差分ファイルに含まれる複数の部分のそれぞれの範囲と、元ファイルに含まれる複数の部分のそれぞれの範囲とが記述されている。そこで、ステップS14では、生成部14は、手順ファイルに記述されている各範囲の順に、その各範囲によって示される部分を組み合わせることによって、MP4ファイルを生成する。これにより、MP4ファイルに含まれる各部分をそのMP4ファイルの先頭側から順に生成することができ、後戻りすることがないため、MP4ファイルをより簡単に生成することができる。 Here, in the procedure file, the ranges of the parts included in the difference file and the ranges of the parts included in the original file are alternately arranged so that the ranges of the parts included in the difference file, Each range of a plurality of parts included in the original file is described. Therefore, in step S14, the generation unit 14 generates an MP4 file by combining the parts indicated by the ranges in the order of the ranges described in the procedure file. Thereby, each part included in the MP4 file can be generated in order from the head side of the MP4 file, and the MP4 file can be generated more easily because it does not return.
 また、差分ファイルに含まれる複数の部分のそれぞれの範囲は、データサイズによって手順ファイルに記述されている。一方、元ファイルに含まれる複数の部分のそれぞれの範囲は、その部分の開始位置とデータサイズとによって手順ファイルに記述されている。これにより、手順ファイルの記述に基づいて、差分ファイルおよび元ファイルから適切な部分をコピーまたは取得して組み合わせることができる。また、差分ファイルに含まれる部分の範囲の記述に開始位置が用いられないため、手順ファイルのデータサイズを抑えることができる。 Also, the range of each of the multiple parts included in the difference file is described in the procedure file according to the data size. On the other hand, each range of the plurality of parts included in the original file is described in the procedure file by the start position and data size of the part. Thereby, based on the description of the procedure file, an appropriate part can be copied or acquired from the difference file and the original file and combined. In addition, since the start position is not used to describe the range of the part included in the difference file, the data size of the procedure file can be suppressed.
 また、手順ファイルにはMP4ファイルのデータサイズが記述されている。そこで、ステップS14では、さらに、生成部14は、手順ファイルに記述されているMP4ファイルのデータサイズに基づいて、そのMP4ファイルを記録するだけの空き容量がメディアにあるか否かを判定してもよい。これにより、メディアにMP4ファイルを記録するだけの空き容量があるか否かが判定されるため、空き容量がない場合には、そのMP4ファイルの生成を事前に中止するなどの処理を行うことができる。つまり、エラーの発生を未然に防ぐことができる。 Also, the data size of the MP4 file is described in the procedure file. Therefore, in step S14, the generation unit 14 further determines whether the medium has enough free space for recording the MP4 file based on the data size of the MP4 file described in the procedure file. Also good. Thus, since it is determined whether or not there is enough free space for recording the MP4 file on the medium, if there is no free space, processing such as canceling the generation of the MP4 file in advance may be performed. it can. That is, it is possible to prevent an error from occurring.
 また、手順ファイルにはMP4ファイルの属性が記述されている。そこで、ファイル生成装置10は、さらに、手順ファイルに記述されているその属性を読み出してもよい。 Also, the MP4 file attributes are described in the procedure file. Therefore, the file generation apparatus 10 may further read out the attribute described in the procedure file.
 これにより、MP4ファイルの生成前にMP4ファイルの属性を手順ファイルから読み出せば、所望のMP4ファイルが生成されるか否かを事前に判断することができる。 Thus, if the MP4 file attribute is read from the procedure file before the MP4 file is generated, it can be determined in advance whether or not the desired MP4 file is generated.
 また、手順ファイルにはMP4ファイルの再生に必要なバッファサイズが記述されている。そこで、ファイル生成装置10は、さらに、手順ファイルに記述されているそのバッファサイズを読み出してもよい。これにより、MP4ファイルの再生に必要なバッファサイズを手順ファイルから読み出せば、MP4ファイルを解析することなく、そのMP4ファイルが再生可能か否かを簡単に判断することができる。 Also, the procedure file describes the buffer size required for playing MP4 files. Therefore, the file generation device 10 may further read the buffer size described in the procedure file. Thus, if the buffer size necessary for reproducing the MP4 file is read from the procedure file, it is possible to easily determine whether or not the MP4 file can be reproduced without analyzing the MP4 file.
 また、手順ファイルには、元ファイルの名称である第1のファイル名と差分ファイルの名称である第2のファイル名とが記述されている。そこで、ファイル生成装置10は、さらに、手順ファイルに記述されている第1のファイル名のファイルを元ファイルとして特定し、手順ファイルに記述されている第2のファイル名のファイルを差分ファイルとして特定してもよい。これにより、MP4ファイルの生成に用いられる元ファイルおよび差分ファイルを適切に取得することができる。 In the procedure file, a first file name that is the name of the original file and a second file name that is the name of the difference file are described. Therefore, the file generation device 10 further specifies the file having the first file name described in the procedure file as the original file, and specifies the file having the second file name described in the procedure file as the difference file. May be. Thereby, the original file and difference file used for generating the MP4 file can be appropriately acquired.
 また、ステップS14では、生成部14は、差分ファイルに含まれるデータであるMP4に対応するヘッダ情報を、元ファイルに含まれるデータと組み合わせる。これにより、MP4の適切なヘッダ情報を有するMP4ファイルを簡単に生成することができる。 In step S14, the generation unit 14 combines header information corresponding to MP4 that is data included in the difference file with data included in the original file. Thereby, an MP4 file having appropriate header information of MP4 can be easily generated.
 また、ステップS11では、元ファイル取得部11は、平文の状態の元ファイルを取得し、ステップS14では、生成部14は、生成されたMP4ファイルを暗号化してもよい。これにより、MP4への変換後に元ファイルを削除しておけば、その元ファイルに含まれていたデータをMP4ファイルとして残しておきながら、そのデータの秘匿性を確保することができる。 In step S11, the original file acquisition unit 11 may acquire an original file in a plain text state, and in step S14, the generation unit 14 may encrypt the generated MP4 file. Thus, if the original file is deleted after conversion to MP4, the confidentiality of the data can be ensured while leaving the data contained in the original file as the MP4 file.
 ここで、ステップS14では、生成部14は、元ファイルを構成する部分が取得されるごとに、その部分に対応するMP4ファイルの部分を生成して暗号化し、MP4ファイルを構成する部分が暗号化されるごとに、その部分に対応する元ファイルの部分を削除してもよい。これにより、平文の元ファイルに含まれる全てのデータが一時的にも記憶領域に格納されることを防ぐことができ、そのデータの秘匿性をより確実に確保することができる。 Here, in step S14, every time the part constituting the original file is acquired, the generation unit 14 generates and encrypts the part of the MP4 file corresponding to the part, and the part constituting the MP4 file is encrypted. Each time it is done, the portion of the original file corresponding to that portion may be deleted. Thereby, it is possible to prevent all the data included in the plaintext original file from being temporarily stored in the storage area, and to ensure the confidentiality of the data more reliably.
 (変形例1-1)
 上記実施の形態では、差分ファイルおよびコピーマニフェストファイルを用いてMP4ファイルを生成したが、これらのファイルを用いずにMP4ファイルを生成してもよい。本変形例に係るファイル生成方法では、それぞれ平文のヘッダを有する複数のSource PacketからなるMPEG2-TSのストリームファイルを、カウンタを用いてMP4のストリームファイルに変換する。これにより、MP4のストリームファイルが生成される。なお、MPEG2-TSのストリームファイルは元ファイルであり、MP4のストリームファイルはMP4ファイルである。
(Modification 1-1)
In the above embodiment, the MP4 file is generated using the difference file and the copy manifest file. However, the MP4 file may be generated without using these files. In the file generation method according to this modification, an MPEG2-TS stream file composed of a plurality of Source Packets each having a plaintext header is converted into an MP4 stream file using a counter. As a result, an MP4 stream file is generated. The MPEG2-TS stream file is an original file, and the MP4 stream file is an MP4 file.
 図9は、本変形例におけるファイル生成方法を説明するための図である。 FIG. 9 is a diagram for explaining a file generation method in the present modification.
 MPEG2-TSのストリームファイル(つまりコンテンツ)は、上述のように複数のSource Packetから構成されている。なお、図9において、Source Packetは、SPと略して示されている。 An MPEG2-TS stream file (that is, content) is composed of a plurality of source packets as described above. In FIG. 9, the source packet is abbreviated as SP.
 本変形例におけるMPEG2-TSのストリームファイルに含まれる各Source Packetでは、Source Packetに含まれるデータのうち、TS Payload部分のみが暗号化されている。つまり、Source Packetに含まれるデータのうち、TS_extra_headerと、TS Headerとは暗号化されておらず、平文である。 In each source packet included in the MPEG2-TS stream file in this modification, only the TS Payload portion of the data included in the source packet is encrypted. That is, among the data included in the source packet, TS_extra_header and TS Header are not encrypted and are plain text.
 暗号化には、AES-CTR(CounTeR)モードが用いられる。なお、AES-CTRモードでは、カウンタの値を使った暗号化および復号が行われる。図9に示すように、ビデオ用のカウンタ(AES Counter for Video)の値を用いて、それぞれビデオのデータを含む複数のTS Payloadが暗号化され、オーディオ用のカウンタ(AES Counter for Audio)の値を用いて、それぞれオーディオのデータを含む複数のTS Payloadが暗号化される。ビデオ用のカウンタは、図9に示す矢印にしたがってカウント値が増加するように、ビデオのSource Packetのデータのみをカウントする。オーディオ用のカウンタは、図9に示す矢印にしたがってカウント値が増加するように、オーディオのSource Packetのデータのみをカウントする。なお、AES-CTRモードでの暗号化の詳細については後述する。 AES-CTR (CountTeR) mode is used for encryption. In the AES-CTR mode, encryption and decryption are performed using the counter value. As shown in FIG. 9, using the value of the video counter (AES Counter for Video), multiple TS Payloads each containing video data are encrypted, and the value of the audio counter (AES Counter for Audio) is Are used to encrypt a plurality of TS Payloads each including audio data. The video counter counts only the video source packet data so that the count value increases in accordance with the arrow shown in FIG. The audio counter counts only the audio source packet data so that the count value increases in accordance with the arrow shown in FIG. Details of encryption in the AES-CTR mode will be described later.
 ファイル生成装置は、MPEG2-TSのストリームファイルに含まれる複数のSource Packetのそれぞれのうち、TS Payloadのみを取り出すことによって、MPEG2-TSのストリームファイルを、MP4のストリームファイルに簡単に変換することができる。 The file generation device can easily convert an MPEG2-TS stream file into an MP4 stream file by taking out only TS Payload from each of a plurality of Source Packets included in the MPEG2-TS stream file. it can.
 図10Aは、AES-CTRモードによるデータの暗号化を説明するための図である。 FIG. 10A is a diagram for explaining data encryption in the AES-CTR mode.
 暗号化の際には、鍵と初期値であるIV(Initial Vector)とが用いられる。まず、鍵を用いてIVを暗号化する。この暗号化によって得られた値と、暗号化対象のデータの先頭の16Bytes(図10Aに示すm1)との排他的論理和の演算によって、その先頭の16Bytesに対応する暗号文c1が生成される。暗号化対象のデータに含まれる次の16Bytes(図10Aに示すm2)のデータ(ブロック)に対しては、IV=IV+1のように、IVを更新した後に、上述の先頭の16Bytesに対する処理と同じ処理を行う。これにより、次の16Bytesのデータに対応する暗号文c2が生成される。上述のように更新されるIVは上述のカウンタ値であって、図9に示すビデオ用のカウンタおよびオーディオ用のカウンタはそれぞれIV=IV+1の演算を行う。 When encrypting, a key and an initial value IV (Initial Vector) are used. First, the IV is encrypted using the key. The ciphertext c1 corresponding to the first 16 bytes is generated by the exclusive OR operation between the value obtained by this encryption and the first 16 bytes of the data to be encrypted (m1 shown in FIG. 10A). . For the next 16 bytes of data (block) included in the data to be encrypted (m2 shown in FIG. 10A), the same processing as that for the first 16 bytes described above after IV is updated as IV = IV + 1. Process. Thereby, the ciphertext c2 corresponding to the next 16-byte data is generated. The IV updated as described above is the above-described counter value, and the video counter and the audio counter shown in FIG. 9 each calculate IV = IV + 1.
 このような処理を連続して行うことで、16Bytes以上の長いデータに対しても暗号文を作成することができる。なお、暗号化対象のデータの長さが16Bytesの倍数になっていない場合には、末尾のブロックにおいて、排他的論理和をビット単位で行うことによって暗号文が生成される。 By continuously performing such processing, it is possible to create a ciphertext even for long data of 16 bytes or more. If the length of the data to be encrypted is not a multiple of 16 bytes, a ciphertext is generated by performing an exclusive OR in bit units in the last block.
 図10Bは、AES-CTRモードによるデータの復号を説明するための図である。 FIG. 10B is a diagram for explaining data decoding in the AES-CTR mode.
 復号の際には、復号対象のデータに対して、暗号化の場合と全く同じ処理が行われる。つまり、復号の際にも、鍵を用いてIVを暗号化する処理が行われる。 At the time of decryption, the same processing as that for encryption is performed on the data to be decrypted. That is, at the time of decryption, the process of encrypting the IV using the key is performed.
 このように、本変形例に係るファイル生成方法は、MP4ファイルを生成するファイル生成方法であって、複数のパケットからなる元ファイルを取得し、前記元ファイルに含まれるパケットごとに、当該パケットのうち、平文の状態にあるヘッダ情報を除く、残りの暗号化されているペイロード部分のみを取得して組み合わせてMP4ファイルを生成する。例えば、前記元ファイルの取得では、MPEG2-TSのファイルフォーマットで構成されている前記元ファイルを取得する。これにより、MPEG2-TSなどのファイルフォーマットによって構成される元ファイルを、映像ストリームまたは音声ストリームなどの各ストリームに戻すことなく、MP4ファイルを簡単に生成することができる。また、元ファイルを復号して再暗号化する必要がない。したがって、MP4ファイルを生成するための処理負荷を抑えることができる。 As described above, the file generation method according to the present modification is a file generation method for generating an MP4 file, which acquires an original file composed of a plurality of packets, and for each packet included in the original file, Among them, only the remaining encrypted payload portion excluding the header information in the plaintext state is acquired and combined to generate an MP4 file. For example, in the acquisition of the original file, the original file configured in the MPEG2-TS file format is acquired. Thereby, an MP4 file can be easily generated without returning an original file constituted by a file format such as MPEG2-TS to each stream such as a video stream or an audio stream. Also, there is no need to decrypt and re-encrypt the original file. Therefore, it is possible to suppress the processing load for generating the MP4 file.
 ここで、前記元ファイルに含まれる前記複数のパケットのうち、ビデオのデータを含む複数のパケットのそれぞれのペイロードは、ビデオ用の第1のカウンタのカウンタ値を用いて暗号化され、オーディオのデータを含む複数のパケットのそれぞれのペイロードは、前記第1のカウンタと異なるオーディオ用の第2のカウンタのカウンタ値を用いて暗号化されている。前記第1のカウンタは、前記元ファイルの先頭から後に向かって、ビデオに対応する複数のパケットのそれぞれに含まれるデータのみをカウントし、前記第2のカウンタは、前記元ファイルの先頭から後に向かって、オーディオに対応する複数のパケットのそれぞれに含まれるデータのみをカウントする。これにより、第1のカウンタがビデオ専用のカウンタとして用いられるため、MP4ファイルにおいて、ビデオに対応する複数のパケットのそれぞれのペイロードが組み合わされて構成されるビデオエレメンタリーを、簡単に復号することができる。同様に、第2のカウンタがオーディオ専用のカウンタとして用いられるため、MP4ファイルにおいて、オーディオに対応する複数のパケットのそれぞれのペイロードが組み合わされて構成されるオーディオエレメンタリーを、簡単に復号することができる。 Here, among the plurality of packets included in the original file, the payloads of the plurality of packets including video data are encrypted using the counter value of the first counter for video, and the audio data Each of the payloads of the plurality of packets including is encrypted using a counter value of a second counter for audio different from the first counter. The first counter counts only data included in each of a plurality of packets corresponding to video from the beginning of the original file to the back, and the second counter proceeds from the beginning of the original file to the back. Thus, only the data included in each of the plurality of packets corresponding to the audio is counted. Thus, since the first counter is used as a video-dedicated counter, it is possible to easily decode a video elementary configured by combining the payloads of a plurality of packets corresponding to video in the MP4 file. it can. Similarly, since the second counter is used as an audio-only counter, it is possible to easily decode an audio elementary configured by combining the payloads of a plurality of packets corresponding to audio in the MP4 file. it can.
 なお、前記元ファイルは複数のAligned Unitからなり、前記複数のAligned Unitのそれぞれは複数のSource Packetからなる。前記元ファイルに含まれる前記複数のパケットは、前記複数のAligned Unitのそれぞれに含まれる複数のSource Packetである。また、前記ペイロードはTS Payloadであり、前記ヘッダ情報は、TP_extra_headerおよびTS Headerからなる。 The original file is composed of a plurality of aligned units, and each of the plurality of aligned units is composed of a plurality of source packets. The plurality of packets included in the original file are a plurality of Source Packets included in each of the plurality of Aligned Units. The payload is TS Payload, and the header information is composed of TP_extra_header and TS Header.
 (変形例1-2)
 上記実施の形態では、差分ファイルおよびコピーマニフェストファイルを用いてMP4ファイルを生成したが、これらのファイルを用いずにMP4ファイルを生成してもよい。本変形例に係るファイル生成方法では、補助情報を含むMPEG2-TSのストリームファイルを、その補助情報を用いてMP4のストリームファイルに変換する。これにより、MP4のストリームファイルが生成される。
(Modification 1-2)
In the above embodiment, the MP4 file is generated using the difference file and the copy manifest file. However, the MP4 file may be generated without using these files. In the file generation method according to this modification, an MPEG2-TS stream file including auxiliary information is converted into an MP4 stream file using the auxiliary information. As a result, an MP4 stream file is generated.
 MPEG2-TSとMP4においては、アクセスユニットのデータの多重化方法が一部異なるため、MPEG2-TSのデータをMP4ファイルに格納する際には、アクセスユニットを複数の部分に分離してそれらの部分を別々に格納する必要がある。基本的には、MPEG2-TSにおけるアクセスユニットは、ビデオのピクチャまたはオーディオのフレームの復号に必須となる初期化情報と、ピクチャまたはフレームの符号化データとを共に含む。一方、MP4ファイルにおけるアクセスユニット(MP4では、サンプルまたはMP4サンプルと呼ばれる)は、ピクチャまたはフレームの符号化データのみから構成され、復号に必要な初期化情報は、MP4ファイルのヘッダ情報として符号化データとは別に格納される。 In MPEG2-TS and MP4, the access unit data multiplexing method is partially different. Therefore, when storing MPEG2-TS data in an MP4 file, the access unit is separated into a plurality of parts. Need to be stored separately. Basically, an access unit in MPEG2-TS includes both initialization information essential for decoding a video picture or audio frame, and encoded data of a picture or frame. On the other hand, an access unit (referred to as a sample or MP4 sample in MP4) in an MP4 file is composed only of encoded data of a picture or a frame, and initialization information necessary for decoding is encoded data as header information of the MP4 file. Stored separately.
 以下に、MPEG2-TSによって多重化された符号化データをMP4ファイルに変換する際に、変換に係る処理量を低減させるための補助情報、および、補助情報を使用した多重化フォーマットの変換方法について説明する。特に、符号化データが暗号化されている場合には、暗号化を解いて再暗号化する際の処理量が大きい。本変形例では、符号化データの暗号化を解かずに、データのコピーのみでMP4ファイルへの変換を行うことができる。 Below, when converting encoded data multiplexed by MPEG2-TS into an MP4 file, auxiliary information for reducing the amount of processing related to the conversion, and a method of converting a multiplexed format using the auxiliary information explain. In particular, when the encoded data is encrypted, the amount of processing when decrypting and re-encrypting is large. In this modification, conversion to an MP4 file can be performed only by copying data without decrypting the encoded data.
 なお、変換前の元ファイルであるMPEG2-TSのストリームファイルは、他のTS(トランスポートストリーム)であってもよい。つまり、元ファイルは、MPEG-2システムで規定されたTSだけでなく、TSパケットに所定のバイト数のヘッダ情報を付加したTS(例えばBlu-ray discまたは映像配信などで使用されるTS)であってもよい。また、変換によって生成されるMP4ファイルは、“Movie fragment”を使用したMP4ファイルであってもよく、“Movie fragment”を使用しないMP4ファイルであってもよい。さらに、変換によって生成されるファイルのフォーマットは、MP4をベースに拡張されたDECE(Digital Entertainment Content Ecosystem)のCFF(Common File Format)、またはMPEG-DASH(Dynamic Adaptive Streaming over HTTP)などであってもよい。以下では、元ファイルをトランスポートストリームとして説明する。 Note that the MPEG2-TS stream file that is the original file before conversion may be another TS (transport stream). In other words, the original file is not only a TS specified by the MPEG-2 system, but also a TS (for example, a Blu-ray disc or a TS used for video distribution) in which header information of a predetermined number of bytes is added to the TS packet. There may be. In addition, the MP4 file generated by the conversion may be an MP4 file using “Movie fragment”, or an MP4 file not using “Movie fragment”. Furthermore, the format of the file generated by the conversion is DEFF (Digital Entertainment Content Ecosystem) CFF (Common File Format) or MPEG-DASH (Dynamic Adaptive Stream) such as MPEG4 based on MP4. Good. Hereinafter, the original file will be described as a transport stream.
 図11は、トランスポートストリームに格納されるMPEG-4 AACのアクセスユニットをMP4ファイルに格納する例を示す図である。 FIG. 11 is a diagram showing an example in which an MPEG-4 AAC access unit stored in a transport stream is stored in an MP4 file.
 トランスポートストリームにおけるMPEG-4 AACのアクセスユニットは、LATM(Low Overhead Audio Transport Multiplex)ヘッダ、PayloadLengthInfo()、および、PayloadMux()の3種類のデータから構成される。LATMヘッダには、チャネル数およびサンプリング周波数などの、MPEG-4 AACの符号化データ(AACデータともいう)の復号に必要な初期化情報が含まれる。より詳細には、LATMヘッダ内のAudioSpecificConfig()に、その初期化情報が格納される。PayloadLengthInfo()には、PayloadMux()のサイズが格納され、PayloadMux()に、AACデータが格納される。 The MPEG-4 AAC access unit in the transport stream is composed of three types of data: LATM (Low Overhead Audio Transport Multiplex) header, PayloadLengthInfo (), and PayloadMux (). The LATM header includes initialization information necessary for decoding MPEG-4 AAC encoded data (also referred to as AAC data) such as the number of channels and sampling frequency. More specifically, the initialization information is stored in AudioSpecificConfig () in the LATM header. PayloadLengthInfo () stores the size of PayloadMux (), and AAC data is stored in PayloadMux ().
 このアクセスユニットのデータをMP4ファイルに格納する際には、LATMヘッダ内のAudioSpecificConfig()が、MP4ファイルのmoov内のstsdにおけるサンプルエントリに格納される。さらに、PayloadLengthInfo()とPayloadMux()とが、サンプルデータとしてmdatに格納される。なお、サンプルデータはサンプルに格納されるデータである。また、mdat内のサンプルデータはmoovから参照される、あるいは、“Movie fragment”を使用する場合には、mdat内のサンプルデータはmoofから参照される。MPEG-2 AACでは、LATMヘッダではなくADTS(Audio Data Transport Stream)ヘッダが用いられ、アクセスユニットは、ADTSヘッダとAACデータ(raw_data_block()と呼ばれる)から構成される。このときも、ADTSヘッダがアクセスユニットから分離され、ADTSヘッダに含まれるデータのうち、少なくともadts_fixed_header()は、サンプルエントリに格納される。さらに、AACデータがサンプルデータとしてmdatに格納される。 When storing the data of this access unit in the MP4 file, AudioSpecificConfig () in the LATM header is stored in the sample entry in stsd in the moov of the MP4 file. Furthermore, PayloadLengthInfo () and PayloadMux () are stored in mdat as sample data. Note that the sample data is data stored in the sample. In addition, sample data in mdat is referred to from moov, or when “Movie fragment” is used, sample data in mdat is referred to from moof. In MPEG-2 AAC, an ADTS (Audio Data Transport Stream) header is used instead of a LATM header, and an access unit is composed of an ADTS header and AAC data (called raw_data_block ()). Also at this time, the ADTS header is separated from the access unit, and at least ads_fixed_header () among the data included in the ADTS header is stored in the sample entry. Furthermore, AAC data is stored in mdat as sample data.
 図12は、トランスポートストリームに格納されるMPEG-4 AVC(Advanced Video Coding)のアクセスユニットをMP4に格納する例を示す図である。 FIG. 12 is a diagram illustrating an example in which an access unit of MPEG-4 AVC (Advanced Video Coding) stored in the transport stream is stored in MP4.
 MPEG-4 AACの場合と同様に、トランスポートストリームでは、Sequence Parameter Set(SPS)およびPicture Parameter Set(PPS)などの、復号時に必要となる初期化情報は、アクセスユニットの一部として格納される。一方、MP4ファイルでは、これらの初期化情報は、MP4ファイルのヘッダ情報として格納される。図12に示すアクセスユニットは、IDR(Instantaneous Decoder Refresh)ピクチャを構成する。SPSおよびPPSのそれぞれのNAL(Network Adaptation Layer)ユニットは、アクセスユニットから分離されて、MP4ファイルのmoov内のstsdにおけるサンプルエントリに格納される。アクセスユニットに含まれるその他のデータは、サンプルデータとしてmdatに格納される。 As in the case of MPEG-4 AAC, in the transport stream, initialization information necessary for decoding, such as Sequence Parameter Set (SPS) and Picture Parameter Set (PPS), is stored as part of the access unit. . On the other hand, in the MP4 file, the initialization information is stored as the header information of the MP4 file. The access unit shown in FIG. 12 constitutes an IDR (Instantaneous Decoder Refresh) picture. Each NPS (Network Adaptation Layer) unit of SPS and PPS is separated from the access unit and stored in the sample entry in stsd in the moov of the MP4 file. Other data included in the access unit is stored in mdat as sample data.
 なお、MP4では、MPEG-4 AVCのサンプルデータに、SPSおよびPPSなどの初期化情報を含めることが可能なモードを選択することができる。モードは、サンプルエントリの識別情報によって示される。識別情報が“avc1”または“avc2”の場合には、初期化情報をサンプルデータに含めることは禁止される。一方、識別情報が“avc3”または“avc4”の場合には、初期化情報をサンプルデータに含めることが許可される。したがって、トランスポートストリームをMP4ファイルに変換する際に、MP4ファイルにおける上述の識別情報を“avc1”または“avc2”に設定する場合には、トランスポートストリームにおけるアクセスユニットからmdatに格納されるデータの中から、SPSおよびPPSのNALユニット、あるいは、スタッフィング用に用いるFillerDataのNALユニットは削除される。また、識別情報を“avc3”または“avc4”に設定する場合には、SPSまたはPPSのNALユニットを削除しなくてもよい。したがって、MP4ファイルにおける識別情報の設定値に応じて、SPSおよびPPSを削除するかどうかを切替えてもよい。 In MP4, a mode in which initialization information such as SPS and PPS can be included in MPEG-4 AVC sample data can be selected. The mode is indicated by the identification information of the sample entry. When the identification information is “avc1” or “avc2”, it is prohibited to include the initialization information in the sample data. On the other hand, when the identification information is “avc3” or “avc4”, it is permitted to include initialization information in the sample data. Therefore, when the transport stream is converted into an MP4 file, when the above-described identification information in the MP4 file is set to “avc1” or “avc2”, the data stored in the mdat from the access unit in the transport stream is set. The NPS unit of SPS and PPS or the NAL unit of FillerData used for stuffing is deleted from the inside. When the identification information is set to “avc3” or “avc4”, the SPS or PPS NAL unit does not have to be deleted. Therefore, whether to delete SPS and PPS may be switched according to the setting value of the identification information in the MP4 file.
 また、次世代の動画像符号化方式であるHEVC(High Efficiency Video Coding)のデータは、MPEG-4 AVCと同様に、NALユニットによって構造され、SPSおよびPPSなどの初期化情報を有する。HEVCのデータをMP4ファイルに格納する際には、初期化情報をサンプルデータに含めてもよい。したがって、トランスポートストリームをMP4ファイルに変換する際に、トランスポートストリームにおけるアクセスユニットからmdatに格納されるデータのうち、初期化情報を削除するかどうかを、符号化方式の種類に応じて判定し、その判定結果に応じて処理してもよい。 Also, HEVC (High Efficiency Video Coding) data, which is a next-generation moving image coding system, is structured by NAL units and has initialization information such as SPS and PPS, as in MPEG-4 AVC. When the HEVC data is stored in the MP4 file, initialization information may be included in the sample data. Therefore, when converting the transport stream into an MP4 file, whether to delete the initialization information from the data stored in the mdat from the access unit in the transport stream is determined according to the type of encoding method. The processing may be performed according to the determination result.
 上述のように、MPEG-4 AACの符号化データをMP4ファイルに格納する際には、LATMヘッダはアクセスユニットから分離される。さらに、PayloadLengthInfo()およびPayloadMux()のみがサンプルデータとしてmdatに格納される。以降、PayloadLengthInfo()とPayloadMux()とを合わせて、LATMペイロードと呼ぶ。 As described above, when storing MPEG-4 AAC encoded data in an MP4 file, the LATM header is separated from the access unit. Furthermore, only PayloadLengthInfo () and PayloadMux () are stored in mdat as sample data. Hereinafter, PayloadLengthInfo () and PayloadMux () are collectively referred to as LATM payload.
 そこで、本変形例では、MPEG-4 AACのアクセスユニットのデータを複数のTSパケットに格納する際には、LATMヘッダとLATMペイロードとを別々のTSパケットに格納する。これにより、LATMヘッダを容易に分離することができる。 Therefore, in this modification, when storing the data of the MPEG-4 AAC access unit in a plurality of TS packets, the LATM header and the LATM payload are stored in separate TS packets. Thereby, the LATM header can be easily separated.
 図13Aは、LATMヘッダとLATMペイロードとのTSパケットへの格納例を示す図である。LATMヘッダとLATMペイロードとのそれぞれのデータが同一TSパケットのペイロード内に混在しないように、必要に応じてスタッフィングが行われる。例えば、アクセスユニット1のLATMヘッダが先頭のTSパケットのペイロードに格納される。このとき、LATMヘッダのサイズがTSペイロードのサイズに満たない場合には、TSペイロードの残りの領域に対してスタッフィングが行われる。なお、図13Aに示す例では、PESパケットは記載されていないが、実際には、アクセスユニットのデータはPESパケットのペイロードに格納され、PESパケットのデータがTSパケットのペイロードに格納される。 FIG. 13A is a diagram showing an example of storing the LATM header and the LATM payload in the TS packet. Stuffing is performed as necessary so that the data of the LATM header and the LATM payload are not mixed in the payload of the same TS packet. For example, the LATM header of access unit 1 is stored in the payload of the first TS packet. At this time, if the size of the LATM header is less than the size of the TS payload, stuffing is performed on the remaining area of the TS payload. In the example shown in FIG. 13A, the PES packet is not described, but actually, the data of the access unit is stored in the payload of the PES packet, and the data of the PES packet is stored in the payload of the TS packet.
 次に、LATMヘッダが格納されたTSパケットと、LATMペイロードが格納されたTSパケットの識別方法について説明する。1アクセスユニットを1PESパケットとして格納する際には、PESパケットの先頭データを含むTSパケットにおいて、TSヘッダのpayload_unit_start_indicatorが1にセットされる。payload_unit_start_indicatorが1にセットされたTSパケットのペイロードにLATMヘッダが含まれることを保証すれば、payload_unit_start_indicatorの値に基づいて、TSパケット内にLATMヘッダが含まれるかどうかを判定することができる。複数のアクセスユニットを1つのPESパケットに格納する際には、補助情報であるAU_infoテーブルをPESパケットのペイロードの先頭に配置してもよい。このAU_infoテーブルは、PESパケットのペイロード内に含まれるアクセスユニットの個数と、各アクセスユニットにおけるLATMヘッダとLATMペイロードのサイズとを含む。 Next, a method for identifying a TS packet storing the LATM header and a TS packet storing the LATM payload will be described. When storing one access unit as one PES packet, the payload_unit_start_indicator of the TS header is set to 1 in the TS packet including the head data of the PES packet. If it is ensured that the LATM header is included in the payload of the TS packet in which payload_unit_start_indicator is set to 1, whether or not the LATM header is included in the TS packet can be determined based on the value of payload_unit_start_indicator. When storing a plurality of access units in one PES packet, an AU_info table as auxiliary information may be arranged at the head of the payload of the PES packet. This AU_info table includes the number of access units included in the payload of the PES packet, the LATM header and the size of the LATM payload in each access unit.
 図13Bは、AU_infoテーブルのシンタックスの一例を示す図である。 FIG. 13B is a diagram illustrating an example of the syntax of the AU_info table.
 AU_infoテーブルは、AU_info_identification_codeと、アクセスユニットの個数を示すnumber_of_AUと、アクセスユニットにおけるLATMヘッダとLATMペイロードのサイズを示すsize_of_LengthInfoとを含む。AU_info_identification_codeは、AU_infoテーブルに固有のビット列である。本コードをサーチすることで、AU_infoテーブルが存在するかどうかを判定することができる。あるいは、MP4のBox構造のように、AU_infoテーブルを、BoxのデータサイズとBoxのタイプとを組み合わせたデータ構造としてもよい。ただし、トランスポートストリームにおけるデスクリプタ、あるいは、トランスポートストリームとは別に用意されたMP4ファイルへの変換用の補助データなどによって、AU_infoテーブルの存在がシグナリングされる場合には、上述のコードを省略してもよい。また、1アクセスユニットを1PESパケットに格納する際にも、AU_infoテーブルを使用してもよい。 The AU_info table includes AU_info_identification_code, number_of_AU indicating the number of access units, and a size_of_LengthInfo indicating the size of the LATM header and LATM payload in the access unit. AU_info_identification_code is a bit string specific to the AU_info table. By searching this code, it can be determined whether or not the AU_info table exists. Alternatively, as in the MP4 Box structure, the AU_info table may have a data structure in which the Box data size and the Box type are combined. However, if the presence of the AU_info table is signaled by a descriptor in the transport stream or auxiliary data for conversion to an MP4 file prepared separately from the transport stream, the above code is omitted. Also good. The AU_info table may also be used when storing one access unit in one PES packet.
 このようなアクセスユニット内の各構成要素のサイズまたはデータオフセットを示すことにより、MP4ファイルへの変換のために分離されるデータを特定する手法を、MPEG-4 AVCの符号化データに対して適用してもよい。つまり、MPEG-4 AVCの符号化データをMP4ファイルに格納する際に、SPSおよびPPSのそれぞれのNALユニットを分離するために、上述の手法を適用してもよい。 A method for identifying data to be separated for conversion to an MP4 file by indicating the size or data offset of each component in the access unit is applied to MPEG-4 AVC encoded data. May be. That is, when storing MPEG-4 AVC encoded data in an MP4 file, the above-described method may be applied to separate the NPS units of SPS and PPS.
 図13Cは、アクセスユニット内の構成要素毎に、MP4ファイルのサンプルデータからその構成要素を除外する必要があるかどうかを示すためのAU_infoテーブルのシンタックスの一例を示す図である。 FIG. 13C is a diagram illustrating an example of the syntax of the AU_info table for indicating whether or not each constituent element in the access unit needs to be excluded from the sample data of the MP4 file.
 AU_infoテーブルは、AU_info_identification_codeと、number_of_data_unitと、size_of_data_unitと、conversion_modeとを含む。number_of_data_unitは、アクセスユニットに含まれるデータユニットの個数を示す。size_of_data_unitは、データユニットのサイズを示す。conversion_modeは、MP4ファイルへの変換時におけるデータユニットの扱い方を示す変換モードである。conversion_modeが0であれば、そのconversion_modeは、MP4ファイルのサンプルデータとしてデータユニットをコピーすることを示す。また、conversion_modeが1であれば、そのconversion_modeは、サンプルデータからデータユニットを除外すること、つまりサンプルデータとしてデータユニットをコピーしないことを示す。 The AU_info table includes AU_info_identification_code, number_of_data_unit, size_of_data_unit, and conversion_mode. number_of_data_unit indicates the number of data units included in the access unit. size_of_data_unit indicates the size of the data unit. The conversion_mode is a conversion mode indicating how to handle the data unit at the time of conversion to the MP4 file. If the conversion_mode is 0, the conversion_mode indicates that the data unit is copied as sample data of the MP4 file. If the conversion_mode is 1, the conversion_mode indicates that the data unit is excluded from the sample data, that is, the data unit is not copied as the sample data.
 なお、conversion_modeが1である場合には、そのconversion_modeは、データユニットを除外した後のそのデータユニットの取り扱いを示してもよい。例えば、そのconversion_modeは、サンプルデータからデータユニットを除外したうえで、そのデータユニットをサンプルエントリに格納することなどを示す。 When conversion_mode is 1, the conversion_mode may indicate the handling of the data unit after the data unit is excluded. For example, the conversion_mode indicates that the data unit is excluded from the sample data and then stored in the sample entry.
 また、複数のデータユニットのそれぞれの情報は復号順で昇順となるように格納される。例えば、MPEG-4 AVCの1アクセスユニットを1PESパケットとして格納する場合には、データユニットがNALユニットに相当し、アクセスユニットを構成するNALユニットの個数がnum_of_data_unitによって示される。そして、SPSおよびPPSのそれぞれのNALユニットに対して、conversion_modeが1にセットされる。また、LATMヘッダとLATMペイロードのそれぞれをデータユニットとみなしてもよい。この場合、LATMヘッダに対応するデータユニットに対して、conversion_modeを1にセットすることで、このAU_infoテーブルをMPEG-4 AACに対しても適用することができる。PESパケット内に複数のアクセスユニットを格納する場合には、number_of_data_unitは、PESパケット内の全アクセスユニットに含まれるデータユニットの総数を示す。 Also, information of each of the plurality of data units is stored in ascending order in the decoding order. For example, when one access unit of MPEG-4 AVC is stored as one PES packet, the data unit corresponds to a NAL unit, and the number of NAL units constituting the access unit is indicated by num_of_data_unit. Then, conversion_mode is set to 1 for each NPS unit of SPS and PPS. Each of the LATM header and the LATM payload may be regarded as a data unit. In this case, by setting the conversion_mode to 1 for the data unit corresponding to the LATM header, this AU_info table can be applied to the MPEG-4 AAC. When a plurality of access units are stored in the PES packet, number_of_data_unit indicates the total number of data units included in all the access units in the PES packet.
 なお、PESパケットの開始部分を含むTSパケットのヘッダ(図3のTS Header)のadaptation_field内に、AU_infoテーブルを格納してもよい。MPEG-4 AVCまたはHEVCにおけるNALユニットあるいはSEI(Supplemental Enhancement Information)などの符号化データの一部として、AU_infoテーブルを格納してもよい。AU_infoテーブルを符号化データの一部として格納する際には、アクセスユニット毎あるいはランダムアクセス毎にAU_infoテーブルを格納することができる。また、AU_infoテーブルをTSパケットまたはPESパケットに格納する場合にも、PESパケット毎にAU_infoテーブルを格納してもよく、ランダムアクセスユニット内の復号順で先頭となるアクセスユニットを含むPESパケットにのみAU_infoテーブルを格納してもよい。ランダムアクセスユニット毎にAU_infoテーブルを格納する場合には、AU_infoテーブルには、ランダムアクセスユニットを構成する全てのアクセスユニットに関する情報が格納される。 Note that the AU_info table may be stored in the adaptation_field of the TS packet header (TS Header in FIG. 3) including the start portion of the PES packet. The AU_info table may be stored as a part of encoded data such as NAL unit in MPEG-4 AVC or HEVC or SEI (Supplemental Enhancement Information). When storing the AU_info table as part of the encoded data, the AU_info table can be stored for each access unit or for each random access. Also, when the AU_info table is stored in the TS packet or PES packet, the AU_info table may be stored for each PES packet, and only in the PES packet including the access unit leading in the decoding order in the random access unit. A table may be stored. When storing the AU_info table for each random access unit, the AU_info table stores information on all access units constituting the random access unit.
 図14は、本変形例に係るファイル生成装置の構成を示すブロック図である。 FIG. 14 is a block diagram showing a configuration of a file generation apparatus according to this modification.
 本変形例に係るファイル生成装置100は、AU_infoテーブルを含むトランスポートストリームをMP4ファイルに変換することによって、そのMP4ファイルを生成する。このファイル生成装置100は、補助情報サーチ部101と、補助情報解析部103と、生成部104とを備える。補助情報サーチ部101は、トランスポートストリームから補助情報であるAU_infoテーブルをサーチする。補助情報解析部103は、そのサーチ結果に基づいて、AU_infoテーブルが存在するか否かを判定する。さらに、補助情報解析部103は、AU_infoテーブルが存在すると判定すると、そのAU_infoテーブルを解析する。生成部104は、補助情報解析部103による解析結果に基づいてMP4ファイルを生成する。 The file generation apparatus 100 according to this modification generates the MP4 file by converting the transport stream including the AU_info table into the MP4 file. The file generation apparatus 100 includes an auxiliary information search unit 101, an auxiliary information analysis unit 103, and a generation unit 104. The auxiliary information search unit 101 searches the AU_info table that is auxiliary information from the transport stream. The auxiliary information analysis unit 103 determines whether or not an AU_info table exists based on the search result. Further, when the auxiliary information analysis unit 103 determines that the AU_info table exists, the auxiliary information analysis unit 103 analyzes the AU_info table. The generation unit 104 generates an MP4 file based on the analysis result from the auxiliary information analysis unit 103.
 生成部104は、具体的には、サンプル生成部104aとサンプルエントリ生成部104bとを備える。サンプル生成部104aは、LATMペイロードのデータ、またはSPSおよびPPS以外のNALユニットなどを、サンプルデータとしてMP4ファイルのmdatに格納する。サンプルエントリ生成部104bは、LATMヘッダのデータ、またはSPSおよびPPSのそれぞれのNALユニットなどを、MP4ファイルのmoov内のstsdにおけるサンプルエントリに格納する。 Specifically, the generation unit 104 includes a sample generation unit 104a and a sample entry generation unit 104b. The sample generation unit 104a stores LATM payload data or NAL units other than SPS and PPS as sample data in the mdat of the MP4 file. The sample entry generation unit 104b stores the LATM header data or each NPS unit of SPS and PPS in the sample entry in stsd in the moov of the MP4 file.
 このようなファイル生成装置100によって、上述のAU_infoテーブルを含むトランスポートストリームをMP4ファイルに簡単に変換することができる。 Such a file generation device 100 can easily convert a transport stream including the AU_info table described above into an MP4 file.
 上述のように、MPEG2-TSとMP4とでは、オーディオまたはビデオの符号化データを格納する際に、復号時に必要となる初期化情報の格納場所が異なる。さらに、MPEG2-TSとMP4とでは、MPEG-4 AVCまたはHEVCにおけるNALユニットの格納フォーマットが異なる。したがって、トランスポートストリームからMP4ファイルへの変換には、格納フォーマットの変換が必要である。以下、図15Aから図15Cを用いて、MPEG2-TSとMP4におけるNALユニットの格納フォーマットについて説明する。 As described above, when storing encoded data of audio or video, MPEG2-TS and MP4 have different storage locations for initialization information required for decoding. Furthermore, the storage format of NAL units in MPEG-4 AVC or HEVC differs between MPEG2-TS and MP4. Therefore, conversion from a transport stream to an MP4 file requires conversion of the storage format. Hereinafter, the storage format of the NAL unit in MPEG2-TS and MP4 will be described with reference to FIGS. 15A to 15C.
 図15Aは、NALユニットの概略構造を示す図である。 FIG. 15A is a diagram showing a schematic structure of a NAL unit.
 NALユニットは、ヘッダとペイロードとから構成される。そのヘッダには、ペイロードに格納されるデータの種別を示すタイプ情報が格納されている。 The NAL unit is composed of a header and a payload. In the header, type information indicating the type of data stored in the payload is stored.
 図15Bは、MPEG2-TSにおけるNALユニットの格納フォーマットの例を示す図である。MPEG2-TSにおいては、NALユニットの境界を識別するために、スタートコードと呼ばれる固有のビット列が識別情報としてNALユニットに付加される(以降、このような識別情報の形式をスタートコード形式と呼ぶ)。復号装置などは、そのスタートコード、及び、NALユニットのヘッダに格納されているタイプ情報をサーチすることで、所望のNALユニットを分離することができる。 FIG. 15B is a diagram showing an example of the storage format of the NAL unit in MPEG2-TS. In MPEG2-TS, a unique bit string called a start code is added to the NAL unit as identification information in order to identify the boundary of the NAL unit (hereinafter, the format of such identification information is called a start code format). . A decoding device or the like can separate a desired NAL unit by searching the start code and the type information stored in the header of the NAL unit.
 図15Cは、MP4におけるNALユニットの格納フォーマットの例を示す図である。MP4においては、NALユニットの境界を識別するために、NALユニットのデータサイズを識別情報として示すフィールドがNALユニットに付加される(以降、このような識別情報の形式をNALサイズ形式と呼ぶ)。ここで、データサイズを示すフィールドのフィールド長は、サンプルエントリ内におけるAVCDecoderConfigurationRecordの中に格納される。AVCDecoderConfigurationRecordは、復号時の初期化情報などが格納される領域である。復号装置などは、NALユニットのデータサイズに基づいて所望のNALユニットを分離することができる。 FIG. 15C is a diagram showing an example of the storage format of the NAL unit in MP4. In MP4, in order to identify the boundary of the NAL unit, a field indicating the data size of the NAL unit as identification information is added to the NAL unit (hereinafter, the format of such identification information is referred to as a NAL size format). Here, the field length of the field indicating the data size is stored in the AVCDecoderConfigurationRecord in the sample entry. AVCDecoderConfigurationRecord is an area for storing initialization information at the time of decoding. A decoding device or the like can separate a desired NAL unit based on the data size of the NAL unit.
 以上のように、MPEG2-TSとMP4とでは、NALユニットの境界を示す識別情報の形式が、スタートコード形式であるか、NALサイズ形式であるかという点についても異なる。したがって、トランスポートストリームをMP4ファイルへ変換する際には、NALユニットの境界を示す識別情報を変換する必要がある。なお、NALユニットの格納フォーマットは符号化方式毎に規定されるため、オーディオまたはビデオの符号化方式を参照して、MP4ファイルへの変換の動作を切替えればよい。 As described above, MPEG2-TS and MP4 also differ in that the format of identification information indicating the boundary between NAL units is a start code format or a NAL size format. Therefore, when converting a transport stream into an MP4 file, it is necessary to convert identification information indicating the boundary of the NAL unit. Since the storage format of the NAL unit is defined for each encoding method, the conversion operation to the MP4 file may be switched with reference to the audio or video encoding method.
 MP4ファイルに変換する際に、NALサイズ形式の符号化方式のデータを扱う場合には、NALユニットのデータサイズが必要となる。したがって、アクセスユニットを構成するNALユニットのデータサイズが予め取得できることが望ましい。こうすることで、スタートコード形式のアクセスユニットにおいてスタートコードをサーチし、NALユニット境界を検出することによって、NALユニットのデータサイズを決定する際の処理量を削減することができる。 When converting to MP4 file, if NAL size format data is handled, NAL unit data size is required. Therefore, it is desirable that the data size of the NAL unit constituting the access unit can be acquired in advance. By doing so, it is possible to reduce the processing amount when determining the data size of the NAL unit by searching the start code in the access unit of the start code format and detecting the NAL unit boundary.
 つまり、本変形例におけるトランスポートストリームにおけるアクセスユニットの先頭には、そのアクセスユニットに含まれる各NALユニットのデータサイズを示すサイズ情報が格納されている。 That is, size information indicating the data size of each NAL unit included in the access unit is stored at the head of the access unit in the transport stream in this modification.
 図16Aは、本変形例に係るトランスポートストリームにおけるアクセスユニットの構成例を示す図である。この図16Aに示すように、トランスポートストリームに多重化されるアクセスユニットを構成する各NALユニットのデータサイズを示すサイズ情報が、アクセスユニットの先頭に格納されている。例えば、このサイズ情報は、新規に定義されたサイズ情報NALユニットに格納される。NALユニットのタイプには、プライベート用およびユーザーデータ用が存在する。そこで、これらの中からいずれかのタイプを選択し、その選択されたタイプのNALユニットをサイズ情報NALユニットとして使用する。サイズ情報については暗号化の必要がないため、このサイズ情報NALユニットは平文で格納される。 FIG. 16A is a diagram illustrating a configuration example of an access unit in the transport stream according to the present modification. As shown in FIG. 16A, size information indicating the data size of each NAL unit constituting the access unit multiplexed in the transport stream is stored at the head of the access unit. For example, this size information is stored in a newly defined size information NAL unit. NAL unit types include private and user data. Therefore, one of these types is selected, and the selected type of NAL unit is used as the size information NAL unit. Since there is no need to encrypt the size information, this size information NAL unit is stored in plain text.
 図16Bは、サイズ情報NALユニットに含まれるサイズ情報のシンタックスの一例を示す図である。サイズ情報は、number_of_naluおよびnal_sizeを含む。number_of_naluはアクセスユニットを構成するNALユニットの個数を示し、nal_sizeによって各NALユニットのデータサイズが示される。サイズ情報NALユニットはMP4ファイルには格納されないため、サイズ情報は、サイズ情報NALユニット自体のデータサイズを示さなくてもよい。なお、図16Aに示す例では、サイズ情報NALユニットは、Access Unit Delimiter(AUD)と呼ばれるアクセスユニットの先頭をシグナリングするためのNALユニットの前に配置されているが、AUDの直後に配置されてもよい。AUDの直後にサイズ情報NALユニットを配置する場合には、サイズ情報NALユニットのサイズ情報は、AUDの後の各NALユニットのサイズを示す。そのため、サイズ情報はAUDのデータサイズを示さない。しかし、AUDのデータサイズは固定であるため、ファイル生成装置100はそのデータサイズを予め記憶しておけばよい。また、AU_infoテーブルと同様に、サイズ情報をPESパケットのペイロードの先頭に配置してもよい。 FIG. 16B is a diagram illustrating an example of the syntax of the size information included in the size information NAL unit. The size information includes number_of_nalu and nal_size. number_of_nalu indicates the number of NAL units constituting the access unit, and nal_size indicates the data size of each NAL unit. Since the size information NAL unit is not stored in the MP4 file, the size information may not indicate the data size of the size information NAL unit itself. In the example shown in FIG. 16A, the size information NAL unit is arranged in front of the NAL unit for signaling the head of the access unit called Access Unit Delimiter (AUD), but is arranged immediately after the AUD. Also good. When the size information NAL unit is arranged immediately after the AUD, the size information of the size information NAL unit indicates the size of each NAL unit after the AUD. Therefore, the size information does not indicate the data size of AUD. However, since the data size of the AUD is fixed, the file generation device 100 may store the data size in advance. Further, similarly to the AU_info table, the size information may be arranged at the head of the payload of the PES packet.
 図16Cは、サイズ情報NALユニットに含まれるサイズ情報のシンタックスの他の例を示す図である。 FIG. 16C is a diagram illustrating another example of the syntax of the size information included in the size information NAL unit.
 図16Aに示すように、トランスポートストリームにおけるNALユニットの前には、スタートコードに加えて、zero_byteなど可変長のコードが含まれることがある。したがって、図16Cに示すように、NALユニットのスタートコードを含む識別情報のデータサイズ(図16Cに示すprefix_size)をサイズ情報に格納してもよい。なお、識別情報のデータサイズが固定であれば、MPEG2-TSのデスクリプタ、またはMP4ファイルへの変換時の補助データに、その識別情報のデータサイズを格納してもよい。さらに、NALサイズ形式では、MP4ファイルへの変換後のNALユニットのデータサイズを示すフィールドのフィールド長も示してもよい。 As shown in FIG. 16A, a variable length code such as zero_byte may be included in front of the NAL unit in the transport stream in addition to the start code. Therefore, as shown in FIG. 16C, the data size of the identification information including the start code of the NAL unit (prefix_size shown in FIG. 16C) may be stored in the size information. If the data size of the identification information is fixed, the data size of the identification information may be stored in the MPEG2-TS descriptor or auxiliary data at the time of conversion to the MP4 file. Further, in the NAL size format, the field length of the field indicating the data size of the NAL unit after conversion into the MP4 file may be indicated.
 また、識別情報をデータユニットとみなし、AU_infoテーブルによってNal_size_infoの内容を示してもよい。このとき、conversion_modeを多値とすることにより、データユニットを削除する、そのまま残す、の2つの動作に加えて、データユニットのデータ構造を変換するというモードを追加してもよい。さらに、AU_infoテーブルに、データユニットの種類を識別するための識別情報を追加してもよい。例えば、このような識別情報によって、MPEG-4 AVCまたはHEVCにおけるSPSのNALユニット、PPSのNALユニットあるいはスライスのNALユニットなど、NALユニットのタイプを判別することができる。あるいは、MPEG-4 AACのLATMヘッダまたはLATMペイロードなどを判別することなどが可能である。さらに、データユニットが暗号化されているかどうかを示すフィールドを別途設けてもよい。 Also, the identification information may be regarded as a data unit, and the contents of Nal_size_info may be indicated by an AU_info table. At this time, a mode of converting the data structure of the data unit may be added in addition to the two operations of deleting the data unit and leaving it as it is by making conversion_mode multi-valued. Furthermore, identification information for identifying the type of the data unit may be added to the AU_info table. For example, the type of NAL unit such as an SPS NAL unit, a PPS NAL unit, or a slice NAL unit in MPEG-4 AVC or HEVC can be determined based on such identification information. Alternatively, it is possible to determine the MPEG-4 AAC LATM header or LATM payload. Further, a field indicating whether or not the data unit is encrypted may be provided separately.
 conversion_modeが異なるデータユニットを、異なるTSパケットに格納してもよい。また、conversion_modeが2である場合に、ヘッダ情報としてサンプルエントリに格納されるデータユニットを平文としてTSパケットに格納しておいてもよい。 Data units with different conversion_modes may be stored in different TS packets. When the conversion_mode is 2, the data unit stored in the sample entry as header information may be stored in the TS packet as plain text.
 暗号化については、スライスデータのNALユニットのみを暗号化し、それ以外の部分は平文としてもよい。暗号化はTSパケット単位で行われるため、TSパケットのペイロードにおいて平文と暗号化部分とは混在できず、AUDなどはデータサイズが小さく、AUDを独立したパケットとして格納するとスタッフィングが増加して多重化効率が低下するためである。また、暗号化されたスライスのNALユニットデータの境界がTSパケットのペイロードの終端にアラインされない場合には、スタッフィングが必要となる。スタッフィングを行う場合には、TSパケットヘッダのadaptation_fieldを用いるか、符号化データに、Filler Data NALユニット、またはFiller Data用のSEIなどを挿入する方法がある。TSパケットヘッダのadaptation_fieldを用いる場合には、adaptation_fieldは平文にする必要があるが、可変長の領域に対して暗号化するか否かの処理を切替えることは負荷が高い。したがって、スタッフィングを行う際には、符号化データにおけるスタッフィング用のデータ構造を用いて、NALユニットデータの境界がTSパケットのペイロード終端にアラインさせることが望ましい。 For encryption, only the NAL unit of the slice data may be encrypted, and the other parts may be plain text. Since encryption is performed in units of TS packets, plaintext and encrypted parts cannot be mixed in the payload of TS packets, AUD has a small data size, and if AUD is stored as an independent packet, stuffing increases and multiplexing This is because efficiency decreases. Further, stuffing is necessary when the boundary of the NAL unit data of the encrypted slice is not aligned with the end of the payload of the TS packet. When performing stuffing, there is a method of using adaptation_field of a TS packet header, or inserting Filler Data NAL unit or Filler Data SEI into encoded data. When the adaptation_field of the TS packet header is used, the adaptation_field needs to be in plain text, but switching the process of whether or not to encrypt a variable-length area is expensive. Therefore, when performing stuffing, it is desirable that the boundary of the NAL unit data is aligned with the end of the payload of the TS packet by using the stuffing data structure in the encoded data.
 また、TSパケットのAdaptation field、あるいは、アクセスユニット内に、ユーザーデータ格納用のSEI(User unregistered SEI)を挿入して、そのSEIにサイズ情報を格納してもよい。MP4ファイルに変換する際には、これらのいずれか1つ以上の方法により格納されたNALユニットのサイズ情報に基づいて、スタートコード形式をNALサイズ形式に変換することができる。また、サイズ情報が格納されているかどうかを示す情報を、MPEG2-TSにおけるデスクリプタなどを用いて格納してもよい。 Also, the user data storage SEI (User unregistered SEI) may be inserted into the adaptation field of the TS packet or the access unit, and the size information may be stored in the SEI. When converting to an MP4 file, the start code format can be converted to the NAL size format based on the size information of the NAL unit stored by any one or more of these methods. Further, information indicating whether size information is stored may be stored using a descriptor in MPEG2-TS.
 図17は、本変形例に係るファイル生成装置100がMP4ファイルを生成する処理動作を示すフローチャートである。具体的には、このフローチャートは、図13Cに示すAU_infoテーブルを参照してトランスポートストリームをMP4ファイルに変化する処理動作の例を示す。 FIG. 17 is a flowchart showing a processing operation in which the file generation device 100 according to this modification generates an MP4 file. Specifically, this flowchart shows an example of a processing operation for changing a transport stream into an MP4 file with reference to the AU_info table shown in FIG. 13C.
 ファイル生成装置100の補助情報サーチ部101は、PESパケットのペイロードの先頭などに配置されるAU_infoテーブルをサーチする(ステップS101)。次に、補助情報解析部103は、そのサーチの結果に基づいて、AU_infoテーブルが存在するかどうかを判定する(ステップS102)。ここで、AU_infoテーブルが存在すると判定されると(ステップS102の「はい」)、補助情報解析部103は、AU_infoテーブルに含まれている、各データユニットのデータサイズと、その各データユニットの変換モードとを取得する(ステップS103)。一方、AU_infoテーブルが存在しないと判定されると(ステップS102の「いいえ」)、生成部104のサンプル生成部104aは、PESパケットから分離されたアクセスユニットをデータユニットとみなし、そのデータユニットをサンプルデータとしてコピーしてmdatに貼り付ける(ステップS105)。1アクセスユニットが1PESパケットに格納されている場合には、サンプル生成部104aは、PESパケットのペイロードを1アクセスユニット分のデータとみなして分離する。複数アクセスユニットが1PESパケットに格納されている場合、あるいは、アクセスユニットがフラグメント化されてPESパケットに格納されている場合には、サンプル生成部104aは、符号化データにおける各アクセスユニットの境界をサーチしてそれらのアクセスユニットを分離する。 The auxiliary information search unit 101 of the file generation device 100 searches the AU_info table arranged at the beginning of the payload of the PES packet (step S101). Next, the auxiliary information analysis unit 103 determines whether or not an AU_info table exists based on the search result (step S102). When it is determined that the AU_info table exists (“Yes” in step S102), the auxiliary information analysis unit 103 includes the data size of each data unit included in the AU_info table and the conversion of each data unit. The mode is acquired (step S103). On the other hand, if it is determined that the AU_info table does not exist (“No” in step S102), the sample generation unit 104a of the generation unit 104 regards the access unit separated from the PES packet as a data unit, and samples the data unit. The data is copied and pasted on mdat (step S105). When one access unit is stored in one PES packet, the sample generation unit 104a regards the payload of the PES packet as data for one access unit and separates it. When multiple access units are stored in one PES packet, or when an access unit is fragmented and stored in a PES packet, the sample generation unit 104a searches for the boundary of each access unit in the encoded data. To separate those access units.
 ステップS103の後、補助情報解析部103は、変換モードが0であるか否かを判定する(ステップS104)。変換モードが0であると判定されると(ステップS104の「はい」)、サンプル生成部104aは、その変換モードに対応するデータユニットをサンプルデータとしてコピーしてmdatに貼り付ける(ステップS105)。一方、変換モードが0ではないと判定されると(ステップS104の「いいえ」)、補助情報解析部103は、その変換モードが1であるか否かを判定する(ステップS106)。ここで、変換モードが1であると判定されると(ステップS106の「はい」)、サンプル生成部104aは、その変換モードに対応するデータユニットのデータ構造を変換し、変換後のデータ構造を有するデータユニットをサンプルデータとしてmdatに格納する(ステップS107)。例えば、サンプル生成部104aは、NALユニット境界の識別情報の形式をスタートコード形式からNALサイズ形式に変換する。一方、変換モードが1ではなく2であると判定されると(ステップS106の「いいえ」)、サンプルエントリ生成部104bは、その変換モードに対応するデータユニットをmdatに格納することなく、データユニットの少なくとも一部のデータをサンプルエントリに格納する(ステップS108)。例えば、サンプルエントリ生成部104bは、MPEG-4 AVCにおけるSPSおよびPPSのそれぞれのNALユニットをサンプルエントリに格納する。あるいは、サンプルエントリ生成部104bは、MPEG-4 AACのLATMヘッダからAudioSpecificConfig()を分離してサンプルエントリに格納する。データユニットのデータのうち、サンプルエントリに格納される部分については、符号化方式に予め規定されるが、サンプルエントリへの格納部分を特定するための補助データをAU_infoテーブル内に示してもよい。 After step S103, the auxiliary information analysis unit 103 determines whether the conversion mode is 0 (step S104). If it is determined that the conversion mode is 0 (“Yes” in step S104), the sample generation unit 104a copies the data unit corresponding to the conversion mode as sample data and pastes it to mdat (step S105). On the other hand, if it is determined that the conversion mode is not 0 (“No” in step S104), the auxiliary information analysis unit 103 determines whether or not the conversion mode is 1 (step S106). If it is determined that the conversion mode is 1 (“Yes” in step S106), the sample generation unit 104a converts the data structure of the data unit corresponding to the conversion mode, and converts the converted data structure to the data structure. The stored data unit is stored in mdat as sample data (step S107). For example, the sample generation unit 104a converts the format of the identification information of the NAL unit boundary from the start code format to the NAL size format. On the other hand, when it is determined that the conversion mode is 2 instead of 1 (“No” in step S106), the sample entry generation unit 104b stores the data unit corresponding to the conversion mode in the mdat without storing the data unit. Are stored in the sample entry (step S108). For example, the sample entry generation unit 104b stores NPS units of SPS and PPS in MPEG-4 AVC in the sample entry. Alternatively, the sample entry generation unit 104b separates AudioSpecificConfig () from the MPEG-4 AAC LATM header and stores it in the sample entry. Of the data of the data unit, the portion stored in the sample entry is defined in advance in the encoding method, but auxiliary data for specifying the storage portion in the sample entry may be indicated in the AU_info table.
 (変形例1-3)
 上記実施の形態におけるコピーマニフェストファイルに記述される、ストリームファイルのコピー開始位置を示すアドレスは、ストリームファイルの先頭からの絶対値ではなくてもよい。例えば、コピー開始位置を示すアドレスは、直前のエントリのコピー開始位置を示すアドレスからの差分値であってもよい。
(Modification 1-3)
The address indicating the copy start position of the stream file described in the copy manifest file in the above embodiment may not be an absolute value from the beginning of the stream file. For example, the address indicating the copy start position may be a difference value from the address indicating the copy start position of the immediately preceding entry.
 図7に示すストリームファイルAに含まれる2番目のエントリは、(コピー開始位置のアドレス,コピーサイズ)=(577,180)ではなく、(コピー開始位置のアドレス,コピーサイズ)=(367,180)のように記述される。また、コピー開始位置のアドレスとコピーサイズの記述方法としては、例えば以下の3通り(モード1~3)が可能である。 The second entry included in the stream file A shown in FIG. 7 is not (copy start position address, copy size) = (577, 180), but (copy start position address, copy size) = (367, 180). ). Further, for example, the following three methods (modes 1 to 3) are possible as a method for describing the address of the copy start position and the copy size.
 モード1では、ストリームファイルと差分ファイルから交互にデータをコピーする。例えば、コピーされるデータの範囲は(コピー開始位置のアドレス,コピーサイズ)として記述され、各フィールドのビット長は例えば(int32,int8)である。 In mode 1, data is copied alternately from the stream file and the difference file. For example, the range of data to be copied is described as (address of copy start position, copy size), and the bit length of each field is (int32, int8), for example.
 モード2では、コピーサイズが0である場合には、コピーをスキップする。同一ファイルから連続してデータをコピーできるため、モード1と比較してアドレスのデータ長を短くすることができる。例えば、コピーされるデータの範囲は、(コピー開始位置のアドレス,コピーサイズ)として記述され、各フィールドのビット長は例えば(int16,int8)である。 In mode 2, if the copy size is 0, copy is skipped. Since data can be copied continuously from the same file, the data length of the address can be shortened compared to mode 1. For example, the range of data to be copied is described as (address of copy start position, copy size), and the bit length of each field is (int16, int8), for example.
 モード3では、モード2においてコピーサイズを明示的に示すのではなく、アドレスによって示されるTSパケットのペイロードの最終までのデータをコピーする。コピーサイズのフィールドは省略される。また、アドレスを指定する代わりに、ストリームファイルにおけるTSパケットのインデックス番号の差分値を用いてもよい。例えば、コピーされるデータの範囲は、(パケット番号、コピーモード)として記述され、各フィールドのビット長は例えば(int7,int1)である。コピーモードは、コピーをスキップするかどうかを示す。 In mode 3, instead of explicitly indicating the copy size in mode 2, data up to the end of the payload of the TS packet indicated by the address is copied. The copy size field is omitted. Further, instead of specifying an address, a difference value between index numbers of TS packets in the stream file may be used. For example, the range of data to be copied is described as (packet number, copy mode), and the bit length of each field is, for example, (int7, int1). The copy mode indicates whether copying is skipped.
 図18は、モード2を使用した場合のアドレス指定の具体例を示す図である。 FIG. 18 is a diagram showing a specific example of address designation when mode 2 is used.
 図18に示すように、コピー開始位置である開始位置1と開始位置2はそれぞれ210バイト目と91428バイト目である。アドレスの差分値のフィールド長を16bitとすると、フィールド長の最大値は65535であるため、そのアドレスの差分値を1つのエントリでは表現できない。そこで、開始位置1から開始位置2までジャンプする場合には、(65535,0)と(25683,180)の2つのエントリを用いる。こうすることで、開始位置2までジャンプしてから180バイトのデータを取得することができる。 As shown in FIG. 18, the start position 1 and the start position 2 which are copy start positions are the 210th byte and the 91428th byte, respectively. If the field length of the difference value of the address is 16 bits, the maximum value of the field length is 65535. Therefore, the difference value of the address cannot be expressed by one entry. Therefore, when jumping from the start position 1 to the start position 2, two entries (65535, 0) and (25683, 180) are used. By doing so, it is possible to acquire 180 bytes of data after jumping to the start position 2.
 図19は、コピーサイズの上限値を超える連続領域を読み出す例を示す図である。 FIG. 19 is a diagram illustrating an example of reading a continuous area exceeding the upper limit of the copy size.
 この場合は、(255),(0,0),(182)のように記述することで、差分ファイルにおける領域1と領域2を連続的にコピーすることができる。 In this case, by describing as (255), (0, 0), (182), the area 1 and the area 2 in the difference file can be copied continuously.
 なお、コピー開始位置を示すアドレスまたはコピーサイズは、1バイト単位ではなく、4バイト単位で記述してもよい。また、各エントリにおいて、差分ファイルとストリームファイルとのどちらのファイルからコピーするかを示す識別情報を別途設けることで、両ファイルのエントリを交互に記述するのではなく、一方のファイルに対するエントリを連続して記述できるようにしてもよい。 Note that the address or copy size indicating the copy start position may be described in units of 4 bytes instead of units of 1 byte. In addition, in each entry, identification information indicating whether to copy from a difference file or a stream file is separately provided, so that entries for one file are not consecutively described, but entries for one file are consecutive. May be described.
 ここまでは、MPEG2-TSのファイルからデータをコピーしてMP4ファイルを生成する処理を説明したが、TSパケットに多重化されたPESパケットのペイロードから分離されたエレメンタリーストリームに基づいてデータをコピーしてもよい。 Up to this point, the process of copying data from an MPEG2-TS file to generate an MP4 file has been described. However, data is copied based on an elementary stream separated from the payload of a PES packet multiplexed into a TS packet. May be.
 図20は、エレメンタリーストリームからデータをコピーしてMP4ファイルを生成する処理を説明するための図である。 FIG. 20 is a diagram for explaining a process of creating an MP4 file by copying data from an elementary stream.
 MPEG2-TSのファイルでは、188バイト、あるいは、BD(Blu-rayディスク)などにおいて用いられるタイムスタンプ付TSの192バイトのパケット毎に、コピー情報が必要になる。したがって、ビットレートが高いコンテンツでは、TSパケットの数が増大し、コピーマニフェストファイルのサイズが増加する。そこで、MPEG2-TSのファイルから分離されたエレメンタリーストリームを用いることにより、フレーム単位、あるいは、HEVCまたはAVCにおけるNALユニットなどの単位で、データのコピーが可能となる。その結果、コピーマニフェストファイルの“COPY MANIFEST”に含まれるエントリ数を大幅に削減することができる。例えば、ビデオを多重化したMPEG2-TSのファイルのサイズが10GBであり、TSパケットのサイズが192バイトである場合、パケット数は55924053個となり、同数のエントリが必要となる。一方で、このビデオの再生時間長が2時間で、フレームレートが30Hzであれば、フレームの総数は216000枚となる。したがって、フレームごとにエントリを生成する場合には、パケットごとにエントリを生成する場合に比べてエントリ数を大幅に低減できる。また、MPEG2-TSのファイルがAACS(Advanced Access Content System)とBD+によって2重に暗号化されており、BD+によってデータがインタリーブして再配置されるようなケースがある。このようなケースにおいても、暗号化を解いて符号化ストリームを分離した後であれば符号化ストリームを構成するデータの順序は一意に決定できるため、本手法によるコピー動作が可能である。 In the MPEG2-TS file, copy information is required for each 192-byte packet of a TS with a time stamp used for 188 bytes or a BD (Blu-ray disc). Therefore, in content with a high bit rate, the number of TS packets increases and the size of the copy manifest file increases. Therefore, by using an elementary stream separated from an MPEG2-TS file, data can be copied in units of frames or units such as NAL units in HEVC or AVC. As a result, the number of entries included in “COPY MANIFEST” of the copy manifest file can be greatly reduced. For example, if the size of an MPEG2-TS file in which video is multiplexed is 10 GB and the size of a TS packet is 192 bytes, the number of packets is 55924053, and the same number of entries is required. On the other hand, if the playback time length of this video is 2 hours and the frame rate is 30 Hz, the total number of frames is 216000. Therefore, when an entry is generated for each frame, the number of entries can be greatly reduced as compared with a case where an entry is generated for each packet. In addition, there is a case in which an MPEG2-TS file is double-encrypted by AACS (Advanced Access Content System) and BD +, and data is interleaved and rearranged by BD +. Even in such a case, the order of the data constituting the encoded stream can be uniquely determined after decryption and separation of the encoded stream, so that the copying operation according to this method is possible.
 エレメンタリーストリームからデータをコピーする場合、エレメンタリーストリームは複数存在するため、それらの識別情報が必要となる。“COPY MANIFEST”では、上述のモード1またはモード2に対応して以下のような記述が可能である。ここで、コピー開始位置のアドレスは、直前のエントリからの差分値によって示される。 When copying data from an elementary stream, since there are a plurality of elementary streams, their identification information is required. In “COPY MANIFEST”, the following description can be made corresponding to the above-described mode 1 or mode 2. Here, the address of the copy start position is indicated by a difference value from the previous entry.
 モード1では、エントリは(ファイルID,コピー開始位置のアドレス,コピーサイズ)から構成される。各フィールドのビット長は例えば(int4,1バイト単位でint22,int22)である。ファイルIDは、コピーされるデータを含むファイルの識別情報であり、例えば、ファイルIDとして0が差分ファイルに割り当てられ、1以上の値がエレメンタリーストリームのファイルに割り当てられる。解像度が4KのHEVCまたはAVCの符号化データにおいては、Minimum Compression Ratioを4とすると1フレームの最大サイズは約4Mバイトである。符号化ストリームからデータをコピーする場合、コピー開始位置のアドレスの差分値の最大値は1フレームの最大サイズとしてもよく、4Mバイトは22ビットで表現できる。このとき、コピーサイズとしても1フレームの最大サイズを表現するために22ビットとしている。 In mode 1, the entry consists of (file ID, copy start position address, copy size). The bit length of each field is, for example, (int4, int22, int22 in 1-byte units). The file ID is identification information of a file including data to be copied. For example, 0 is assigned to the difference file as the file ID, and a value of 1 or more is assigned to the file of the elementary stream. In HEVC or AVC encoded data having a resolution of 4K, if the minimum compression ratio is 4, the maximum size of one frame is about 4 Mbytes. When copying data from the encoded stream, the maximum difference value of the address at the copy start position may be the maximum size of one frame, and 4 Mbytes can be expressed by 22 bits. At this time, the copy size is 22 bits in order to express the maximum size of one frame.
 モード2では、エントリは(ファイルID、コピー開始位置のアドレス、コピーサイズ)から構成される。各フィールドのビット長は例えば(int4、1バイト単位でint12、int16)である。なお、AVCまたはHEVCでは、NALユニットのヘッダをスタートコード形式からNALサイズ形式に変換する必要があり、NALユニットのペイロード単位でデータをコピーする必要がある。そのため、コピー開始位置のアドレスのフィールドが設けられているが、TS内のエレメンタリーストリームをそのままコピーできる場合には、コピー開始位置のアドレスのフィールドを省略してもよい。あるいは、1つのエントリがNALユニット全体を示すこととし、コピー後にNALユニットのヘッダをNALサイズ形式に変換してもよい。このときも、データを連続的に読み出すことができるため、コピー開始位置のアドレスは不要である。 In mode 2, the entry consists of (file ID, copy start position address, copy size). The bit length of each field is, for example, (int4, int12, int16 in 1-byte units). In AVC or HEVC, it is necessary to convert the header of the NAL unit from the start code format to the NAL size format, and it is necessary to copy data in units of payload of the NAL unit. For this reason, a field for the address of the copy start position is provided, but if the elementary stream in the TS can be copied as it is, the field of the address for the copy start position may be omitted. Alternatively, one entry may indicate the entire NAL unit, and the header of the NAL unit may be converted into a NAL size format after copying. Also at this time, since the data can be read continuously, the address of the copy start position is unnecessary.
 (実施の形態2)
 BD-ROM規格では、複数のMPEG2-TSのファイルをプレイリストから参照して連続的に再生することができ、ファイルの境界におけるストリームの制約条件なども規定されている。例えば、複数のファイルあるいは再生区間がシームレスに接続される場合には、接続対象となる2本のオーディオの再生区間をオーバーラップさせてもよい。
(Embodiment 2)
According to the BD-ROM standard, a plurality of MPEG2-TS files can be continuously reproduced by referring to a playlist, and a stream constraint condition at a file boundary is also defined. For example, when a plurality of files or playback sections are seamlessly connected, the playback sections of two audio to be connected may be overlapped.
 MP4においても、プレイリストを用いて連続再生される複数のMP4ファイルを指定することは可能であり、また、同様の制約条件を加えることが想定される。 Also in MP4, it is possible to specify a plurality of MP4 files that are continuously played back using a playlist, and it is assumed that the same constraints are added.
 図21は、連続して再生される2つのMP4ファイルにおけるオーディオとビデオの再生区間の例を示す図である。この図21に示すように、オーディオの再生区間はオーバーラップする。しかしながら、MP4におけるDTS(Decode TimeStamp)またはPTSは、ファイル内の先頭サンプルのDTSを基準(=0)とした相対時刻によって表現され、絶対時刻で表現できない。したがって、再生区間が互いにオーバーラップする2つのMP4ファイル(XXX1.MP4とXXX2.MP4)を連続して再生すると、XXX1.MP4の最終サンプルの直後にXXX2.MP4の先頭サンプルが再生される。その結果として、それぞれのオーバーラップ部分が連続して再生されることになる。 FIG. 21 is a diagram showing an example of audio and video playback sections in two MP4 files that are played back continuously. As shown in FIG. 21, the audio playback sections overlap. However, DTS (Decode TimeStamp) or PTS in MP4 is expressed by a relative time with the DTS of the first sample in the file as a reference (= 0), and cannot be expressed by an absolute time. Therefore, when two MP4 files (XXX1.MP4 and XXX2.MP4) whose playback sections overlap each other are continuously played back, XXX1. Immediately after the final sample of MP4, XXX2. The first sample of MP4 is played back. As a result, each overlap portion is reproduced continuously.
 そのため、本実施の形態では、XXX1.MP4とXXX2.MP4の再生区間がオーバーラップしているかどうか、あるいは、オーバーラップしている再生区間を示す情報をプレイリスト、あるいは、MP4ファイル内に格納する。図21に示す例では、プレイリスト内のプレイアイテムが参照するMP4ファイルにおけるオーディオとビデオのそれぞれの先頭サンプルのPTSと最終サンプルの再生終了時刻とが記述される。また、MP4ファイルのmoov内に、MP4ファイルの先頭サンプルのDTSまたはPTSの絶対時刻を格納してもよい。あるいは、moofまたはtrafに、Movie fragmentの先頭サンプルまたはMovie fragment内のトラック毎の先頭サンプルの、DTSまたはPTSの絶対時刻を格納してもよい。 Therefore, in this embodiment, XXX1. MP4 and XXX2. Information indicating whether or not the MP4 playback sections overlap or information indicating the overlapping playback sections is stored in the playlist or MP4 file. In the example shown in FIG. 21, the PTS of the first sample of audio and video in the MP4 file referred to by the play item in the playlist and the playback end time of the last sample are described. Also, the absolute time of the DTS or PTS of the first sample of the MP4 file may be stored in the moov of the MP4 file. Alternatively, the absolute time of DTS or PTS of the first sample of Movie fragment or the first sample of each track in Movie fragment may be stored in moof or traf.
 例えば、XXX1.MP4とXXX2.MP4において、ビデオの再生区間はオーバーラップもギャップも無く、PTSが連続することが保証される。この場合、オーディオあるいはテキストについてのみ、オーバーラップに関する情報を示せばよい。XXX2.MP4のビデオの先頭サンプルのPTSをT0とすると、XXX2.MP4におけるオーディオの先頭サンプルのPTSとT0とのオフセット値、あるいは、XXX1.MP4のオーディオの最終サンプルの再生終了時刻とT0とのオフセット値を格納してもよい。また、XXX1.MP4の最終オーディオサンプルの再生終了時刻とXXX2.MP4の先頭サンプルのPTSとのオフセット値をXXX2.MP4に格納してもよい。再生装置は、オーバーラップに関するこれらの情報に基づいて、出力するオーディオサンプルの選択や合成などを行う。なお、ビデオの再生区間をオーバーラップさせてもよいし、オーディオまたはビデオの再生区間をオーバーラップさせるのではなく、ギャップを設けてもよい。 For example, XXX1. MP4 and XXX2. In MP4, there is no overlap or gap in the video playback section, and it is guaranteed that PTS is continuous. In this case, it is only necessary to show the information about overlap only for audio or text. XXX2. If the PTS of the first sample of the MP4 video is T0, XXX2. The offset value between PTS and T0 of the first sample of audio in MP4, or XXX1. An offset value between T0 and the reproduction end time of the last sample of the MP4 audio may be stored. XXX1. Playback end time of the last audio sample of MP4 and XXX2. The offset value with the PTS of the first sample of MP4 is set to XXX2. You may store in MP4. The playback device selects or synthesizes audio samples to be output based on these pieces of information related to overlap. Note that the video playback sections may be overlapped, or the audio or video playback sections may not be overlapped, but a gap may be provided.
 図21に示す例では、プレイリストを用いて複数のファイルが連続再生されるが、本実施の形態では、連続して再生される再生区間を統合して1つのMP4ファイルを生成してもよい。 In the example shown in FIG. 21, a plurality of files are continuously played using a playlist. However, in the present embodiment, a single MP4 file may be generated by integrating playback sections that are played back continuously. .
 図22Aは、再生区間を統合して1つのMP4ファイルを生成する方法を説明するための図である。 FIG. 22A is a diagram for explaining a method of generating one MP4 file by integrating playback sections.
 本実施の形態では、図22Aに示すように、例えば再生区間1と再生区間2を統合してXXX3.MP4を生成する。再生区間1のオーディオは、例えば、サンプル1-1からサンプル1-100までの100個のサンプルから構成される。再生区間2のオーディオは、例えば、サンプル2-1からサンプル2-100までの100個のサンプルから構成される。以下、オーディオを例に説明する。 In this embodiment, as shown in FIG. 22A, for example, playback section 1 and playback section 2 are integrated to form XXX3. MP4 is generated. The audio in the playback section 1 is composed of, for example, 100 samples from sample 1-1 to sample 1-100. The audio in the playback section 2 is composed of, for example, 100 samples from sample 2-1 to sample 2-100. Hereinafter, audio will be described as an example.
 まず、再生区間1と再生区間2のそれぞれの再生区間にオーバーラップもギャップも存在しなければ、XXX3.MP4のオーディオトラックには、サンプル1-1からサンプル1-100に続いて、サンプル2-1からサンプル2-100が格納され、再生時には、各サンプルが順に再生される。次に、サンプル1-100とサンプル2-1の再生区間がオーバーラップする場合について説明する。サンプル1-100とサンプル2-1の再生区間(開始時刻:PTS、終了時刻:PTS+再生時間長)が同一である場合には、サンプル2-1を削除してXXX3.MP4のオーディオトラックを構成する。これにより、サンプル間のオーバーラップは解消される。これは、再生区間1に含まれる複数のサンプルの再生区間と、再生区間2に含まれる複数のサンプルの再生区間とがオーバーラップする場合も同様である。 First, if there is no overlap or gap in each playback section of playback section 1 and playback section 2, XXX3. In the MP4 audio track, samples 2-1 to 2-100 are stored following samples 1-1 to 1-100, and each sample is played back in order during playback. Next, the case where the playback sections of sample 1-100 and sample 2-1 overlap will be described. If sample 1-100 and sample 2-1 have the same playback section (start time: PTS, end time: PTS + playback time length), sample 2-1 is deleted and XXX3. An MP4 audio track is configured. Thereby, the overlap between samples is eliminated. The same applies to the case where the playback section of the plurality of samples included in the playback section 1 and the playback section of the plurality of samples included in the playback section 2 overlap.
 一方、サンプル1-100とサンプル2-1の再生区間がオーバーラップし、かつ、それぞれのサンプルの再生区間が同一ではない場合には、サンプルの削除によっては対応できない。 On the other hand, if the playback sections of sample 1-100 and sample 2-1 overlap and the playback sections of the samples are not the same, it cannot be handled by deleting the sample.
 そこで、オーバーラップがある場合、XXX3.MP4のオーディオトラックにはサンプル1-100とサンプル2-1を共に格納した上で、オーバーラップした再生区間を示す情報を格納する。オーバーラップしている再生区間の時間長をΔTとする。この場合、例えば、再生区間1の最終サンプルと再生区間2の先頭サンプルが互いに異なるムービーフラグメントとされ、ΔTをmoofのtraf内などに格納する。このΔTは、再生区間2に含まれるムービーフラグメントにおけるオーディオトラックの先頭からΔTの再生区間が、直前のムービーフラグメントのオーディオトラックの再生区間とオーバーラップすることを示す。 Therefore, if there is an overlap, XXX3. In the MP4 audio track, samples 1-100 and 2-1 are stored together, and information indicating the overlapped playback sections is stored. Let ΔT be the time length of the overlapping playback sections. In this case, for example, the last sample in the playback section 1 and the first sample in the playback section 2 are different from each other, and ΔT is stored in the trof of the moof. This ΔT indicates that the playback section of ΔT from the beginning of the audio track in the movie fragment included in the playback section 2 overlaps with the playback section of the audio track of the immediately previous movie fragment.
 ギャップが存在する場合には、MP4におけるエディットリストの機能または、ムービーフラグメントにおけるduration-is-empty flagのセットなどによって、ギャップ区間に対応する無再生区間を生成する。 When there is a gap, a non-reproduction section corresponding to the gap section is generated by the edit list function in MP4 or the duration-is-empty flag set in the movie fragment.
 また、オーバーラップ区間(オーバーラップしている再生区間)またはギャップ区間(ギャップが存在する区間)を、MP4ヘッダにおけるメタデータまたは外部ファイルに示してもよい。なお、オーバーラップ区間を含むMP4よりも、ギャップ区間を含むMP4のほうが、従来のMP4との親和性が高い。したがって、互いにオーバーラップ区間を含む再生区間を統合してMP4ファイルを生成する際には、例えば、図22Aの再生区間2において、オーバーラップ区間の少なくとも一部を含むサンプルを削除する。その上で、ギャップが発生した場合には、無再生区間を生成する。この方法は、オーディオだけでなく、ビデオや字幕などに対しても適用できる。また、削除が必要であるかどうか、及び、削除が必要なサンプル、削除した結果発生するギャップの時間長などを示す情報を、コピーマニフェストなどの補助情報として格納してもよい。 Also, an overlap section (overlapping playback section) or a gap section (a section where a gap exists) may be indicated in the metadata in the MP4 header or an external file. In addition, MP4 including a gap section has higher affinity with conventional MP4 than MP4 including an overlap section. Therefore, when the MP4 file is generated by integrating the playback sections including the overlap sections, for example, in the playback section 2 of FIG. 22A, samples including at least a part of the overlap sections are deleted. In addition, when a gap occurs, a non-reproduction section is generated. This method can be applied not only to audio but also to video and subtitles. Further, information indicating whether or not deletion is necessary, a sample that needs to be deleted, a time length of a gap generated as a result of deletion, and the like may be stored as auxiliary information such as a copy manifest.
 このようなMP4ファイルを再生する再生装置は、MP4ファイル内に含まれるオーバーラップ区間などの情報に基づいて、そのオーバーラップ区間のオーディオデータを再生する。つまり、再生装置は、再生対象のオーディオデータがオーバーラップ区間のデータであれば、例えば、オーバーラップしているそれぞれの再生区間のデータを含むオーディオサンプルの復号結果を合成する。そして、再生装置は、その合成された復号結果を出力する。また、連続して再生される再生区間を統合する際には、統合対象の再生区間においてオーバーラップ区間やギャップ区間が存在するかどうかを識別する必要がある。そこで、オーバーラップ区間などの有無、及び、その時間長を示す情報を、補助情報として光ディスク内、あるいは、インターネットなどから取得してもよい。 Such a playback apparatus that plays back an MP4 file plays back audio data in the overlap section based on information such as the overlap section included in the MP4 file. That is, if the audio data to be reproduced is data in the overlap section, the playback apparatus synthesizes the decoding result of the audio sample including the data in each overlapped playback section, for example. Then, the playback device outputs the synthesized decoding result. Further, when integrating playback sections that are continuously played back, it is necessary to identify whether or not an overlap section or a gap section exists in the playback section to be integrated. Therefore, information indicating the presence / absence of an overlap section and the time length thereof may be acquired as auxiliary information in the optical disc or from the Internet.
 図22Bは、本実施の形態におけるファイル生成装置のブロック図である。 FIG. 22B is a block diagram of the file generation apparatus according to the present embodiment.
 本実施の形態におけるファイル生成装置20は、MP4ファイルを生成するファイル生成装置であって、統合部21および格納部22を備えている。統合部21は、2つのストリームが連続して再生されるようにその2つのストリームを統合することによって1つのMP4ファイルを生成する。格納部22は、その2つのストリームのそれぞれにおいて再生のタイミングがオーバーラップする区間を示す情報を、生成されたMP4ファイルに格納する。例えば、上述の2つのストリームは、図22Aに示す再生区間1および再生区間2であって、生成されるMP4ファイルは、図22Aに示す“XXX3.MP4”のファイルである。さらに、2つのストリームのそれぞれにおいて再生のタイミングがオーバーラップする区間は、例えば、図22Aに示すΔTの区間である。 The file generation apparatus 20 in the present embodiment is a file generation apparatus that generates an MP4 file, and includes an integration unit 21 and a storage unit 22. The integration unit 21 generates one MP4 file by integrating the two streams so that the two streams are continuously reproduced. The storage unit 22 stores, in the generated MP4 file, information indicating a section in which the playback timing overlaps in each of the two streams. For example, the above-mentioned two streams are the playback section 1 and the playback section 2 shown in FIG. 22A, and the generated MP4 file is a file “XXX3.MP4” shown in FIG. 22A. Furthermore, the section where the playback timing overlaps in each of the two streams is, for example, a section of ΔT shown in FIG. 22A.
 図22Cは、本実施の形態におけるファイル生成方法のフローチャートである。 FIG. 22C is a flowchart of the file generation method in the present embodiment.
 本実施の形態におけるファイル生成方法は、MP4ファイルを生成するファイル生成方法であって、ステップS21およびステップS22を含む。ステップS21では、2つのストリームが連続して再生されるようにその2つのストリームを統合することによって1つのMP4ファイルを生成する。次に、ステップS21では、その2つのストリームのそれぞれにおいて再生のタイミングがオーバーラップする区間を示す情報を、生成されたMP4ファイルに格納する。ここで、ステップS21では、それぞれMP4のファイルフォーマットで構成されている元ファイルの少なくとも一部である2つのストリームを統合する。また、ステップS21では、それぞれオーディオのデータを含む2つのストリームを統合する。 The file generation method in the present embodiment is a file generation method for generating an MP4 file, and includes step S21 and step S22. In step S21, one MP4 file is generated by integrating the two streams so that the two streams are continuously reproduced. Next, in step S21, information indicating a section where the reproduction timing overlaps in each of the two streams is stored in the generated MP4 file. Here, in step S21, two streams that are at least part of the original file each configured in the MP4 file format are integrated. In step S21, two streams each including audio data are integrated.
 これにより、本実施の形態では、MP4ファイルには、オーバーラップの区間を示す情報が格納されている。したがって、そのMP4ファイルを再生する再生装置は、その情報を用いて、MP4ファイルから、オーバーラップの区間のデータを容易に特定することができる。その結果、再生装置は、そのオーバーラップの区間のデータを合成するなどによってそのデータを適切に再生することができる。つまり、オーバーラップの再生に適したMP4ファイルを生成することができる。 Thus, in the present embodiment, information indicating the overlap section is stored in the MP4 file. Therefore, the playback device that plays back the MP4 file can easily specify the data of the overlap section from the MP4 file using the information. As a result, the playback apparatus can appropriately play back the data by combining the data in the overlapping section. That is, an MP4 file suitable for overlapping reproduction can be generated.
 また、ステップS21では、2つのストリームのうちの何れか一方のストリームに含まれる複数のサンプルにわたって上述の区間が存在する場合、その複数のサンプルのうちの少なくとも1つを削除した後に、2つのストリームを統合する。これにより、サンプルが削除されるため、オーバーラップの区間を短くすることができる。その結果、オーバーラップの区間に対する再生装置による特別な処理の負担を軽減することができる。 In step S21, if the above-described section exists over a plurality of samples included in any one of the two streams, the two streams are deleted after deleting at least one of the plurality of samples. To integrate. Thereby, since the sample is deleted, the overlap section can be shortened. As a result, it is possible to reduce the burden of special processing by the playback device for the overlap section.
 また、ステップS22では、上述の区間の時間長を示す時間情報を上述の情報としてMP4ファイルに格納する。つまり、上述のΔTを示す時間情報をMP4ファイルに格納する。これにより、MP4ファイルを再生する再生装置は、その情報を用いて、オーバーラップの区間の時間長を容易に特定することができる。その結果、再生装置は、そのオーバーラップの区間のデータを合成するなどによって、特定された時間長内でそのデータを適切に再生することができる。 In step S22, time information indicating the time length of the above-described section is stored in the MP4 file as the above-described information. That is, the time information indicating the above ΔT is stored in the MP4 file. As a result, a playback apparatus that plays back an MP4 file can easily specify the time length of the overlap section using the information. As a result, the reproducing apparatus can appropriately reproduce the data within the specified time length by combining the data of the overlapping sections.
 また、ステップS22では、MP4ファイルにおけるmoof内のtrafにその時間情報を格納する。これにより、再生装置は、格納されている時間情報を適切に取得することができる。 In step S22, the time information is stored in the traf in the moof in the MP4 file. Thereby, the reproducing | regenerating apparatus can acquire the stored time information appropriately.
 また、本実施の形態におけるファイル生成方法では、上述の情報を保持している装置から、インターネットなどの通信ネットワークを介してその情報を取得してもよい。あるいは、上述の情報を記録している光ディスクからその情報を取得してもよい。これにより、わざわざオーバーラップの区間を示す情報を生成することなく、MP4ファイルにその情報を簡単に格納することができる。 Further, in the file generation method according to the present embodiment, the information may be acquired from a device holding the above information via a communication network such as the Internet. Alternatively, the information may be obtained from an optical disk on which the above information is recorded. Accordingly, the information can be easily stored in the MP4 file without generating information indicating the overlap section.
 図22Dは、本実施の形態における再生装置のブロック図である。 FIG. 22D is a block diagram of the playback device in the present embodiment.
 本実施の形態における再生装置30は、MP4ファイルを再生する再生装置であって、抽出部31および合成部32を備えている。抽出部31は、再生対象のコンテンツ(例えばオーディオトラック)において再生のタイミングがオーバーラップする2つの区間を示す情報をMP4ファイルから抽出する。合成部32は、抽出された情報に基づいてそのコンテンツにおける2つの区間を特定し、その2つの区間のそれぞれのデータに対する復号結果を合成して出力する。 The playback device 30 in the present embodiment is a playback device that plays back an MP4 file, and includes an extraction unit 31 and a synthesis unit 32. The extraction unit 31 extracts, from the MP4 file, information indicating two sections in which playback timing overlaps in a playback target content (for example, an audio track). The synthesizing unit 32 specifies two sections in the content based on the extracted information, and synthesizes and outputs the decoding results for the respective data in the two sections.
 図22Eは、本実施の形態における再生方法のフローチャートである。 FIG. 22E is a flowchart of the reproduction method according to the present embodiment.
 本実施の形態における再生方法は、MP4ファイルを再生する再生方法であって、ステップS31およびステップS32を含む。ステップS31では、再生対象のコンテンツ(例えばオーディオトラック)において再生のタイミングがオーバーラップする2つの区間を示す情報をMP4ファイルから抽出する。次に、ステップS32では、抽出された情報に基づいてそのコンテンツにおける2つの区間を特定し、その2つの区間のそれぞれのデータに対する復号結果を合成して出力する。 The reproduction method in the present embodiment is a reproduction method for reproducing an MP4 file, and includes step S31 and step S32. In step S31, information indicating two sections where the playback timing overlaps in the content to be played (for example, an audio track) is extracted from the MP4 file. Next, in step S32, two sections in the content are specified based on the extracted information, and the decoding results for the respective data in the two sections are synthesized and output.
 これにより、再生装置は、MP4ファイルから、オーバーラップの区間のデータを容易に特定することができる。その結果、再生装置は、そのオーバーラップの区間のデータを適切に再生することができる。 Thereby, the playback device can easily specify the data of the overlap section from the MP4 file. As a result, the playback device can appropriately play back the data in the overlap section.
 また、本実施の形態における記録媒体は、MP4ファイルを記録している記録媒体である。そのMP4ファイルは、コンピュータに読み出されて再生されるコンテンツ(例えばオーディオトラック)と、そのコンテンツにおいて再生のタイミングがオーバーラップする2つの区間を示す情報とを含む。これにより、記録媒体からそのMP4ファイルを読み出して再生する再生装置は、その情報を用いて、MP4ファイルから上述の2つの区間のデータを容易に特定することができる。その結果、再生装置は、それらの区間のデータを合成するなどによってそのデータを適切に再生することができる。 Also, the recording medium in the present embodiment is a recording medium that records an MP4 file. The MP4 file includes content (for example, an audio track) that is read and reproduced by a computer, and information indicating two sections in which reproduction timing overlaps. Thereby, the playback device that reads and plays back the MP4 file from the recording medium can easily specify the data of the two sections described above from the MP4 file using the information. As a result, the playback device can appropriately play back the data by combining the data of those sections.
 (実施の形態3)
 図23Aは、光ディスクに格納されたコンテンツからMP4ファイルを生成する場合のメニュー画面の一例を示す図である。図23Bは、光ディスクおよびネットワークを利用したMP4ファイルの生成方法を説明するための図である。
(Embodiment 3)
FIG. 23A is a diagram illustrating an example of a menu screen when an MP4 file is generated from content stored on an optical disc. FIG. 23B is a diagram for explaining a method of generating an MP4 file using an optical disc and a network.
 光ディスク内には、複数言語のオーディオや字幕が格納されており、MP4ファイルの生成時には、MP4ファイルに格納する言語を選択することができる。本例においては、ディスク内に格納される日本語、英語、スペイン語、および中国語から、オーディオ、字幕のそれぞれに対して、日本語と英語とが選択されている。ここで、オーディオあるいは字幕におけるサンプルのサイズが言語毎に異なると、コピーマニフェストファイルの内容はサンプルのサイズに依存する。このため、オーディオまたは字幕における選択言語の組合せに比例してコピーマニフェストファイルの種類が増加する。したがって、MP4ファイルには、常に全言語のオーディオと字幕のデータを格納して、ユーザーが選択した言語を示す情報をさらに格納しておき、再生時には、ユーザーの所望の言語を選択可能としてもよい。こうすることで、コピーマニフェストファイルは選択言語に依らず同一にすることができる。あるいは、各言語の1つだけを格納するケース、及び、全言語を格納するケースの2つのケースに対応するコピーマニフェストファイルを用意しておいてもよい。また、MP4ファイルを再生する機器におけるサポートの有無などに応じて、AACまたはAC3などのオーディオの符号化方式を選択できるようにしてもよい。あるいは、全ての符号化方式のオーディオデータをMP4ファイルに格納してもよい。全ての符号化方式のオーディオデータを格納する場合、再生時には、ユーザーの選択操作、あるいは、再生装置のプリセット情報などに基づいて、符号化方式が選択される。 In the optical disc, audio and subtitles in multiple languages are stored, and when the MP4 file is generated, the language stored in the MP4 file can be selected. In this example, Japanese and English are selected for each of audio and subtitles from Japanese, English, Spanish, and Chinese stored in the disc. Here, if the sample size in audio or subtitle differs for each language, the content of the copy manifest file depends on the sample size. For this reason, the number of copy manifest files increases in proportion to the combination of selected languages in audio or subtitles. Therefore, the MP4 file may always store audio and subtitle data in all languages, further store information indicating the language selected by the user, and select the user's desired language during playback. . By doing so, the copy manifest file can be made the same regardless of the selected language. Or you may prepare the copy manifest file corresponding to two cases, the case where only one of each language is stored, and the case where all the languages are stored. Also, an audio encoding method such as AAC or AC3 may be selected depending on whether or not a device that plays back an MP4 file has support. Alternatively, audio data of all encoding methods may be stored in the MP4 file. In the case of storing audio data of all encoding methods, at the time of reproduction, the encoding method is selected based on a user's selection operation or preset information of the reproduction device.
 あるいは、MP4ファイルの生成時には言語の選択を行わずに、全ての言語のオーディオと字幕を格納しておき、再生時にユーザーが選択してもよい。また、図23Bに示すように、コピーマニフェストファイルをネットワーク経由で取得できるようにしておけば、コピーマニフェストファイルを光ディスクに格納する必要がない。特に、任意の言語を選択可能とするなどのために、コピーマニフェストファイルの個数が増加する場合において、ネットワーク経由での取得は有効である。デフォルトの言語組合せに対応するコピーマニフェストファイルのみ光ディスクに格納しておき、その他の組合せに対応するコピーマニフェストファイルはサーバからダウンロードしてもよい。また、光ディスク、あるいは、ネットワークから取得可能な言語のオーディオまたは字幕と、MP4ファイル内に含まれるオーディオまたは字幕の言語とを、それぞれ取得しておき、MP4ファイル内に含まれない言語のうち、外部から取得可能な言語をユーザーが選択して取得してもよい。 Alternatively, the audio and subtitles of all languages may be stored without selecting the language when generating the MP4 file, and the user may select it during playback. Further, as shown in FIG. 23B, if the copy manifest file can be acquired via the network, it is not necessary to store the copy manifest file on the optical disc. In particular, when the number of copy manifest files increases to make it possible to select an arbitrary language, acquisition via a network is effective. Only the copy manifest file corresponding to the default language combination may be stored in the optical disc, and the copy manifest file corresponding to the other combination may be downloaded from the server. Also, audio or subtitles in a language that can be acquired from an optical disc or a network, and audio or subtitle languages included in the MP4 file are respectively acquired, and an external language out of the languages not included in the MP4 file is acquired. The user may select and acquire a language that can be acquired from.
 あるいは、外部から取得可能なオーディオのリストをMP4ファイル内などに格納しておく。そして、MP4ファイルの再生時に、再生装置がMP4ファイル内のオーディオの符号化方式を復号できない場合には、再生装置がサポートする符号化方式のオーディオを選択して、外部から取得してもよい。このとき、外部から取得するデータは、字幕またはオーディオのみを含む符号化データ、あるいは、MP4ファイルであってもよい。このとき、再生時には元々のMP4ファイルに含まれるビデオなどと、新規に取得したデータとを同期再生する。または、ビデオ、オーディオ、および字幕を全て含む完全なMP4ファイルを外部から取得してもよい。 Or, a list of externally obtainable audio is stored in an MP4 file or the like. If the playback apparatus cannot decode the audio encoding system in the MP4 file during playback of the MP4 file, the audio of the encoding system supported by the playback apparatus may be selected and acquired from the outside. At this time, the data acquired from the outside may be encoded data including only captions or audio, or an MP4 file. At this time, at the time of reproduction, the video etc. included in the original MP4 file and the newly acquired data are reproduced synchronously. Alternatively, a complete MP4 file including all of video, audio, and subtitles may be acquired from the outside.
 また、光ディスクに格納されるコンテンツがMPEG2-TSのファイルではなく、MP4ファイルであってもよい。この場合には、変換処理を行わずに、光ディスク内に格納されたMP4ファイルのデータを、デバイスバインドあるいはメディアバインドされた記録媒体または機器に対して、そのままコピー、あるいは、エクスポートしてもよい。コピーあるいはエクスポート時には、コンテンツを暗号化する鍵を変更してもよい。BDプレーヤなどのMP4ファイルを生成する機器では、光ディスク内のコンテンツがMPEG2ーTS形式あるいはMP4形式のどちらであるかを、データ形式の識別情報などに基づいて判断することによって、MP4ファイルに変換する必要があるかどうかを判定して、MP4ファイルを生成してもよい。あるいは、コピーマニフェストファイルなどの補助情報において、MP4への変換が必要であるかどうかを示す情報を示してもよい。また、光ディスクに格納されるコンテンツがMP4形式であっても、コンテンツ内の特定言語のオーディオまたは字幕、あるいは、劇場公開版またはディレクターズカット版などの種別をユーザーが選択してもよい。そして、選択結果に基づいて光ディスク内のMP4ファイルから選択されたデータのみを抽出してMP4ファイルを生成してもよい。 Also, the content stored on the optical disc may be an MP4 file instead of an MPEG2-TS file. In this case, the MP4 file data stored in the optical disc may be copied or exported as it is to a device-bound or media-bound recording medium or device without performing the conversion process. At the time of copying or exporting, the key for encrypting the content may be changed. A device that generates an MP4 file such as a BD player converts the content in the optical disc into the MP4 file by determining whether the content in the optical disc is in the MPEG2-TS format or the MP4 format based on the identification information of the data format. An MP4 file may be generated by determining whether it is necessary. Alternatively, auxiliary information such as a copy manifest file may indicate information indicating whether conversion to MP4 is necessary. Further, even if the content stored on the optical disc is in the MP4 format, the user may select a type such as audio or subtitles in a specific language in the content, a theater release version, or a director's cut version. Then, only the data selected from the MP4 file in the optical disk based on the selection result may be extracted to generate the MP4 file.
 ここで、図7を用いて説明したように、出力されるMP4ファイルの多重化単位を特定するための情報をコピーマニフェストファイルに示すことによっても、ファイルサイズを削減でき、コピーマニフェストファイルの個数が多い場合には有効である。このとき、コピーマニフェストに示される情報としては、MP4ファイルにおけるムービーフラグメントの単位を一意に決定でき、かつ、言語に依存しない情報を用いることができる。その情報は、例えば、ムービーフラグメントの先頭となるサンプルのPTSあるいはDTS、または、サンプルデータが取得されるMPEG2-TSのファイルの識別情報などである。ここで、MP4ファイルのサンプルのサイズが異なると、MP4ファイルのヘッダ情報のうち、moov内のstbl内に含まれるBox、またはmoof内のtrunなどの内容が異なる。このため、異なる言語に対して共通に用いることができるコピーマニフェストファイルにおいては、MP4ファイルのヘッダ情報を含めることができない。したがって、MP4ファイルに変換する際には、コピーマニフェストファイルに基づいてムービーフラグメントの単位を決定すると共に、MP4ファイルのヘッダ情報を、サンプル毎のPTSあるいはDTS、または、サンプルのサイズなどに基づいて生成する。 Here, as described with reference to FIG. 7, the file size can also be reduced by indicating the information for specifying the multiplexing unit of the output MP4 file in the copy manifest file, and the number of copy manifest files can be reduced. It is effective when there are many. At this time, as the information shown in the copy manifest, it is possible to uniquely determine the unit of the movie fragment in the MP4 file and use language-independent information. The information is, for example, the identification information of the PTS or DTS of the sample that is the head of the movie fragment, or the MPEG2-TS file from which the sample data is acquired. Here, when the sample size of the MP4 file is different, the contents of the box included in the stbl in the moov or the trun in the moof in the header information of the MP4 file are different. For this reason, the MP4 file header information cannot be included in a copy manifest file that can be used in common for different languages. Therefore, when converting to an MP4 file, the unit of the movie fragment is determined based on the copy manifest file, and the header information of the MP4 file is generated based on the PTS or DTS for each sample or the size of the sample. To do.
 サンプル毎のPTS、DTSまたはサイズを取得する際には、MPEG2-TSに多重化された、あるいは、多重化されずに別領域に格納されたオーディオ、ビデオまたは字幕などのデータから、アクセスユニットの境界をサーチする必要がある。または、PESパケットヘッダを解析するなどの処理が必要となる。これらの必要とされる処理負荷は、ビットレートの高いビデオに対しては高い。従って、少なくともビデオに対しては、アクセスユニット(MP4ファイルのサンプルに相当)を構成するNALユニットのサイズ、及び、PTSまたはDTSを示す情報をコピーマニフェストに格納してもよい。 When obtaining the PTS, DTS or size for each sample, from the data such as audio, video or subtitles multiplexed in MPEG2-TS or stored in another area without being multiplexed, You need to search the boundary. Alternatively, processing such as analysis of the PES packet header is required. These required processing loads are high for high bit rate videos. Accordingly, at least for video, the size of the NAL unit constituting the access unit (corresponding to the sample of the MP4 file) and information indicating the PTS or DTS may be stored in the copy manifest.
 図24は、NALユニットのサイズ、PTSおよびDTSを示すコピーマニフェストの一例を示す図である。 FIG. 24 is a diagram showing an example of a copy manifest showing the NAL unit size, PTS, and DTS.
 コピーマニフェストには、アクセスユニットごとに、そのアクセスユニットを構成する各NALユニットのサイズ、PTSおよびDTSを示す情報が格納されている。これらの情報により、ビデオストリームをサーチする処理を大幅に低減することができる。さらに、サイズ情報を用いて、MPEG2-TSのスタートコード形式をMP4のNALサイズ形式に変換できるという利点もある。サイズ情報は、スタートコード部分のサイズとNALユニット部分のサイズとを別々に示してもよい。NALユニットのサイズを示すフィールドのバイト長とNALサイズ形式におけるサイズ部分のバイト長とを同一としてもよい。これにより、スタートコード部分のデータをNALユニット部分のサイズを示すデータで置き換えることにより、NALサイズ形式に変換できる。なお、このスタートコードは、図15Bに示す識別情報に相当し、zero_byteを含む。 In the copy manifest, for each access unit, information indicating the size, PTS, and DTS of each NAL unit constituting the access unit is stored. With this information, the process of searching for a video stream can be greatly reduced. Furthermore, there is an advantage that the MPEG2-TS start code format can be converted to the MP4 NAL size format using the size information. The size information may indicate the size of the start code portion and the size of the NAL unit portion separately. The byte length of the field indicating the size of the NAL unit may be the same as the byte length of the size portion in the NAL size format. Thereby, the data in the start code portion can be converted into the NAL size format by replacing the data indicating the size of the NAL unit portion. This start code corresponds to the identification information shown in FIG. 15B and includes zero_byte.
 また、スタートコード部分のサイズが全て同一である場合には、デフォルト値のみを設定してもよい。また、PTSまたはDTSは、MPEG2-TSのPESヘッダにおけるPTSまたはDTSの値で表現されるのではなく、MP4のヘッダにおいて使用されるデータ形式で表現されてもよい。例えば、DTSについては、復号順で連続する2つのサンプルのDTSの差分値を示し、PTSについては、DTSとPTSの差分値を示すことができる。これらの情報のタイムスケールを、MP4におけるタイムスケールに変換しておいてもよい。さらに、先頭サンプルのPTSまたはDTSの絶対値を示す情報を格納しておいてもよい。また、MP4ファイルへの変換時に削除するNALユニットを識別するための情報を追加してもよい。また、AACの符号化ストリームに対して同様の補助情報を格納する場合には、ADTSやLATMなどのヘッダ情報はサンプルデータから削除される。しかし、これらヘッダ情報のサイズが固定であれば、ヘッダ情報とペイロードデータのサイズの合計値、および、ペイロードデータのサイズのうちのいずれか一方のみを示してもよい。また、オーディオの場合は、固定フレームレートとなるため、DTS情報はデフォルト値のみ示してもよい。 Also, if all start code parts have the same size, only the default value may be set. Further, the PTS or DTS may be expressed not in the PTS or DTS value in the MPEG2-TS PES header but in the data format used in the MP4 header. For example, for DTS, the difference value between the DTSs of two samples that are consecutive in decoding order can be shown, and for PTS, the difference value between DTS and PTS can be shown. You may convert the time scale of these information into the time scale in MP4. Furthermore, information indicating the absolute value of the PTS or DTS of the first sample may be stored. Further, information for identifying a NAL unit to be deleted at the time of conversion to an MP4 file may be added. Further, when similar auxiliary information is stored for an AAC encoded stream, header information such as ADTS and LATM is deleted from the sample data. However, if the size of the header information is fixed, only one of the total value of the header information and the size of the payload data and the size of the payload data may be indicated. In the case of audio, since the frame rate is fixed, only the default value may be indicated in the DTS information.
 なお、オーディオの符号化方式が異なると、サンプル毎の再生時間長も異なることがある。結果として、サンプル毎のPTSまたはDTSも異なるため、オーディオの符号化方式毎にコピーマニフェストファイルを用意してもよい。 Note that if the audio encoding method is different, the playback time length for each sample may also be different. As a result, since the PTS or DTS for each sample is also different, a copy manifest file may be prepared for each audio encoding method.
 ここで、MP4ファイルに字幕データを格納する場合には、字幕データをファイルの末尾にまとめて格納してもよい。 Here, when subtitle data is stored in the MP4 file, the subtitle data may be stored together at the end of the file.
 図25は、MP4ファイルの末尾に格納されている字幕データの一例を示す図である。 FIG. 25 is a diagram showing an example of caption data stored at the end of the MP4 file.
 この場合、字幕データの言語を変更しても、AV(Advanced Video)データのムービーフラグメントは同一である。一方で、ビデオまたはオーディオのムービーフラグメントと字幕のムービーフラグメントとをインタリーブして格納すると、moofの内容を変更する必要がある。これは、字幕データのサイズが変化するとAVデータのムービーフラグメントの位置が変化するためである。また、字幕データはAVデータと比較してサイズが小さい。したがって、コンテンツ全体の字幕データ、あるいは、コンテンツを分割したチャプターなどの単位に含まれる字幕データを、一括してメモリに展開して再生することも可能である。この時、ファイルの末尾にまとめて字幕データが格納されていると、その字幕データを取得し易いという利点もある。 In this case, even if the language of the caption data is changed, the movie fragment of the AV (Advanced Video) data is the same. On the other hand, when the video or audio movie fragment and the subtitle movie fragment are interleaved and stored, it is necessary to change the contents of the moof. This is because the position of the movie fragment of the AV data changes when the size of the caption data changes. In addition, caption data is smaller in size than AV data. Therefore, it is also possible to reproduce the subtitle data of the entire content or the subtitle data included in a unit such as a chapter obtained by dividing the content in a memory collectively. At this time, if subtitle data is stored together at the end of the file, there is an advantage that the subtitle data can be easily obtained.
 ここで字幕データは、テキストフォントに基づくものであってもよいし、PNG(Portable Network Graphics)形式などの画像データであってもよい。画像データの場合にはテキスト形式よりもデータサイズが大きくなるため、チャプターなどの単位毎にtrunを生成して、所定の単位に含まれる字幕データへのアクセス性を高めるなどしてもよい。あるいは、再生時にテキストデータを保持するバッファサイズに応じて、trunを構成する字幕データのサイズがバッファサイズ以下となるようにtrunを生成してもよい。 Here, the caption data may be based on a text font or image data in a PNG (Portable Network Graphics) format or the like. In the case of image data, since the data size is larger than that of the text format, trun may be generated for each unit such as a chapter to improve accessibility to subtitle data included in a predetermined unit. Alternatively, the trun may be generated so that the size of the caption data constituting the trun is equal to or smaller than the buffer size in accordance with the buffer size that holds the text data during reproduction.
 さらに、複数言語の字幕データを格納する際には、各言語を異なるムービーフラグメントに格納することで、特定言語の字幕データを容易に取得できる。このとき、ムービーフラグメントに格納される言語を特定するための情報が必要である。そこで、例えば、各言語を異なるトラックとして扱い、トラックのIDと言語とを対応付けてもよい。トラックのIDは、traf内のBoxにより示される。なお、トラックのIDと言語を対応付ける情報は、MP4におけるメタデータ格納用のBoxなどに格納してもよいし、MP4ファイルとは異なる管理情報としてもよい。また、言語とムービーフラグメントとの対応付けは、オーディオに対しても適用できる。 Furthermore, when storing subtitle data in multiple languages, subtitle data in a specific language can be easily obtained by storing each language in a different movie fragment. At this time, information for specifying the language stored in the movie fragment is required. Therefore, for example, each language may be handled as a different track, and the track ID may be associated with the language. The track ID is indicated by a box in the traf. The information that associates the track ID with the language may be stored in a metadata storage box or the like in MP4, or may be management information different from the MP4 file. Moreover, the correspondence between languages and movie fragments can be applied to audio.
 ビデオ、オーディオあるいは字幕におけるランダムアクセス可能なサンプルは、mfraによって示される。ここで、互いに連続するビデオとオーディオのムービーフラグメントの再生区間が整合する場合には、ビデオのランダムアクセスポイントのみを示せばよい。この場合、PTSが同一、直前または直後となるオーディオのサンプルを、直後のムービーフラグメントから取得することができる。例えば、図25において、ビデオ(V-1)の先頭サンプルと、オーディオ(A-1)の先頭サンプルのPTSが整合する。一方、テキストをファイル末尾に格納する場合には、テキストに対しては独立にランダムアクセスポイントを示す必要がある。 A random accessible sample in video, audio or subtitle is indicated by mfra. Here, if the playback sections of video and audio movie fragments that are continuous with each other match, only the video random access points need be shown. In this case, an audio sample having the same PTS, immediately before or immediately after can be obtained from the immediately following movie fragment. For example, in FIG. 25, the PTS of the first sample of video (V-1) matches the first sample of audio (A-1). On the other hand, when the text is stored at the end of the file, it is necessary to indicate a random access point independently for the text.
 また、光ディスクのコンテンツにおける全ての言語のオーディオまたは字幕のデータがMP4ファイルに格納される。ここで、MP4ファイルの生成時にユーザーが所望の言語を選択している場合には、選択された言語に対応するトラックについてのみ、mfraにおいてランダムアクセスポイントを示してもよい。 Also, audio or subtitle data in all languages in the optical disc content is stored in the MP4 file. Here, when the user selects a desired language when generating the MP4 file, a random access point may be indicated in mfra only for a track corresponding to the selected language.
 ここで、光ディスクに格納されるコンテンツでは、ビデオとグラフィックスの解像度が異なることが想定される。例えば、ビデオの解像度は4Kであり、字幕などのグラフィックスの解像度は処理量を抑えるために2Kとされる。 Here, it is assumed that the content stored on the optical disc has different resolutions for video and graphics. For example, the resolution of video is 4K, and the resolution of graphics such as captions is 2K in order to reduce the processing amount.
 図26は、2Kの解像度の字幕を4Kにスケーリングして表示するケースを示す図である。字幕の表示にあたっては、字幕データ及びその解像度と共に、字幕の表示領域を指定するための情報が必要である。表示領域は、例えば、矩形の表示領域のサイズ及び表示位置を用いて指定される。例えば、トラックの解像度を示す情報は、字幕のトラックが2Kであり、ビデオのトラックが4Kであることを示すことができる。また、SMPTE(Society of Motion Picture and Television Engineers)またはW3C(World Wide Web Consortium)のTimed Textなどでは、Timed Textを構成するXML(extensible markup language)データの一部として表示領域の情報を記述してもよいし、MP4ファイル内のメタデータを示すBoxに格納してもよい。 FIG. 26 is a diagram illustrating a case in which subtitles with 2K resolution are scaled to 4K and displayed. When displaying subtitles, information for specifying a subtitle display area is required together with subtitle data and its resolution. The display area is specified using, for example, the size and display position of a rectangular display area. For example, the information indicating the resolution of the track can indicate that the subtitle track is 2K and the video track is 4K. Also, in the SMPTE (Society of Motion Picture and Television Envisioners) or W3C (World Wide Web Consortium) Timed Text, etc., the XML description part of the Timed Text is part of the XML (extensive data) that constitutes the Timed Text. Alternatively, it may be stored in a box indicating metadata in the MP4 file.
 MP4ファイルを再生する際には、ビデオと字幕の解像度を取得して、両者の解像度が異なる場合には、ビデオの解像度と一致するように字幕をスケーリングして表示する。このとき、字幕が画像データであれば、画像データを拡大するなどし、テキストデータであれば、ビデオの解像度と整合するサイズを選択する。表示領域についても、スケーリングの係数などに応じて計算して決定する。なお、ビデオの解像度に合わせてスケーリングした後の表示領域を示す情報を格納してもよい。 When playing back an MP4 file, the resolutions of the video and subtitles are acquired, and if the resolutions of both are different, the subtitles are scaled and displayed so as to match the video resolution. At this time, if the caption is image data, the image data is enlarged, and if it is text data, a size that matches the video resolution is selected. The display area is also determined by calculation according to the scaling coefficient. Information indicating the display area after scaling according to the video resolution may be stored.
 (実施の形態4)
 MP4ファイルを生成する際には、光ディスクに格納されたコンテンツからオーディオ、ビデオ、字幕などのデータを取得して、1つのMP4ファイルに多重化する、あるいは、DMP形式として複数のMP4ファイルを生成することができる。例えば、光ディスクに格納されたM2TSデータからビデオのエレメンタリーストリームを分離して、ビデオのMP4を生成する。また、オーディオ及び字幕については、M2TSとは別途格納されたオーディオ及び字幕を含むMP4ファイルを取得する。そして、これらの生成したビデオのMP4ファイルと取得したオーディオ及び字幕を含むMP4ファイルとをまとめてDMP形式とすることができる。このとき、オーディオ及び字幕のMP4ファイルは、オーディオ及び字幕のそれぞれが独立したファイルであってもよいし、両者が多重化されたものであってもよい。言語が複数存在する場合には、複数の言語毎にオーディオ及び字幕を同一のMP4ファイルに多重化しておくなども可能である。エクスポート時には、エクスポート用のプレイリストを参照してエクスポート対象を決定する。エクスポート用のプレイリストは予めディスク内に格納しておいてもよいし、ネットワーク経由でダウンロードしてもよい。
(Embodiment 4)
When generating an MP4 file, data such as audio, video, and subtitles is acquired from content stored on the optical disc and multiplexed into one MP4 file, or a plurality of MP4 files are generated as a DMP format. be able to. For example, a video elementary stream is separated from M2TS data stored on an optical disc to generate a video MP4. For audio and subtitles, an MP4 file including audio and subtitles stored separately from the M2TS is acquired. Then, the MP4 file of the generated video and the MP4 file including the acquired audio and subtitles can be combined into a DMP format. At this time, the MP4 file for audio and subtitles may be a file in which the audio and subtitles are independent or may be multiplexed. When there are a plurality of languages, it is possible to multiplex audio and subtitles into the same MP4 file for each of the plurality of languages. At the time of export, an export target is determined with reference to an export playlist. The export playlist may be stored in the disc in advance or may be downloaded via the network.
 図27は、エクスポート用データの格納方法について示す図である。図28Aは、エクスポート用のプレイリストの例について示す図である。図28Bは、コピーマニフェストファイルの例について示す図である。ここでは、AVが多重化された2つのM2TSファイル(XXX1.M2TS及びXXX2.M2TS)、及び、エクスポート用のオーディオが多重化されたMP4ファイル(YYY1.MP4)がディスク内に格納されている。図示していないが、字幕についても、オーディオと同様に扱うことが可能である。 FIG. 27 is a diagram showing a method for storing export data. FIG. 28A is a diagram showing an example of an export playlist. FIG. 28B is a diagram illustrating an example of a copy manifest file. Here, two M2TS files (XXX1.M2TS and XXX2.M2TS) multiplexed with AV, and an MP4 file (YYY1.MP4) multiplexed with export audio are stored in the disc. Although not shown, subtitles can be handled in the same manner as audio.
 プレイリスト例1は、2つのプレイアイテムから構成されており、それぞれのプレイアイテムでは、ビデオはXXX1.M2TSとXXX2.M2TSとから、オーディオはYYY1.MP4とYYY2.MP4とからそれぞれ取得することが示される。YYY1.MP4とYYY2.MP4ファイルとについては、start_adrにより、ファイルの先頭位置をディスク内の論理アドレスにより示すことができる。なお、論理アドレスを明示的に示さずに、ファイル名のみにより識別してもよい。また、out_muxにより、当該データがM2TS内に多重化されているか、あるいは、M2TSとは別ファイルとして格納されているかを示してもよい。さらに、オーディオのデータが格納されるMP4のトラックとTrackIDにより示しているが、DMPのように、MP4ファイルが単一のトラックから構成される(以降、シングルトラックMP4と呼ぶ)場合には、TrackIDフィールドを省略してもよい。シングルトラックMP4においては、ファイル名に基づいて、オーディオ、ビデオ、字幕などファイル内に格納されるメディアの種別を識別できるようにしてもよいし、さらには、言語や符号化方式を示してもよい。符号化方式については、符号化方式そのものを示すのではなく、オーディオの場合であれば、音質が区別できるようにしてもよい。例えば、ロスレス圧縮されたオーディオは高音質、MPEG-2やMPEG-4のAACで圧縮されたオーディオは中音質とするなどである。 PLAYLIST EXAMPLE 1 is composed of two play items. In each play item, the video is XXX1. M2TS and XXX2. From the M2TS, the audio is YYY1. MP4 and YYY2. It is shown that the data is acquired from MP4. YYY1. MP4 and YYY2. For MP4 files, the start position of the file can be indicated by a logical address in the disk by start_adr. In addition, you may identify only by a file name, without showing a logical address explicitly. Also, out_mux may indicate whether the data is multiplexed in the M2TS or stored as a separate file from the M2TS. Furthermore, the MP4 track in which the audio data is stored and the TrackID are shown. However, when the MP4 file is composed of a single track (hereinafter referred to as a single track MP4) as in the DMP, the TrackID is used. The field may be omitted. In the single track MP4, the type of media stored in the file such as audio, video, and caption may be identified based on the file name, and further, the language and encoding method may be indicated. . The encoding method does not indicate the encoding method itself, but in the case of audio, the sound quality may be distinguished. For example, lossless compressed audio has high sound quality, and audio compressed with MPEG-2 or MPEG-4 AAC has medium sound quality.
 プレイリスト例2は、オーディオはMP4ファイルにより格納されるが、プレイアイテム1とプレイアイテム2により示されるビデオが、YYY.MP4における連続した再生区間として提供されるケースを示す。プレイリスト例3も、プレイリスト例2と同様の例であるが、YYY.MP4がシングルトラックMP4であり、TrackIDフィールドを省略している。 In playlist example 2, the audio is stored as an MP4 file, but the video indicated by play item 1 and play item 2 is YYY. A case provided as a continuous playback section in MP4 is shown. Playlist example 3 is also an example similar to playlist example 2, but YYY. MP4 is a single track MP4, and the TrackID field is omitted.
 プレイリスト例1からプレイリスト例3に示したようなエクスポート用のプレイリストは、ディスク内のコンテンツを再生する際に使用されるプレイリストと、ファイル名などにより区別できるようにしてもよい。また、エクスポート用のプレイリストと、ディスク内コンテンツ再生用のプレイリストとを、ファイルシステムにおける異なるディレクトリに格納してもよい。 The playlist for export as shown in playlist example 1 to playlist example 3 may be distinguished from the playlist used when playing back the content on the disc by the file name or the like. Also, the playlist for export and the playlist for reproducing content on the disc may be stored in different directories in the file system.
 さらに、エクスポートされるMP4においては、PinP(Picture in Picture)、マルチアングル、3D、あるいは、サブパス、ブラウザブル・スライドショーなどを禁止してもよいが、機能制限が課されるかどうかをファイル名、あるいは、エクスポート用のプレイリストを管理するメタデータなどにより示してもよい。エクスポート用のプレイリストにおいて、使用が禁止されている機能が含まれる場合には、プレイリストが不正であると判定し、エクスポート用のMP4を生成しないなどのエラー処理を行ってもよい。 Furthermore, in the exported MP4, PinP (Picture in Picture), multi-angle, 3D, sub-path, browsable slide show, etc. may be prohibited, but the file name, whether function restrictions are imposed, Or you may show by the metadata etc. which manage the play list for export. If the export playlist includes a function that is prohibited from being used, it may be determined that the playlist is invalid, and error processing such as not generating the export MP4 may be performed.
 また、エクスポート用のプレイリストは、ネットワーク経由でダウンロードして取得してもよいし、エクスポート用のプレイリストに参照されるM2TSやMP4のデータをネットワーク経由でダウンロードしてもよい。M2TSやMP4をネットワーク経由でダウンロードする場合には、ダウンロード先のIPアドレスやURLなどを別途プレイリスト内に示してもよい。あるいは、エクスポート時に使用されるコンテンツがサーバの同一ディレクトリにまとめて格納される場合には、エクスポート用プレイリストに関するメタデータにおいて当該ディレクトリのURLを示し、プレイリスト内にはファイル名のみ記述してもよい。コンテンツを取得する際には、メタデータにより示されるURLとファイル名とを連結して完全なURLを構成したうえで、ファイルをダウンロードする。 Also, the export playlist may be downloaded and acquired via a network, or M2TS and MP4 data referenced by the export playlist may be downloaded via the network. When downloading M2TS or MP4 via a network, the IP address or URL of the download destination may be shown separately in the playlist. Alternatively, when the contents used at the time of export are stored together in the same directory on the server, the URL of the directory is indicated in the metadata relating to the export playlist, and only the file name is described in the playlist. Good. When acquiring content, a URL is downloaded by concatenating a URL indicated by metadata and a file name to form a complete URL.
 コピーマニフェストファイルは、2つのM2TSファイル(XXX1.M2TS及びXXX2.M2TS)のそれぞれに対応するエレメンタリーストリームの復号または表示の時刻を示す時刻情報と、当該エレメンタリーストリームの位置情報とが関連付けられた情報を含む。この関連付けられた情報は、図24で説明したコピーマニフェストファイルと同様である。 In the copy manifest file, time information indicating the time of decoding or displaying the elementary stream corresponding to each of the two M2TS files (XXX1.M2TS and XXX2.M2TS) and the position information of the elementary stream are associated with each other. Contains information. This associated information is the same as the copy manifest file described in FIG.
 図29Aは、複数のバージョンの本編コンテンツが格納されている場合のファイル生成方法の一例について説明するための図である。図29Bは、ディレクターズカット版の再生経路におけるMP4ファイルを生成する場合のコピーマニフェストファイルを示す図である。 FIG. 29A is a diagram for describing an example of a file generation method when a plurality of versions of main contents are stored. FIG. 29B is a diagram showing a copy manifest file when generating an MP4 file in the playback path of the director's cut version.
 BDなどの光ディスクでは、ディレクターズカット版、劇場公開版など、複数のバージョンの本編コンテンツが格納されることがある。例えば、図29Aにおいて、ディレクターズカット版では再生区間(1)、(2)、(4)の順に再生され、劇場公開版では再生区間(1)、(3)、(4)の順に再生される。エクスポート用のオーディオはシングルトラックMP4として格納されるものとする。 BD and other optical discs may store multiple versions of the main content, such as a director's cut version and a theater release version. For example, in FIG. 29A, playback is performed in the order of playback sections (1), (2), and (4) in the director's cut version, and playback is performed in the order of playback sections (1), (3), and (4) in the theater release version. . It is assumed that the audio for export is stored as a single track MP4.
 図29Bに示すように、ディレクターズカット版の再生経路が選択された場合のコピーマニフェストファイルには、“Input File A”によって示されるファイルの各部分の範囲と、“Input File B”によって示されるファイルの各部分の範囲と、“Input File C”によって示されるファイルの各部分の範囲とが示されており、各ファイルの部分の範囲に対して、“Output File”、“Output File Size”、および“ATTRIBUTE”で示されるMP4ファイルへの変換を繰り返し行う。 As shown in FIG. 29B, the copy manifest file when the reproduction path of the director's cut version is selected includes the range of each part of the file indicated by “Input File A” and the file indicated by “Input File B”. The range of each part of the file and the range of each part of the file indicated by “Input File C” are shown. For the range of each file part, “Output File”, “Output File Size”, and The conversion to the MP4 file indicated by “ATTRIBUTE” is repeated.
 エクスポートする際には、ビデオは3つのM2TSから分離したエレメンタリーストリームを連結することで、MP4ファイルを生成するが、オーディオのエレメンタリーストリームは予め1つのMP4ファイルに格納される。つまり、ディレクターズカット版向けのMP4では、再生区間(1)、(2)、(4)に対応するエレメンタリーストリームが連続して格納され、劇場公開版向けのMP4では、再生区間(1)、(2)、(4)に対応するエレメンタリーストリームが連続して格納される。このように、エクスポート用のオーディオのエレメンタリーストリームを予め1本のエレメンタリーストリームとしておくことで、再生区間(2)及び(4)、あるいは、再生区間(3)及び(4)などの接続部分においてオーディオのオーバーラップやギャップが発生しないというメリットがある。このため、オーディオのオーバーラップやギャップについての処理を再生装置が行わなくてもよい。 When exporting, an MP4 file is generated by concatenating elementary streams separated from three M2TSs, and the audio elementary stream is stored in advance in one MP4 file. That is, in the MP4 for the director's cut version, the elementary streams corresponding to the playback sections (1), (2), and (4) are continuously stored, and in the MP4 for the theater release version, the playback section (1), Elementary streams corresponding to (2) and (4) are continuously stored. In this way, by connecting the audio elementary stream for export as one elementary stream in advance, the playback sections (2) and (4), or the connection sections of the playback sections (3) and (4), etc. There is an advantage that no audio overlap or gap occurs. Therefore, the playback apparatus does not have to perform processing for audio overlap and gap.
 図30は、複数のバージョンの本編コンテンツが格納されている場合のファイル生成方法の他の一例について説明するための図である。 FIG. 30 is a diagram for explaining another example of the file generation method when a plurality of versions of the main content are stored.
 図29では、エクスポート用のオーディオを1つのMP4ファイルとするケースについて説明したが、図30に示すようにビデオの再生区間に対応するMP4ファイルを複数格納してもよい。このとき、再生区間の接続部分ではオーディオのオーバーラップやギャップが発生するが、前述した方法により処理するものとする。 In FIG. 29, the case where the audio for export is one MP4 file has been described, but a plurality of MP4 files corresponding to video playback sections may be stored as shown in FIG. At this time, audio overlaps and gaps occur at the connection portion of the playback section, but the processing is performed by the method described above.
 図31は、エクスポート用のオーディオのMP4ファイルとM2TSから分離したビデオのMP4ファイルとの関係を示す一例である。 FIG. 31 shows an example of the relationship between the audio MP4 file for export and the video MP4 file separated from the M2TS.
 DMP形式のコンテンツを作成する場合には、オーディオやビデオ、字幕など異なるメディアにおけるMovie Fragmentの単位が整合していることが望ましい。一般に、コンテンツの途中からランダムアクセスして再生する場合には、ビデオのランダムアクセスポイントに基づいてランダムアクセスポイントのPTSを決定し、オーディオや字幕については、ビデオのランダムアクセスポイントのPTSと同一、あるいは、直前、直後となるPTSを持つフレームから再生する。オーディオや字幕については、予め格納されたエクスポート用のシングルトラックMP4ファイルを使用する場合には、これらのMP4ファイルのデータは変更することなくエクスポートされる。 When creating content in DMP format, it is desirable that the units of Movie Fragment in different media such as audio, video and subtitles are consistent. In general, in the case of playing by random access from the middle of the content, the PTS of the random access point is determined based on the random access point of the video, and the audio and caption are the same as the PTS of the video random access point, or , Playback is performed from the frame having the PTS immediately before and after. As for audio and subtitles, when using an export single track MP4 file stored in advance, the data of these MP4 files are exported without change.
 従って、M2TSから分離したビデオのエレメンタリーストリームに基づいて生成するビデオのMP4ファイルは、Movie Fragmentの単位が、エクスポート用のオーディオや字幕と整合するように生成されることが望ましい。つまり、M2TSから分離したエレメンタリーストリームに基づいて、オーディオや字幕のMP4ファイルの再生時間に対応させた再生時間のビデオのMP4ファイルを生成することが望ましい。こうすることで、ランダムアクセス時には、各メディアにおいて同一のインデックス番号を持つMovie Fragmentから再生を開始することができる。なお、Movie FragmentにおいてDTSが先頭となるサンプルはMPEG-4 AVCやHEVCにおけるIピクチャ、あるいは、IDRピクチャなどのランダムアクセス可能なピクチャとするものとする。 Therefore, it is desirable that the video MP4 file generated based on the video elementary stream separated from the M2TS is generated so that the unit of Movie Fragment is consistent with the audio and subtitles for export. That is, based on the elementary stream separated from the M2TS, it is desirable to generate a video MP4 file having a playback time corresponding to the playback time of the audio or subtitle MP4 file. By doing so, at the time of random access, reproduction can be started from Movie Fragment having the same index number in each medium. Note that the sample with DTS at the top in Movie Fragment is an I picture in MPEG-4 AVC or HEVC, or a randomly accessible picture such as an IDR picture.
 図32Aは、本実施の形態におけるファイル生成装置のブロック図である。 FIG. 32A is a block diagram of the file generation apparatus according to the present embodiment.
 本実施の形態におけるファイル生成装置40は、エレメンタリーストリームからMP4ファイルを生成するファイル生成装置であって、取得部41、選択部42及び生成部43を備えている。取得部41は、複数のエレメンタリーストリームのそれぞれを示す識別情報が含まれるプレイリストを取得する。選択部42は、取得したプレイリストから所定の識別情報によって示されるエレメンタリーストリームを選択する。生成部43は、選択したエレメンタリーストリームに対応しているマニフェストファイルであって、所定のルールに基づいてファイルのフォーマットを変換するために必要なマニフェストファイルに基づいて、エレメンタリーストリームに含まれるデータをMP4のファイルフォーマットに変換することによって、MP4ファイルを生成する。なお、所定の識別情報とは、例えば、図28の各プレイリスト例に示す“XXX1.M2TS”や“XXX2.M2TS”などのストリームファイルのファイル名である。 The file generation apparatus 40 in this embodiment is a file generation apparatus that generates an MP4 file from an elementary stream, and includes an acquisition unit 41, a selection unit 42, and a generation unit 43. The acquisition unit 41 acquires a playlist including identification information indicating each of the plurality of elementary streams. The selection unit 42 selects an elementary stream indicated by predetermined identification information from the acquired playlist. The generation unit 43 is a manifest file corresponding to the selected elementary stream, and data included in the elementary stream based on the manifest file necessary for converting the file format based on a predetermined rule. Is converted into an MP4 file format to generate an MP4 file. The predetermined identification information is, for example, a file name of a stream file such as “XXX1.M2TS” or “XXX2.M2TS” shown in each playlist example in FIG.
 なお、ここで、プレイリストは、さらに、所定の識別情報によって示されるエレメンタリーストリームの一部の区間を示す区間情報を含んでいてもよい。区間情報は、例えば、図28Aの“PTS_begin=10.0s, PTS_end=30.3s”などのように、エレメンタリーストリームの復号または表示の時刻を示す時刻情報で示されている。 Note that, here, the playlist may further include section information indicating a part of the elementary stream indicated by the predetermined identification information. The section information is indicated by time information indicating the time of decoding or displaying the elementary stream, such as “PTS_begin = 10.0 s, PTS_end = 30.3 s” in FIG. 28A.
 また、プレイリストは、第1エレメンタリーストリームを示す第1識別情報と、第2エレメンタリーストリームを示す第2識別情報とを所定の識別情報として、かつ、第1エレメンタリーストリームの第1区間を示す第1区間情報と、第2エレメンタリーストリームの第2区間を示す第2区間情報とを区間情報として含んでいてもよい。具体的には、図27のストリームファイル(XXX1.M2TS)から得られるエレメンタリーストリームが第1エレメンタリーストリームに相当し、ストリームファイル(XXX2.M2TS)から得られるエレメンタリーストリームが第2エレメンタリーストリームに相当する。また、図28Aに示すように、プレイアイテム1の“XXX1.M2TS”が第1識別情報に相当し、プレイアイテム2の“XXX2.M2TS”が第2識別情報に相当する。また、図28Aに示すように、プレイアイテム1の“PTS_begin=10.0s, PTS_end=30.3s”が第1区間情報に相当し、プレイアイテム2の“PTS_begin=30.3s, PTS_end=60.3s”に相当する。 Also, the playlist uses the first identification information indicating the first elementary stream and the second identification information indicating the second elementary stream as predetermined identification information, and the first section of the first elementary stream The 1st section information to show and the 2nd section information which shows the 2nd section of the 2nd elementary stream may be included as section information. Specifically, the elementary stream obtained from the stream file (XXX1.M2TS) in FIG. 27 corresponds to the first elementary stream, and the elementary stream obtained from the stream file (XXX2.M2TS) is the second elementary stream. It corresponds to. As shown in FIG. 28A, “XXX1.M2TS” of play item 1 corresponds to the first identification information, and “XXX2.M2TS” of play item 2 corresponds to the second identification information. As shown in FIG. 28A, “PTS_begin = 10.0 s, PTS_end = 30.3 s” of play item 1 corresponds to the first section information, and “PTS_begin = 30.3 s, PTS_end = 60. This corresponds to 3 s ″.
 また、マニフェストファイルは、図24や図28Bに示すようなコピーマニフェストファイルであり、復号または表示の時刻とエレメンタリーストリームにおける位置とが対応付けられた情報である。また、マニフェストファイルは、複数のエレメンタリーストリームのそれぞれに対して1対1で対応している。例えば、マニフェストファイルは、エレメンタリーストリーム(M2TSファイル)のファイル名と対応するファイル名が付けられることにより、対応付けが行われていてもよいし、テーブルによりマニフェストファイルとエレメンタリーストリームとの対応付けが行われていてもよい。 Further, the manifest file is a copy manifest file as shown in FIG. 24 or 28B, and is information in which the time of decoding or display is associated with the position in the elementary stream. The manifest file corresponds to each of the plurality of elementary streams on a one-to-one basis. For example, the manifest file may be associated with the file name corresponding to the file name of the elementary stream (M2TS file), or the association between the manifest file and the elementary stream using a table. May be performed.
 図32Bは、本実施の形態におけるファイル生成方法のフローチャートである。 FIG. 32B is a flowchart of the file generation method in the present embodiment.
 本実施の形態におけるファイル生成方法は、エレメンタリーストリームからMP4ファイルを生成するファイル生成方法であってステップS41、ステップS42及びステップS43を含む。ステップS41では、複数のエレメンタリーストリームのそれぞれを示す識別情報が含まれるプレイリストを取得する。ステップS42では、取得したプレイリストから所定の識別情報によって示されるエレメンタリーストリームを選択する。ステップS43では、選択したエレメンタリーストリームに対応しているマニフェストファイルであって、所定のルールに基づいてファイルのフォーマットを変換するために必要なマニフェストファイルに基づいて、エレメンタリーストリームに含まれるデータをMP4のファイルフォーマットに変換することによって、MP4ファイルを生成する。 The file generation method in the present embodiment is a file generation method for generating an MP4 file from an elementary stream, and includes step S41, step S42, and step S43. In step S41, a playlist including identification information indicating each of the plurality of elementary streams is acquired. In step S42, an elementary stream indicated by predetermined identification information is selected from the acquired playlist. In step S43, a manifest file corresponding to the selected elementary stream, the data included in the elementary stream is converted based on the manifest file necessary for converting the file format based on a predetermined rule. An MP4 file is generated by converting to an MP4 file format.
 これにより、本実施の形態では、プレイリストから選択したエレメンタリーストリームに含まれるデータについて、当該エレメンタリーストリームに対応しているマニフェストファイルに基づいて、MP4のファイルフォーマットに変換することができる。マニフェストファイルを用いることにより、例えば、プレイリストの所定の識別情報によって示されるエレメンタリーストリームを、演算することなく特定できるため、処理負荷を抑えることができる。 Thereby, in the present embodiment, the data included in the elementary stream selected from the playlist can be converted into the MP4 file format based on the manifest file corresponding to the elementary stream. By using the manifest file, for example, the elementary stream indicated by the predetermined identification information of the playlist can be specified without calculation, so that the processing load can be suppressed.
 また、プレイリストが、所定の識別情報によって示されるエレメンタリーストリームの一部の区間を示す区間情報を含んでいる場合、ステップS42では、さらに、区間情報で示されるエレメンタリーストリームの前記区間を選択し、ステップS43では、選択されたエレメンタリーストリームの区間をMP4のファイルフォーマットに変換してもよい。 When the playlist includes section information indicating a part of the elementary stream indicated by the predetermined identification information, in step S42, the section of the elementary stream indicated by the section information is further selected. In step S43, the section of the selected elementary stream may be converted into the MP4 file format.
 これにより、本実施の形態では、プレイリストから選択したエレメンタリーストリームの区間のデータについて、当該エレメンタリーストリームに対応しているマニフェストファイルに基づいて、MP4のファイルフォーマットに変換することができる。マニフェストファイルを用いることにより、プレイリストの区間情報によって示されるエレメンタリーストリームの区間を、演算することなく特定できるため、処理負荷を抑えることができる。 Thereby, in this embodiment, the data of the section of the elementary stream selected from the playlist can be converted into the MP4 file format based on the manifest file corresponding to the elementary stream. By using the manifest file, the section of the elementary stream indicated by the section information of the playlist can be specified without calculation, so that the processing load can be suppressed.
 また、区間情報は、エレメンタリーストリームの復号または表示の時刻を示す時刻情報で示されており、マニフェストファイルは、時刻とエレメンタリーストリームにおける位置とが対応付けられた情報である場合、ステップS43では、マニフェストファイルから、プレイリストの区間情報により示される時刻情報に対応した、エレメンタリーストリームにおける区間の位置を特定し、特定した前記エレメンタリーストリームの区間を抽出し、抽出したエレメンタリーストリームの区間をMP4のファイルフォーマットに変換してもよい。 If the section information is indicated by time information indicating the time of decoding or displaying the elementary stream, and the manifest file is information in which the time and the position in the elementary stream are associated with each other, in step S43, The position of the section in the elementary stream corresponding to the time information indicated by the section information of the playlist is identified from the manifest file, the section of the identified elementary stream is extracted, and the section of the extracted elementary stream is You may convert into the MP4 file format.
 これにより、本実施の形態では、マニフェストファイルには、復号または表示の時刻と、エレメンタリーストリームにおける位置とが予め関連付けられているため、プレイリストに示される区間情報から、容易にエレメンタリーストリームの区間の位置を特定できる。これにより、処理負荷を抑えることができる。 As a result, in the present embodiment, since the time of decoding or display and the position in the elementary stream are associated in advance with the manifest file, the elementary stream can be easily obtained from the section information indicated in the playlist. The position of the section can be specified. Thereby, processing load can be suppressed.
 また、プレイリストは、第1エレメンタリーストリームを示す第1識別情報と、第2エレメンタリーストリームを示す第2識別情報とを所定の識別情報として、かつ、第1エレメンタリーストリームの第1区間を示す第1区間情報と、第2エレメンタリーストリームの第2区間を示す第2区間情報とを区間情報として含んでいる場合、ステップS42では、取得したプレイリストから、第1識別情報によって示される第1エレメンタリーストリームのうちの第1区間情報で示される第1区間と、第2識別情報によって示される第2エレメンタリーストリームのうちの第2区間情報で示される第2区間と、を選択し、変換では、選択した第1エレメンタリーストリームの第1区間と、第2エレメンタリーストリームの第2区間とを含むデータをMP4のファイルフォーマットに変換してもよい。 Also, the playlist uses the first identification information indicating the first elementary stream and the second identification information indicating the second elementary stream as predetermined identification information, and the first section of the first elementary stream When the first section information shown and the second section information showing the second section of the second elementary stream are included as section information, in step S42, the first identification information indicated by the first identification information is obtained from the acquired playlist. Selecting a first section indicated by the first section information of one elementary stream and a second section indicated by the second section information of the second elementary stream indicated by the second identification information; In the conversion, data including the first section of the selected first elementary stream and the second section of the second elementary stream. It may be converted to the MP4 file format.
 これにより、本実施の形態では、プレイリストによって2つのエレメンタリーストリームのそれぞれの区間が選択されていても、容易に2つの区間を特定することができる。これにより、処理負荷を抑えることができる。 Thereby, in this embodiment, even if the respective sections of the two elementary streams are selected by the playlist, the two sections can be easily specified. Thereby, processing load can be suppressed.
 また、この場合、ステップS43では、第1エレメンタリーストリームに対応している第1マニフェストファイルに基づいて、選択した第1エレメンタリーストリームの第1区間を抽出し、第2エレメンタリーストリームに対応している第2マニフェストファイルに基づいて、選択した第2エレメンタリーストリームの第2区間を抽出し、抽出した第1区間及び第2区間を含むデータをMP4のファイルフォーマットに変換してもよい。 In this case, in step S43, the first section of the selected first elementary stream is extracted based on the first manifest file corresponding to the first elementary stream, and the second elementary stream is supported. The second section of the selected second elementary stream may be extracted based on the second manifest file, and the data including the extracted first section and second section may be converted into the MP4 file format.
 これにより、本実施の形態では、プレイリストによって2つのエレメンタリーストリームのそれぞれの区間が選択されていても、2つのエレメンタリーストリームのそれぞれに対応するマニフェストファイルを用いるため、容易に2つの区間を特定することができる。これにより、処理負荷を抑えることができる。 Thereby, in this Embodiment, since each manifest file corresponding to each of the two elementary streams is used even if each segment of the two elementary streams is selected by the playlist, the two segments are easily selected. Can be identified. Thereby, processing load can be suppressed.
 また、図27に示すようにエクスポート用のストリームファイル(音声のMP4ファイル)がある場合には、ステップS42では、さらに、エレメンタリーストリームに対応する音声のMP4ファイルを選択し、ステップS43では、選択したエレメンタリーストリームに対応しているマニフェストファイルに基づいて、当該エレメンタリーストリームに対応している映像のエレメンタリーストリームを抽出し、抽出した映像のエレメンタリーストリームと、選択した音声のMP4ファイルとを用いて、MP4ファイルを生成してもよい。 If there is an export stream file (audio MP4 file) as shown in FIG. 27, an audio MP4 file corresponding to the elementary stream is further selected in step S42, and selected in step S43. Based on the manifest file corresponding to the elementary stream, the elementary stream of the video corresponding to the elementary stream is extracted, and the extracted elementary stream of the video and the MP4 file of the selected audio are It may be used to generate an MP4 file.
 これにより、本実施の形態では、音声のMP4ファイルをエレメンタリーストリームから変換して生成する必要がないため、処理負荷を抑えることができる。 Thereby, in the present embodiment, it is not necessary to convert and generate an audio MP4 file from an elementary stream, so that the processing load can be suppressed.
 (変形例4-1)
 図33は、本変形例におけるファイル生成装置のブロック図である。
(Modification 4-1)
FIG. 33 is a block diagram of a file generation device according to this modification.
 ファイル生成装置200は、プレイリスト解析部201と、エクスポート対象選択部202と、M2TS分離部203と、エクスポートファイル取得部204と、再多重化部205と、コピーマニフェスト解析部206とを備えている。ファイル生成装置200は、M2TSから分離したエレメンタリーストリーム、及び、エクスポート用のシングルトラックMP4に基づいて、オーディオ、ビデオ、あるいは、字幕を含むMP4を生成して出力する。出力されるMP4は、複数メディアのエレメンタリーストリームを1つのファイルに格納する形式であってもよいし、DMP形式であってもよい。 The file generation device 200 includes a playlist analysis unit 201, an export target selection unit 202, an M2TS separation unit 203, an export file acquisition unit 204, a remultiplexing unit 205, and a copy manifest analysis unit 206. . The file generation apparatus 200 generates and outputs MP4 including audio, video, or subtitles based on the elementary stream separated from the M2TS and the single track MP4 for export. The output MP4 may be in a format in which elementary streams of a plurality of media are stored in one file, or in a DMP format.
 プレイリスト解析部201は、ファイル生成装置40の取得部41及び選択部42に相当し、ディスク内、あるいは、ネットワーク経由でプレイリストを取得し、取得した1つ、あるいは、複数のエクスポート用のプレイリストを解析する。 The playlist analysis unit 201 corresponds to the acquisition unit 41 and the selection unit 42 of the file generation device 40. The playlist analysis unit 201 acquires a playlist on the disc or via a network, and acquires one or more playlists for export. Parse the list.
 エクスポート対象選択部202は、ファイル生成装置40の選択部42に相当し、プレイリスト解析部201の解析結果に基づいて、ユーザーがエクスポート対象となるプレイリストにより提供されるコンテンツ、あるいは、コンテンツ内の言語設定や字幕データのエクスポートの有無などを選択するためのメニューを生成し、生成したメニューへの入力を受け付け、ユーザーの選択結果(受け付けたメニューへの入力に応じて決定されたプレイリスト)に基づいてエクスポート対象となるプレイリストなどを決定する。 The export target selection unit 202 corresponds to the selection unit 42 of the file generation apparatus 40, and based on the analysis result of the playlist analysis unit 201, the content provided by the playlist to be exported by the user, or the content within the content Generates a menu for selecting language settings, caption data export / non-export, etc., accepts input to the generated menu, and selects the user's selection result (playlist determined according to accepted menu input) Based on this, a playlist to be exported is determined.
 次に、ユーザーが選択したコンテンツを構成するエレメンタリーストリームが格納されるデータを決定し、エレメンタリーストリームがM2TSに格納される場合には、M2TS分離部203が、コピーマニフェスト解析部206により提供されるコピーマニフェスト情報に基づいてエレメンタリーストリームを分離する。エレメンタリーストリームがエクスポート用のMP4により提供される場合には、エクスポートファイル取得部204において当該MP4ファイルを取得する。エクスポートファイル取得部204は、音声のエレメンタリーストリームが、エクスポート用のMP4ファイルにより提供される場合には、当該MP4ファイルを取得してもよい。最後に、再多重化部205は、M2TS分離部203から取得したエレメンタリーストリーム、及び、エクスポートファイル取得部204により取得したMP4ファイルを用いて、出力用のMP4ファイルを生成する。複数メディアを1つのMP4ファイルに格納する場合には、エクスポート用MP4データからエレメンタリーストリームを分離したうえで、オーディオ、ビデオ、あるいは、字幕のエレメンタリーストリームを1つのMP4ファイルに多重化する。DMP形式で出力する場合には、M2TS分離手段により出力されたエレメンタリーストリームからシングルトラックMP4を生成し、EXPTファイル取得手段から出力されるエクスポート用MP4データと合わせて、DMPコンテンツを生成する。このとき、DMPに含まれる複数のMP4ファイルを管理するためのメタデータは、別途生成するものとする。なお、再多重化部205は、映像のMP4ファイル、音声のMP4ファイル、及び字幕のMP4ファイルのそれぞれを多重化することなく、独立したファイルで出力してもよい。 Next, the data in which the elementary stream constituting the content selected by the user is stored is determined, and when the elementary stream is stored in the M2TS, the M2TS separation unit 203 is provided by the copy manifest analysis unit 206. The elementary stream is separated based on the copy manifest information. When the elementary stream is provided by the export MP4, the export file acquisition unit 204 acquires the MP4 file. When the audio elementary stream is provided as an MP4 file for export, the export file acquisition unit 204 may acquire the MP4 file. Finally, the remultiplexing unit 205 generates an MP4 file for output using the elementary stream acquired from the M2TS separation unit 203 and the MP4 file acquired by the export file acquisition unit 204. When storing a plurality of media in one MP4 file, the elementary stream is separated from the export MP4 data, and then the audio, video, or subtitle elementary stream is multiplexed into one MP4 file. In the case of outputting in the DMP format, a single track MP4 is generated from the elementary stream output by the M2TS separation unit, and the DMP content is generated together with the export MP4 data output from the EXPT file acquisition unit. At this time, metadata for managing a plurality of MP4 files included in the DMP is generated separately. Note that the re-multiplexing unit 205 may output the video MP4 file, the audio MP4 file, and the subtitle MP4 file as independent files without multiplexing.
 なお、M2TS分離部203、エクスポートファイル取得部204、再多重化部205及びコピーマニフェスト解析部206は、ファイル生成装置40の生成部43に相当する。 The M2TS separation unit 203, the export file acquisition unit 204, the remultiplexing unit 205, and the copy manifest analysis unit 206 correspond to the generation unit 43 of the file generation device 40.
 図34は、MP4ファイルを複数に分割して生成する場合の一例を示す図である。具体的には、コンテンツ全体に対応するサイズが11.40GBとなるMP4ファイルを、SDカードに記録するために、4GB以下となるように3つのファイルに分割する例について示している。 FIG. 34 is a diagram illustrating an example of a case where an MP4 file is divided and generated. Specifically, an example in which an MP4 file having a size corresponding to the entire content of 11.40 GB is divided into three files so as to be 4 GB or less in order to be recorded on an SD card is shown.
 M2TSなどのデータから生成されたMP4ファイルは、SDカードなどのリムーバブルメディアや、スマートフォンあるいはタブレットなどのHDDなど、MP4ファイルを持ち出す先の記録デバイスに記録される。このとき、記録デバイスのファイルシステムに依存して、扱うことのできるファイルサイズの上限値が制限される。例えば、SDカードであれば4GBであるし、SDHCカードであれば32GBとなる。従って、コンテンツ全体に対応するMP4ファイルのサイズが記録デバイスにおけるファイルシステムの上限値を超える場合には、MP4ファイルを分割する必要がある。 MP4 file generated from data such as M2TS is recorded in a recording device to which the MP4 file is taken out, such as removable media such as an SD card, HDD such as a smartphone or a tablet. At this time, the upper limit value of the file size that can be handled is limited depending on the file system of the recording device. For example, the SD card is 4 GB, and the SDHC card is 32 GB. Therefore, when the size of the MP4 file corresponding to the entire content exceeds the upper limit value of the file system in the recording device, it is necessary to divide the MP4 file.
 Movie Fragmentを用いたMP4においては、オーディオ、ビデオ、あるいは、字幕などにおいて再生区間が同一、あるいは、近傍となるMovie Fragmentは、同一ファイルに格納されることが望ましい。再生区間が同一であるオーディオやビデオのデータが異なるファイルに格納される場合には、再生時には同時に2つのMP4ファイルのデータにアクセスする必要があり、記録デバイスにおけるデータの読出し速度やシーク速度に依存して、1つのファイルから再生する場合に比べて、データを余分にバッファリングしてから再生しなければならないなどの課題があるためである。 In MP4 using Movie Fragment, it is desirable to store Movie Fragments that have the same or close playback sections in audio, video, subtitles, etc. in the same file. When audio and video data with the same playback section is stored in different files, it is necessary to access the data of two MP4 files at the same time during playback, depending on the data reading speed and seek speed of the recording device. This is because, compared with the case of reproducing from one file, there is a problem that the data must be reproduced after being buffered excessively.
 従って、再生区間が同一あるいは近傍となるオーディオ、ビデオ、及び、字幕のMovie Fragmentが同一のMP4ファイルに含まれ、かつ、ファイルサイズが4GB以下となるようにMP4ファイルを生成する。このように、4GBバイト以下であって、かつ、できるだけ多くのMovie Fragmentを同一ファイルに格納することで、生成されるファイル数を最小化できる。 Therefore, the MP4 file is generated so that the audio fragment, the video fragment, and the movie fragment of the caption with the same or close playback section are included in the same MP4 file and the file size is 4 GB or less. Thus, by storing as many Movie Fragments as possible in the same file that are 4 GB or less, the number of generated files can be minimized.
 なお、オーディオや字幕のデータサイズはビデオと比較して小さいため、より長時間分のデータをバッファリングしておくことができる。従って、再生区間が同一である異なるメディアのMovie Fragmentを全て同一ファイルに格納するのではなく、少なくともビデオのMovie Fragmentについては、同一ファイルとなるように分割することにしてもよい。ビデオ以外のメディアについても、同一Movie Fragmentのデータを異なるファイルに分割することを禁止してもよい。 In addition, since the data size of audio and subtitles is smaller than that of video, data for a longer time can be buffered. Therefore, instead of storing all the movie fragments of different media having the same playback section in the same file, at least the movie fragment of the video may be divided so as to be the same file. For media other than video, it may be prohibited to divide the same Movie Fragment data into different files.
 図35は、MP4ファイルを複数に分割して生成する場合の他の一例を示す図である。 FIG. 35 is a diagram illustrating another example of the case where the MP4 file is divided and generated.
 図34の例のように、オリジナルのMP4ファイルのデータをそのまま分割すると、2番目以降のファイルにおいてはmoovが存在せず、SampleEntryに格納される各メディアの復号時に必要となる初期化情報を取得するために、1番目のファイルを参照する必要がある。また、mfraは最終のファイルにおいてのみ含まれるため、最終以外のMP4ファイルのランダムアクセスを行う場合には、最終のMP4ファイルに格納されるmfraを参照する必要があるなど、それぞれのMP4ファイルに完結した再生を行うことができない。従って、ファイル毎に、moov、あるいは、mfraを付加してもよい。 As in the example of FIG. 34, when the original MP4 file data is divided as it is, there is no moov in the second and subsequent files, and the initialization information required for decoding each medium stored in SampleEntry is acquired. In order to do this, it is necessary to refer to the first file. In addition, since mfra is included only in the final file, when performing random access to an MP4 file other than the final one, it is necessary to refer to the mfra stored in the final MP4 file. Cannot be played. Therefore, moov or mfra may be added for each file.
 moovについては、オリジナルのMP4ファイルのSampleEntryには、コンテンツ全体で必要となる初期化情報が全て含まれるためstsdの内容は変更不要である。また、他のBoxについても、基本的には変更不要であるが、各トラックのtkhd、あるいは、mvhdには、それぞれ、トラック毎、ファイル全体の再生時間長が格納される。従って、これらの再生時間長は、分割後のMP4ファイルの再生時間長に対応するように変更してもよい。あるいは、分割されたファイルであることが何らかの補助情報により示される場合には、再生時間長の変更も不要としてもよい。 For moov, the SampleEntry of the original MP4 file contains all the initialization information required for the entire content, so the contents of stsd need not be changed. Further, although the other Boxes basically need not be changed, the reproduction time length of the entire file is stored for each track in tkhd or mvhd of each track. Therefore, these playback time lengths may be changed to correspond to the playback time length of the divided MP4 file. Alternatively, when it is indicated by some auxiliary information that the file is a divided file, the change of the reproduction time length may be unnecessary.
 一方、mfraについても、各MP4ファイル内のランダムアクセスポイントを示すように内容を変更してもよい。mfraのランダムアクセス情報には、ランダムアクセスポイントとなるサンプルが属するmoovのファイル先頭からのオフセットが示される。mfraの内容を変更しない場合、オフセット値はオリジナルのMP4に対応するため、分割後のファイルのオフセット値とはならない。従って、分割されたファイルにおけるランダムアクセスポイントの探索時には、2番目以降のファイルに対しては、再生順が前となるMP4ファイルのサイズの総和を加算して、オリジナルのMP4ファイルのファイルオフセット値を再現することにより、ランダムアクセスポイントとなるサンプルデータを取得する。 On the other hand, the content of mfra may be changed to indicate a random access point in each MP4 file. The mfra random access information indicates an offset from the beginning of the moov file to which the sample serving as the random access point belongs. When the content of mfra is not changed, the offset value corresponds to the original MP4, and thus does not become the offset value of the divided file. Therefore, when searching for a random access point in the divided file, for the second and subsequent files, the sum of the sizes of the MP4 files whose playback order is the previous is added to obtain the file offset value of the original MP4 file. By reproducing, sample data to be a random access point is obtained.
 分割後の各ファイルにおいてmoovやmfraの内容を変更することにより、オリジナルのMP4ファイルにおけるmoovやmfraのサイズが更新される場合には、更新後のファイルサイズがファイルシステムにおける最大サイズ以下となるように分割する。 When the moov or mfra size in the original MP4 file is updated by changing the contents of the moov or mfra in each divided file, the updated file size is less than the maximum size in the file system. Divide into
 なお、分割後のファイルの再生順はファイル名、あるいは、ファイルの再生順を示す情報を格納したコンテンツの管理情報により識別できるものとする。 It should be noted that the playback order of the divided files can be identified by the file name or content management information storing information indicating the playback order of the files.
 また、図25の例のように、字幕データをインタリーブせずにMP4ファイルの終端にまとめて格納する際には、字幕データが含まれる分割ファイルを識別するための情報をコンテンツの管理情報などに含める。再生時には、字幕データが格納される分割ファイルにアクセスして字幕データを取得する。一般に、字幕データはサイズが小さいため、全ての字幕データが同一ファイル内に含まれることが望ましい。ここで、字幕データを復号する際の初期化情報は、オーディオやビデオと同様にmoovに格納される。 Further, as in the example of FIG. 25, when subtitle data is stored together at the end of the MP4 file without being interleaved, information for identifying a divided file including subtitle data is used as content management information or the like. include. At the time of reproduction, subtitle data is acquired by accessing a divided file in which subtitle data is stored. In general, since subtitle data is small in size, it is desirable that all subtitle data is included in the same file. Here, the initialization information for decoding the caption data is stored in the moov as with the audio and video.
 MP4ファイルの生成時には、オリジナルのMP4ファイルを出力先のファイルシステムにおけるファイルサイズの上限値を予め取得する必要がある。従って、出力先がタブレットなど他のデバイスである場合には、接続先のデバイスとの間で、また、出力先が、BDプレーヤなど光ディスクが存在するデバイスと同一のデバイスに接続されたSDカード、HDDなどの記録媒体である場合には、デバイス内において、何らかの通信手段に基づいて通信を行い、出力先のファイルシステムの最大ファイルサイズを示す情報、又は、オリジナルのMP4ファイルを分割する必要があるかを示す情報を取得する。 When generating an MP4 file, it is necessary to obtain an upper limit of the file size in the file system that is the output destination of the original MP4 file in advance. Therefore, when the output destination is another device such as a tablet, the SD card is connected to the same device as the device on which the optical disc exists, such as a BD player, and the output destination. In the case of a recording medium such as an HDD, it is necessary to perform communication based on some communication means in the device and divide the information indicating the maximum file size of the output destination file system or the original MP4 file. Get information that indicates
 例えば、MP4ファイルの生成に先立って、MP4の生成モジュールが出力先の記録媒体のファイルシステムにおける最大ファイルサイズを示す情報の取得要求を行うなどMP4の生成モジュール主体で取得する。あるいは、オリジナルのMP4ファイルを出力先のデバイスに通知し、分割が必要な場合には出力先のデバイスからMP4の生成モジュールに対して最大ファイルサイズを示す情報を送信するなども可能である。 For example, prior to the generation of the MP4 file, the MP4 generation module mainly acquires the information indicating the maximum file size in the file system of the output destination recording medium. Alternatively, the original MP4 file may be notified to the output destination device, and when division is necessary, information indicating the maximum file size may be transmitted from the output destination device to the MP4 generation module.
 他のデバイスが通信ネットワーク経由でMP4ファイルを取得する場合には、選択可能な言語、あるいは、MP4ファイルの取得先やDRM(Digital Right Management)の管理サーバのURLなどコンテンツのメタ情報を記述したメタファイルを先ず取得し、メタファイルの解析結果に基づいてMP4ファイルの取得要求を行うことが可能である。このような場合には、MP4ファイルの取得要求メッセージやコマンドにおいて、最大ファイルサイズを示す情報を記述してもよい。 When another device acquires an MP4 file via a communication network, a meta that describes the selectable language or content meta information such as the MP4 file acquisition destination and the URL of the DRM (Digital Right Management) management server It is possible to first acquire a file and make an MP4 file acquisition request based on the analysis result of the metafile. In such a case, information indicating the maximum file size may be described in the MP4 file acquisition request message or command.
 また、これらのメタファイルの更新に対応できるようにしてもよい。デフォルトのメタファイルは光ディスク内から取得して、更新があれば更新後のメタファイルをネットワーク経由で取得する。メタファイル内に、再生装置が最初にアクセスする管理サーバのURLを記述しておき、光ディスク内のメタファイルのバージョン番号などに基づいて、メタファイルが最新かどうかを管理サーバが判定し、最新でなければ最新のメタファイルの取得先を再生装置に通知するなどが可能である。また、国や地域に依存して、デフォルトのメタファイルに記述されたDRMやコンテンツの取得先、あるいは、コンテンツの内容が異なることがあり、これらもメタファイルの更新と同様に、再生装置が存在する国や地域の識別情報に基づいて、メタファイルの更新と同様に管理サーバにおいて処理することができる。国や地域毎に、メタファイルの更新内容が異なる場合も同様である。 Also, it may be possible to support updating of these metafiles. The default metafile is acquired from the optical disk, and if updated, the updated metafile is acquired via the network. In the metafile, the URL of the management server that is first accessed by the playback device is described, and the management server determines whether the metafile is the latest based on the version number of the metafile in the optical disc. Otherwise, it is possible to notify the playback device of the latest metafile acquisition destination. Also, depending on the country or region, the DRM or content acquisition destination described in the default metafile, or the content content may be different, and there is a playback device as well as the metafile update. Based on the identification information of the country or region in which it is performed, it can be processed in the management server in the same manner as the metafile update. The same applies when the metafile update contents differ for each country or region.
 図36は、MP4ファイルを複数に分割して生成する場合の他の一例を示す図である。 FIG. 36 is a diagram illustrating another example of the case where the MP4 file is divided and generated.
 MP4ファイルを生成する際には、オーディオ、ビデオ、あるいは、字幕などの異なるメディアのデータを同一ファイルに多重化するのが一般的であるが、図36に示すように、メディア毎にそれぞれ独立したMP4ファイルとする形式もある。本形式はDMP(Digital Media Package)と呼ばれ、再生時には、複数のMP4ファイルから取得したメディアデータを同期再生する。DMPでは、MP4ファイルやコンテンツの管理ファイルをZIP形式などでアーカイブするが、アーカイブ後のファイルが出力先のファイルシステムの最大ファイルサイズを超える場合には分割の必要がある。分割する際には、図34および図35において説明した分割方法と同様に分割を行える。つまり、同一DMPを構成する各メディアのMP4ファイルの再生区間は同一、あるいは、近傍となるように分割する。あるいは、各メディアのMP4において、1つのMovie Fragmentが複数のDMPに跨って格納されることを禁止するなどである。moovやmfraの扱いについても同様である。また、オーディオや字幕はビデオに対してデータサイズが小さいため、複数ファイルに分割するのはビデオのみとして、オーディオや字幕は先頭の分割ファイルに全てのデータを格納してもよい。 When generating an MP4 file, it is common to multiplex data of different media such as audio, video, or subtitles into the same file, but each media is independent as shown in FIG. Some formats are MP4 files. This format is called DMP (Digital Media Package), and media data acquired from multiple MP4 files is played back synchronously during playback. In DMP, MP4 files and content management files are archived in the ZIP format or the like. However, when the archived file exceeds the maximum file size of the output destination file system, division is necessary. In the division, division can be performed in the same manner as the division method described in FIGS. That is, the playback section of the MP4 file of each medium constituting the same DMP is divided so as to be the same or close. Or, in the MP4 of each medium, one Movie Fragment is prohibited from being stored across a plurality of DMPs. The same applies to the handling of moov and mfra. In addition, since the data size of audio and subtitles is smaller than that of video, only the video may be divided into a plurality of files, and all data may be stored in the first division file of audio and subtitles.
 また、コンテンツ管理ファイルの内容については、コンテンツ全体に関わる属性情報は分割後の先頭のDMP内に格納されるコンテンツ管理ファイルに格納できる。また、先頭のDMPに格納されるコンテンツ管理ファイルにおいて、分割された後続のDMPファイルの識別情報、及び、再生順を示す情報を格納してもよい。後続のDMPにおけるコンテンツ管理ファイルでは、DMP内のファイルのアーカイブ情報、あるいは、DMPの識別情報などを記述して、コンテンツ全体に関わる情報は記述しなくてもよい。なお、DMPを複数生成するのではなく、単一のDMPのデータを複数ファイルに分割してもよい。 Also, as for the contents of the content management file, attribute information relating to the entire content can be stored in the content management file stored in the first DMP after the division. Further, in the content management file stored in the head DMP, identification information of the subsequent DMP file divided and information indicating the reproduction order may be stored. In the content management file in the subsequent DMP, the archive information of the file in the DMP or the identification information of the DMP is described, and the information related to the entire content need not be described. Instead of generating a plurality of DMPs, a single DMP data may be divided into a plurality of files.
 なお、DMPにおいても、図21や図22で説明したように、複数の再生区間を構成するMP4ファイルをプレイリストなどにより参照して連続再生することは可能である。複数メディアを同一ファイルに多重化する際には、接続先と接続元はそれぞれ1つのファイルであるが、DMPでは、接続先と接続元がそれぞれ複数のファイルとなり、プレイリストには、それら複数のファイルの識別情報を記述する。また、連続して再生されるファイルの接続点におけるオーディオのギャップやオーバーラップも、前述した処理により同様に扱える。 In DMP, as described with reference to FIGS. 21 and 22, it is possible to continuously reproduce MP4 files constituting a plurality of reproduction sections by referring to a playlist or the like. When multiple media are multiplexed into the same file, the connection destination and the connection source are each one file, but in DMP, the connection destination and the connection source are each a plurality of files. Describes the file identification information. Also, audio gaps and overlaps at the connection points of continuously played files can be handled in the same manner by the above-described processing.
 (変形例4-2)
 図37は、エクスポート用のMP4など、エクスポート時に使用されるデータを光ディスクに格納する際の格納位置について示す図である。エクスポート用のデータは、高速に読出し、あるいは、コピーできることが望ましいため、光ディスクの外周部における連続領域に格納する。一方、M2TSについては、光ディスクのレイヤ間をジャンプする際にオーディオやビデオ、あるいは、グラフィックスなどのデータがアンダーフローしないことを保証できるだけのデータを外周部に配置することが必須である。
(Modification 4-2)
FIG. 37 is a diagram showing a storage position when data used for export, such as MP4 for export, is stored on an optical disc. Since it is desirable that the data for export can be read or copied at high speed, it is stored in a continuous area on the outer periphery of the optical disk. On the other hand, for M2TS, it is essential that data that can guarantee that data such as audio, video, or graphics does not underflow when jumping between layers of an optical disc is arranged on the outer periphery.
 例えば、レイヤ0からレイヤ1へのジャンプに要する時間をT1、レイヤ1にジャンプしてからビデオのデータを取得できるまでの時間をT2、ビデオのビットレートをRとすると、少なくともR*(T1+T2)だけのビデオデータがレイヤ0からジャンプする直前にバッファリングされる必要がある。ビットレートRは、ビデオが符号化されるプロファイルやレベルにより規定されるビットレートの最大値、あるいは、実際の符号化データにおける平均ビットレートなどであってもよい。ここでの平均レートとは、ジャンプする直前の時刻に相当するビデオのDTSをT_dec1とすると、DTSがT_dec1から(Tdec1+T1+t2)までの区間の平均レートを示す。 For example, if the time required to jump from layer 0 to layer 1 is T1, the time from when jumping to layer 1 until video data can be acquired is T2, and the video bit rate is R, at least R * (T1 + T2) Only video data needs to be buffered just before jumping from layer 0. The bit rate R may be a maximum value of a bit rate defined by a profile or level at which video is encoded, or an average bit rate in actual encoded data. Here, the average rate indicates an average rate in a section from D_T1 to (Tdec1 + T1 + t2), where T_dec1 is a video DTS corresponding to the time immediately before the jump.
 また、エクスポート用のデータが配置される領域においても、M2TSの再生時にはジャンプが発生する。従って、エクスポート用データの格納領域をジャンプする際にM2TSのデータがアンダーフローしないように、エクスポート用データの格納領域を決定する必要がある。このように、ジャンプ再生時にM2TSのデータがアンダーフローしないことを保証したうえで、できるだけ最外周に近い領域にエクスポート用のデータを配置する。 Also, even in the area where the data for export is arranged, a jump occurs when the M2TS is played back. Therefore, it is necessary to determine the export data storage area so that the M2TS data does not underflow when the export data storage area jumps. In this way, after ensuring that the M2TS data does not underflow during jump reproduction, the export data is arranged in an area as close to the outermost periphery as possible.
 なお、エクスポート用のMP4については、同一ファイルが同一レイヤ内に格納されることが望ましい。 For MP4 for export, it is desirable that the same file is stored in the same layer.
 (変形例4-3)
 図38は、エクスポート用のプレイリスト内にエレメンタリーストリームのサイズを示すプレイリスト例を示す図である。
(Modification 4-3)
FIG. 38 is a diagram showing an example of a playlist indicating the size of the elementary stream in the playlist for export.
 図38の(a)のプレイリスト例1では、M2TSやMP4に多重化されたエレメンタリーストリームのサイズが示される。エクスポート時には、これらのサイズに基づいてエクスポートされるMP4のデータサイズを概算できるため、エクスポート先の記録媒体においてエクスポートされるMP4を格納するために十分な空き領域があるかどうかを判定できる。あるいは、コピーマニフェストにおいて、エクスポートするMP4におけるヘッダ部のデータが含まれる場合には、MP4のヘッダ部のサイズを決定できるため、エレメンタリーストリームのサイズと合わせて、エクスポートされるMP4のデータサイズが決定できる。 38 (a), playlist example 1 shows the size of elementary streams multiplexed in M2TS or MP4. At the time of export, since the data size of the exported MP4 can be estimated based on these sizes, it is possible to determine whether or not there is sufficient free space for storing the exported MP4 in the export destination recording medium. Alternatively, when the copy manifest includes data of the header part in the MP4 to be exported, the size of the header part of the MP4 can be determined, so the data size of the exported MP4 is determined together with the size of the elementary stream. it can.
 図38の(b)のプレイリスト例2は、オーディオが基本部分と拡張部分(ロスレスとするための拡張など)から構成される場合に、基本部分と拡張部分のサイズの和、及び、基本部分のみのサイズを示すものであり、基本部分のみ、拡張部分のみ、あるいは、基本部分と拡張部分とを合わせてエクスポートする際の出力データのサイズを決定できる。オーディオだけでなく、ビデオがレイヤ構造により符号化される場合においても適用できる。 Play list example 2 in FIG. 38B shows the sum of the sizes of the basic part and the extended part and the basic part when the audio is composed of a basic part and an extended part (such as an extension for lossless). The size of the output data when exporting only the basic part, only the extended part, or the basic part and the extended part together can be determined. The present invention can be applied not only to audio but also to video encoded by a layer structure.
 (変形例4-4)
 図39は、プレイアイテム間のオーディオの接続部に発生するギャップの情報をプレイリスト内に示すプレイリスト例を示す図である。connection_conditionがseamless_w_gapであれば、プレイアイテムの接続においてビデオはシームレスに接続されるが、オーディオにはギャップが発生することを示す。また、ギャップが存在する場合には、gap_durationによりギャップの時間長を示すこともできる。
(Modification 4-4)
FIG. 39 is a diagram illustrating an example of a playlist in which information on gaps generated in an audio connection unit between play items is shown in the playlist. If connection_condition is seamless_w_gap, the video is seamlessly connected in the connection of the play item, but a gap is generated in the audio. If a gap exists, the gap length can be indicated by gap_duration.
 MP4においては、複数ファイルを連結する際には、オーディオのギャップを設ける必要があるが、これらの情報により、ギャップが存在するかどうかを判定し、ギャップが存在する場合にはギャップの時間長を取得して、MP4ファイルの連結部におけるギャップの時間長をMP4のヘッダ情報として設定することができる。 In MP4, when connecting multiple files, it is necessary to provide an audio gap. Based on these pieces of information, it is determined whether a gap exists. If a gap exists, the time length of the gap is determined. It is possible to obtain and set the time length of the gap in the connection part of the MP4 file as the MP4 header information.
 光ディスク内のコンテンツにおいては、プレイアイテム間ではオーディオのオーバーラップのみ許容するため、seamless_w_gapに相当するモードは、エクスポート専用となる。 In the content on the optical disc, only the overlap of audio is allowed between play items, so the mode corresponding to the seamless_w_gap is exclusively for export.
 (変形例4-5)
 図40Aは、エクスポート時にオーディオのギャップを生成する方法例について説明するための図である。M2TS内のストリームにおいては、シームレス接続部においてオーディオフレームの再生区間が不連続となる場合には、プレイアイテム間でオーディオの再生区間をオーバーラップさせる。互いにオーバーラップが発生する2つのオーディオストリームをMP4において連結する際には、接続部分におけるオーディオフレームを削除してギャップを生成する必要がある。
(Modification 4-5)
FIG. 40A is a diagram for describing an example of a method for generating an audio gap during export. In the stream in the M2TS, when the playback section of the audio frame becomes discontinuous in the seamless connection unit, the playback section of the audio is overlapped between play items. When two audio streams that overlap each other are connected in MP4, it is necessary to delete the audio frame at the connection portion to generate a gap.
 図40Aにおいて、オーディオ1とオーディオ2とを連結する際には、オーディオ1のフレーム98からフレーム100までの3枚のフレーム(フレーム群A)を削除して、オーディオ1のフレーム97とオーディオ2のフレーム0との間にギャップを生成する。ここで、エクスポート時には、ギャップを生成する際に削除する必要があるフレームを特定できることが望ましい。 In FIG. 40A, when audio 1 and audio 2 are connected, three frames (frame group A) from frame 98 to frame 100 of audio 1 are deleted, and frames 97 and 2 of audio 1 are deleted. Create a gap with frame 0. Here, at the time of export, it is desirable to be able to specify a frame that needs to be deleted when generating a gap.
 図40Bは、ギャップを生成する際に削除する必要があるフレームが示されたプレイリスト例を示す図である。図40Bのプレイリスト例では、プレイアイテム1とプレイアイテム2とを連結する場合においてプレイアイテム1から参照されるオーディオの最終フレームのPTSがlast_frame_ptsにより示される。例えば、図40Aにおけるオーディオ1のフレーム97のPTSが30.1sであるとすると、last_frame_ptsが30.1sと設定される。なお、削除が必要となるフレームのインデックス番号、格納先アドレスなど、PTS以外の情報により削除するフレームを特定してもよい。 FIG. 40B is a diagram illustrating an example of a playlist in which frames that need to be deleted when a gap is generated are illustrated. In the play list example of FIG. 40B, the last frame PTS of the audio referenced from the play item 1 when the play item 1 and the play item 2 are connected is indicated by last_frame_pts. For example, if the PTS of the audio 1 frame 97 in FIG. 40A is 30.1 s, the last_frame_pts is set to 30.1 s. Note that a frame to be deleted may be specified by information other than the PTS, such as an index number of a frame that needs to be deleted and a storage destination address.
 なお、オーディオ1と、オーディオ2との間にオーバーラップが存在する(残る)ようにオーディオフレームを削除してもよい。つまり、オーディオフレームを削除した後において、オーディオ1の最終フレームとオーディオ2の先頭フレームとの間にオーバーラップが存在してもよい。 Note that the audio frame may be deleted so that there is an overlap (remains) between audio 1 and audio 2. That is, after deleting an audio frame, there may be an overlap between the last frame of audio 1 and the first frame of audio 2.
 また、図39のプレイリスト例のように、ギャップの時間長などを合わせて示しても良い。 Also, as shown in the example of the playlist in FIG. 39, the time length of the gap may be shown together.
 以上の説明においては、エクスポート時に使用する補助情報をプレイリストに格納するものとしたが、プレイリストとは異なる再生管理のメタデータに格納してもよい。 In the above description, auxiliary information used at the time of export is stored in a playlist, but may be stored in reproduction management metadata different from the playlist.
 なお、図40A及び図40Bでは、オーディオ1のうちのフレーム98からフレーム100までの3枚のフレームを削除して、オーディオ1のフレーム97とオーディオ2のフレーム0との間にギャップを生成する例であるが、オーディオ2のフレームを削除してオーディオ1とオーディオ2との間にギャップを生成してもよい。例えば、図40Aのオーディオ2のうちのフレーム0からフレーム2までの3枚のフレーム(フレーム群B)を削除して、オーディオ1のフレーム100とオーディオ2のフレーム3との間にギャップを生成してもよい。この場合、図40Bで示すプレイリスト例において、プレイアイテム1のオーディオの最終フレームのPTSを示すlast_frame_ptsの代わりに、プレイアイテム2のオーディオの先頭フレームのPTSを示すfirst_frame_ptsを設け、オーディオ2のフレーム3のPTSが30.4sであるとすると、first_frame_ptsを30.4sに設定してもよい。 In FIGS. 40A and 40B, three frames from frame 98 to frame 100 of audio 1 are deleted, and a gap is generated between frame 97 of audio 1 and frame 0 of audio 2. However, a gap may be generated between audio 1 and audio 2 by deleting the frame of audio 2. For example, three frames (frame group B) from frame 0 to frame 2 in audio 2 in FIG. 40A are deleted, and a gap is generated between frame 100 of audio 1 and frame 3 of audio 2. May be. In this case, in the playlist example shown in FIG. 40B, instead of last_frame_pts indicating the PTS of the last frame of the audio of play item 1, first_frame_pts indicating the PTS of the first frame of the audio of play item 2 is provided, and frame 3 of audio 2 is provided. If the PTS is 30.4 s, first_frame_pts may be set to 30.4 s.
 (変形例4-6)
 図41は、HDR(High Dynamic Range)と呼ばれる、BT.709規格で使用される輝度範囲(SDR: Standard Dyanmic Range)よりも高輝度領域の輝度を含むビデオデータをMP4ファイルに格納する際の格納例を示す図である。
(Modification 4-6)
FIG. 41 shows a BT.B called HDR (High Dynamic Range). It is a figure which shows the example of a storage at the time of storing the video data containing the brightness | luminance of a high-intensity area | region rather than the brightness | luminance range (SDR: Standard Dynamic Range) used by 709 standard in an MP4 file.
 HDRコンテンツの再生には、HDRに対応したディスプレイが必要であり、SDRのディスプレイで再生する際にはHDRの輝度範囲をSDRの輝度範囲にマッピングするなどの処理が必要となる。本例では、エクスポート用のプレイリストにおいて最初に再生される0番目のプレイアイテムにおいて、HDRコンテンツが含まれ、HDR対応のディスプレイでない場合には正しく表示できない旨を示す警告メッセージを示すコンテンツを格納しておく。 In order to play back HDR content, a display that supports HDR is required, and when playing back on an SDR display, processing such as mapping the HDR luminance range to the SDR luminance range is required. In this example, the 0th play item that is reproduced first in the playlist for export contains HDR content, and stores content indicating a warning message indicating that it cannot be displayed correctly if the display is not HDR-compatible. Keep it.
 エクスポート時にMP4を生成する際には、0番目のプレイアイテムに対応する再生区間がMP4の先頭データとして格納されるため、MP4を再生する際には、この警告メッセージが最初に表示される。なお、警告メッセージは字幕のみで構成してもよい。あるいは、MP4ファイル内にHDRコンテンツが格納されるかどうかを、MP4のヘッダ情報においてシグナリングしてもよい。例えば、moovにおいて、ビデオトラックの少なくとも一部の再生区間がHDRを使用しているかどうかを示し、moofにおいて、Movie Fragmentを構成するビデオサンプルがHDRを使用しているかどうかを示すことが可能である。 When MP4 is generated at the time of export, the playback section corresponding to the 0th play item is stored as the top data of MP4. Therefore, when MP4 is played back, this warning message is displayed first. The warning message may be composed only of subtitles. Alternatively, whether the HDR content is stored in the MP4 file may be signaled in the MP4 header information. For example, in moov, it is possible to indicate whether at least a part of the playback section of the video track uses HDR, and in moof, it is possible to indicate whether the video samples constituting the Movie Fragment use HDR. .
 HDRコンテンツを再生する際には、ストリーム単位、あるいは、シーン単位などで切替えることができるピーク輝度や白レベルの輝度などの輝度情報を用いて、出力先ディスプレイの最高輝度に応じたガンマカーブの調整を行う。従って、輝度情報についても、MP4のヘッダ情報として格納してもよい。輝度情報がMP4ファイル内で固定の場合にはmoov内の情報として設定し、MP4ファイル内で可変となる場合にはmoof内の情報として設定してもよい。このとき、Movie Fragment内では輝度情報は同一であるものとする。 When playing back HDR content, adjust the gamma curve according to the maximum brightness of the output display using brightness information such as peak brightness and white level brightness that can be switched in units of streams or scenes. I do. Therefore, luminance information may also be stored as MP4 header information. If the luminance information is fixed in the MP4 file, it may be set as information in the moov, and if it is variable in the MP4 file, it may be set as information in the moof. At this time, it is assumed that the luminance information is the same in the Movie Fragment.
 なお、HDRの使用、不使用が切替わる、あるいは、輝度情報が切替わると視覚的に目立ち、ユーザーに不快感を与えるため、シームレスに連続再生される区間においては、HDRの使用、不使用、あるいは、輝度情報は固定としてもよい。例えば、M2TSを再生する際のプレイリストにおいては、プレイアイテム間でHDR関連の情報が固定であることを示す情報を格納してもよいし、MP4においても、ビデオトラック内でHDR関連の情報が固定であることを示す情報を格納してもよい。 In addition, in order to make the user visually noticeable and uncomfortable when the use or non-use of HDR is switched, or when luminance information is switched, use or non-use of HDR in a section that is seamlessly reproduced continuously, Alternatively, the luminance information may be fixed. For example, in a playlist when playing M2TS, information indicating that HDR-related information is fixed between play items may be stored, and in MP4, HDR-related information is also included in a video track. Information indicating that it is fixed may be stored.
 また、HDR関連の情報などは、MP4ファイルに直接格納せずに、MP4ファイルを管理するメタ―データとして格納してもよい。 Also, HDR-related information or the like may be stored as meta-data for managing the MP4 file without being directly stored in the MP4 file.
 (変形例4-7)
 図42は、光ディスクからSDカードやポータブルハードディスクなどにエクスポートしたDMPデータを、DLNA(Digital Living Network Alliance)規格などに基づいて、スマートフォンやタブレットなどのモバイル端末で視聴する際の動作を説明するための図である。
(Modification 4-7)
FIG. 42 is a diagram for explaining an operation when viewing DMP data exported from an optical disc to an SD card, a portable hard disk, or the like on a mobile terminal such as a smartphone or a tablet based on the DLNA (Digital Living Network Alliance) standard. FIG.
 例えば、DLNAを例にとると、DMPデータを格納する記録媒体などがDLNAサーバとなり、スマートフォンやタブレットなどがDLNAクライアントとなる。DLNAクライアントにおいてコンテンツを視聴する際には、DMPデータの全体をダウンロードしてから再生するのではなく、ダウンロードしながら再生できることが望ましい。 For example, taking DLNA as an example, a recording medium for storing DMP data is a DLNA server, and a smartphone or a tablet is a DLNA client. When viewing content on a DLNA client, it is desirable that the entire DMP data can be played back while being downloaded, rather than downloaded.
 しかしながら、DMPのデータは非圧縮ZIP形式で複数のMP4ファイルを格納しており、MP4ファイルのデータは互いにインタリーブされていないため、DMPデータをダウンロードしながら、オーディオ、ビデオ、あるいは字幕のデータを同期再生するのは困難である。従って、DLNAサーバにおいては、DMPからオーディオ、ビデオ、あるいは、字幕のMP4ファイルを分離し、それらのMP4ファイルに対してそれぞれ独立のセッションを確立した上で、DLNAクライアントに送出する。DLNAクライアントにおいては、独立した複数のセッションにより受信する複数のメディアのMP4ファイルから、エレメンタリーストリームを分離して、同期再生を行う。 However, since the DMP data stores multiple MP4 files in uncompressed ZIP format, and the MP4 file data is not interleaved with each other, the audio, video, or subtitle data is synchronized while downloading the DMP data. It is difficult to reproduce. Therefore, the DLNA server separates the MP4 files of audio, video, or subtitles from the DMP, establishes independent sessions for these MP4 files, and sends them to the DLNA client. In the DLNA client, an elementary stream is separated from MP4 files of a plurality of media received by a plurality of independent sessions, and synchronized playback is performed.
 (実施の形態5)
 DMP方式においては、メディア毎のエレメンタリーストリームがそれぞれ異なるMP4ファイルに格納されるため、オーディオ、ビデオ及び字幕などの言語の組合せが変わっても、それぞれの組合せに対応する言語のMP4ファイルを選択すればよい。よって、DMP方式には、複数メディアのエレメンタリーストリームを1つのMP4ファイルに格納する場合のように、MP4ヘッダの内容を変更しなくてもよいという利点がある。
(Embodiment 5)
In the DMP method, elementary streams for each medium are stored in different MP4 files, so even if the language combination such as audio, video and subtitles changes, the MP4 file in the language corresponding to each combination is selected. That's fine. Therefore, the DMP method has an advantage that it is not necessary to change the contents of the MP4 header as in the case of storing elementary streams of a plurality of media in one MP4 file.
 一方で、BDなどのパッケージメディアでは、劇場公開版とディレクターズカット版との選択、及び複数のアングルから選択したアングルを抜き出すなどの機能がある。これらの場合には、選択したアングルなどに応じて、再生されるエレメンタリーストリームが異なる。なお、再生区間に対応するエレメンタリーストリームは、プレイリスト内のプレイアイテムなどにより示される。 On the other hand, package media such as BD have functions such as selecting a theater release version and a director's cut version, and extracting a selected angle from a plurality of angles. In these cases, the elementary stream to be reproduced differs depending on the selected angle or the like. The elementary stream corresponding to the playback section is indicated by a play item in the playlist.
 ここで、従来のMP4においては、復号に必要な初期化情報はmoov内のサンプルエントリにまとめて格納される。よって、連続して再生される複数の再生区間のエレメンタリーストリームを1つのMP4ファイルに格納する場合には、選択したアングルなどに依存して異なるエレメンタリーストリームが格納される。これにより、選択したアングルなどに依存して復号に必要な初期化情報も異なることがある。 Here, in the conventional MP4, initialization information necessary for decoding is collectively stored in a sample entry in the moov. Therefore, when elementary streams of a plurality of playback sections that are continuously played are stored in one MP4 file, different elementary streams are stored depending on the selected angle or the like. Thereby, the initialization information required for decoding may differ depending on the selected angle or the like.
 例えば、MPEG-4 AVC及びHEVCでは、シーケンス・パラメータセット又はピクチャ・パラメータセットなどの初期化情報があり、これらはエレメンタリーストリームに依存して変更可能である。パラメータセットが異なるとサンプルエントリの内容も異なるため、結果として、再生経路毎に異なるmoovが生成される必要がある。そこで、サンプルエントリにはデフォルトのパラメータセット群を格納しておき、MP4のサンプルにパラメータセットのNALユニットが含まれる場合には、サンプル内のパラメータセットを用いて復号が行われてもよい。 For example, in MPEG-4 AVC and HEVC, there is initialization information such as a sequence parameter set or a picture parameter set, which can be changed depending on the elementary stream. Since the content of the sample entry is different when the parameter set is different, as a result, a different moov needs to be generated for each reproduction path. Therefore, a default parameter set group is stored in the sample entry, and when the NAL unit of the parameter set is included in the MP4 sample, decoding may be performed using the parameter set in the sample.
 想定されるケースとしては、大きく2通りが考えられる。1つ目は、デフォルトのパラメータセットと同一IDを持つパラメータセットが更新される場合である。このとき、サンプルの復号時点において有効なパラメータセットがエレメンタリーストリーム内に含まれる場合には、エレメンタリーストリーム内のパラメータセットを用いて復号が行われる。 There are two main possible cases. The first is a case where a parameter set having the same ID as the default parameter set is updated. At this time, when a parameter set effective at the time of decoding of the sample is included in the elementary stream, decoding is performed using the parameter set in the elementary stream.
 2つ目は、サンプルの復号時に参照されるIDに対応するパラメータセットがサンプルエントリに含まれない場合である。このときも、装置は、復号時に有効なパラメータセットをエレメンタリーストリームから取得して復号を行う。 The second case is a case where the sample entry does not include a parameter set corresponding to the ID that is referenced when the sample is decoded. Also at this time, the apparatus acquires a parameter set effective at the time of decoding from the elementary stream and performs decoding.
 なお、パラメータセットがデフォルトのパラメータセット群に含まれない場合にのみパラメータセットがエレメンタリーストリームに格納されてもよいし、復号時に参照するパラメータセットが全てエレメンタリーストリームに格納されてもよい。あるいは、パラメータセットはサンプル内にのみ格納され、サンプルエントリにはパラメータセットが含まれなくてもよい。また、これらのパラメータセットの格納方法がサンプルエントリのタイプ、又は他の識別情報により示されてもよい。これにより、復号時には、装置は、参照するパラメータセットが全てエレメンタリーストリームに格納されると判定した際には、サンプルエントリ内のパラメータセットを参照せずにサンプルデータのみに基づいて復号を行うことができる。 It should be noted that the parameter set may be stored in the elementary stream only when the parameter set is not included in the default parameter set group, or all the parameter sets that are referred to at the time of decoding may be stored in the elementary stream. Alternatively, the parameter set is stored only within the sample, and the sample entry may not include the parameter set. The storage method of these parameter sets may be indicated by the type of sample entry or other identification information. Thus, at the time of decoding, when it is determined that all the parameter sets to be referenced are stored in the elementary stream, the apparatus performs the decoding based only on the sample data without referring to the parameter sets in the sample entry. Can do.
 なお、オーディオにおいては、シームレス接続されるエレメンタリーストリームの間では、サンプリング周波数及びチャネル数などの初期化情報は同一であるのが一般的である。従って、デフォルトの初期化情報を含むmoovを作成可能である。テキストのデータについても同様である。 In audio, initialization information such as sampling frequency and the number of channels is generally the same between seamlessly connected elementary streams. Accordingly, a moov including default initialization information can be created. The same applies to text data.
 図43は、デフォルトの初期化情報を格納したmoovを用いて、選択したアングルのMP4ファイルを生成する例を示す。図43の(a)は、各再生区間を構成するM2TSファイルを示す。再生区間2においては、アングル1からアングル3の3つのアングルが存在する。 FIG. 43 shows an example of generating an MP4 file of a selected angle using a moov storing default initialization information. FIG. 43A shows an M2TS file that constitutes each playback section. In the playback section 2, there are three angles, angle 1 to angle 3.
 図43の(b)は、デフォルトの初期化情報を格納したサンプルエントリを含むmoov Box、及び、各再生区間を構成するM2TSから分離したエレメンタリ―ストリームに基づいてMP4ファイルを生成した際の、ムービーフラグメント毎のmoof Boxの集合を示す。例えば、再生区間におけるアングル1は、N2個のムービーフラグメントから構成される。図43の(b)には、それぞれのムービーフラグメントにおけるmoof Boxが図示される。 FIG. 43 (b) shows a movie when an MP4 file is generated based on a moov box containing a sample entry storing default initialization information and an elementary stream separated from the M2TS constituting each playback section. A set of moof boxes for each fragment is shown. For example, angle 1 in the playback section is composed of N2 movie fragments. FIG. 43B shows a moof box in each movie fragment.
 なお、MP4は、シングルトラックのMP4であってもよいし、複数メディアのデータを多重化したマルチトラックのMP4であってもよい。例えば、MPEG-4 AVC、あるいは、HEVCのシングルトラックのMP4の場合には、moov #0にはデフォルトのパラメータセットを含むサンプルエントリが格納される。 The MP4 may be a single-track MP4 or a multi-track MP4 in which data of a plurality of media is multiplexed. For example, in the case of MPEG-4 AVC or HEVC single-track MP4, a sample entry including a default parameter set is stored in moov # 0.
 図43の(c)は、図43の(a)に示すM2TSと、図43の(b)に示すMP4のヘッダ情報とに基づいて、アングル1を含むMP4ファイルを生成する例を示す。デフォルトの初期化情報を含むmoov#0に続いて、再生区間毎のムービーフラグメントが格納される。各ムービーフラグメントにおいて、mdatに格納されるサンプルは、moof内に示されるサンプル及びNALユニットのサイズなどの情報に基づいてM2TSファイルから分離される。なお、図示しないが、ftypなどMP4ファイルのブランドを示す情報、あるいは、mfraによるランダムアクセス情報などがMP4ファイルに含まれてもよい。 43 (c) shows an example of generating an MP4 file including angle 1 based on the M2TS shown in FIG. 43 (a) and the MP4 header information shown in FIG. 43 (b). Subsequent to moov # 0 including default initialization information, movie fragments for each playback section are stored. In each movie fragment, the sample stored in mdat is separated from the M2TS file based on information such as the sample indicated in the moof and the size of the NAL unit. Although not shown, information indicating the brand of the MP4 file such as ftyp or random access information by mfra may be included in the MP4 file.
 また、図29Aにおいて説明した劇場公開版とディレクターズカット版とのように、分岐部分の再生区間の時間長が異なる場合においても同様に対応することができる。 Also, it is possible to cope with the case where the playback section time length of the branch portion is different as in the theater release version and the director's cut version described in FIG. 29A.
 なお、エクスポート用のMP4を生成する際に参照されるMP4のヘッダ情報は、エクスポート用のプレイリスト、あるいは、エクスポート用のメタ情報などにより示される。 Note that the MP4 header information referred to when generating the export MP4 is indicated by an export playlist, export meta information, or the like.
 (変形例5-1)
 コピーマニフェストにおいては、COPY MANIFESTフィールドを参照することで、M2TSファイルから取得すべきエレメンタリーストリームのバイトオフセット及びサイズを取得できるが、差分ファイルにおけるMP4のヘッダ情報に基づいてM2TSファイルからエレメンタリーストリームのデータが取得され、取得されたデータがMP4ファイルのサンプルデータとして格納されてもよい。
(Modification 5-1)
In the copy manifest, the byte offset and size of the elementary stream to be acquired from the M2TS file can be acquired by referring to the COPY MANIFEST field. However, based on the header information of the MP4 in the difference file, the elementary stream from the M2TS file can be acquired. Data may be acquired, and the acquired data may be stored as sample data of the MP4 file.
 手順としては、まず、M2TSファイルからPESパケットが分離され、PESペイロードに格納されるアクセスユニットが分離される。次に、アクセスユニットが分離され、アクセスユニットのデータ形式がバイトストリーム形式からNALサイズ形式に変換され、変換後のデータがMP4のサンプルデータとして格納される。 As a procedure, first, the PES packet is separated from the M2TS file, and the access unit stored in the PES payload is separated. Next, the access unit is separated, the data format of the access unit is converted from the byte stream format to the NAL size format, and the converted data is stored as MP4 sample data.
 しかしながら、MovieFragmentを構成するアクセスユニット(サンプル)を決定するための情報は存在するが、NALユニット単位のサイズ情報が存在しない。なお、装置は、NALユニット毎のスタートコードをサーチすることでNALユニットのサイズを取得できるが、スタートコードのサーチにあたっては、アクセスユニットデータを順に探索する必要があるため、特にソフトウェアにおいては処理負荷が大きい。 However, there is information for determining the access units (samples) constituting the MovieFragment, but there is no size information for each NAL unit. The device can acquire the size of the NAL unit by searching for the start code for each NAL unit. However, when searching for the start code, it is necessary to search the access unit data in order. Is big.
 一方、MP4では、サンプルが分割された単位であるサブサンプル毎のサイズをストリームに格納することも可能である。NALユニットをサブサンプルとして扱い、NALユニット毎のサイズを示すことにより、装置は、これらのサイズを参照してバイトストリーム形式からNALサイズ形式への変換を行える。しかしながら、NALユニットに分離に際してスタートコードのサーチが必要であることは解消されない。 On the other hand, in MP4, it is also possible to store the size of each subsample, which is a unit into which the sample is divided, in the stream. By treating the NAL unit as a subsample and indicating the size of each NAL unit, the apparatus can convert the byte stream format to the NAL size format with reference to these sizes. However, it is not solved that the NAL unit needs to search for a start code for separation.
 従って、本実施の形態では、サンプル先頭から各NALユニットの開始位置までのオフセット情報と、NALユニットのサイズとを格納するBoxを新規に定義して、moov及びmoofなどのMP4のヘッダ情報として差分ファイルに格納する。これは、図16B及び図16Cにおいて説明したNal_size_info()と同様の情報をMP4のBoxとして格納することを意味する。なお、本Boxは、生成したMP4ファイルの再生時には不要であるため、再生時にはBoxのタイプを参照することにより読み飛ばされる。 Therefore, in the present embodiment, a new box for storing offset information from the head of the sample to the start position of each NAL unit and the size of the NAL unit is newly defined, and the difference is obtained as MP4 header information such as moov and moof. Store in a file. This means that information similar to Nal_size_info () described in FIGS. 16B and 16C is stored as an MP4 Box. Note that this Box is unnecessary when the generated MP4 file is played back, and is therefore skipped by referring to the Box type during playback.
 あるいは、装置は、バイトストリーム形式のデータをNALサイズ形式に変換せずに、バイトストリーム形式のままのデータをMP4ファイルに格納してもよい。この場合、従来のMP4ファイルを再生する再生装置では当該データを再生できないため、少なくとも、MP4ファイルのブランド又はサンプルエントリのタイプなどの識別情報により、サンプルデータがバイトストリーム形式であることが示される。こうすることで、MP4への変換に係る処理量を低減できると共に、MP4により多重化されたエレメンタリーストリームを再度TSに多重化する際の処理も容易となる。特に、NALサイズ形式に変換する際には、TSに多重化されたエレメンタリーストリームに含まれるleading_zero_byte及びtrailing_zero_byteが削除されてしまう。これにより、MP4に格納されるサンプルデータをバイトストリーム形式に変換した場合に、HEVCのバッファモデルを満たさない可能性がある。これに対して、バイトストリーム形式でデータを格納すれば、このような課題は発生しない。 Alternatively, the device may store the data in the byte stream format in the MP4 file without converting the data in the byte stream format into the NAL size format. In this case, since the data cannot be reproduced by a conventional reproducing apparatus that reproduces an MP4 file, at least identification information such as the brand of the MP4 file or the type of the sample entry indicates that the sample data is in a byte stream format. By doing so, the processing amount related to the conversion to MP4 can be reduced, and the processing when the elementary stream multiplexed by MP4 is multiplexed again in the TS becomes easy. In particular, when converting to the NAL size format, leading_zero_byte and trailing_zero_byte included in the elementary stream multiplexed in the TS are deleted. Thereby, when the sample data stored in MP4 is converted into the byte stream format, there is a possibility that the buffer model of HEVC is not satisfied. On the other hand, if data is stored in the byte stream format, such a problem does not occur.
 なお、NALサイズ形式におけるNALサイズのフィールド長、及び、サンプル内にパラメータセットを格納してもよいかどうかは、moov内のサンプルエントリを参照することで取得できるが、これらをコピーマニフェストにおいて示してもよい。また、MP4ファイルは、オーディオのみ、ビデオのみなど、単一メディアのエレメンタリーストリームを格納するシングルトラックのMP4であってもよい。 Note that the field length of the NAL size in the NAL size format and whether the parameter set may be stored in the sample can be obtained by referring to the sample entry in the moov, but these are shown in the copy manifest. Also good. In addition, the MP4 file may be a single track MP4 storing an elementary stream of a single medium such as audio only or video only.
 また、プレイアイテムにより示される再生区間を接続する際に、オーディオなどのオーバーラップ又はギャップが発生する際には、前述したように、オーバーラップ又はギャップがMP4のヘッダ情報とは別途示されてもよい。但し、これらの情報が別途示されない場合においても、装置は、MP4のヘッダ情報、あるいは、コピーマニフェストにおけるCOPY MANIFESTフィールドを参照することにより、ムービーフラグメントを構成するサンプルを決定できる。従って、サンプルを削除する必要がある場合においても、装置は、MP4のヘッダ情報又はコピーマニフェストのCOPY MANIFESTフィールドを参照すれば、削除すべきサンプルをMP4に格納しないように動作できる。 Further, when an overlap or gap occurs in audio or the like when connecting playback sections indicated by play items, as described above, the overlap or gap may be indicated separately from the MP4 header information. Good. However, even when these pieces of information are not separately shown, the apparatus can determine the samples constituting the movie fragment by referring to the MP4 header information or the COPY MANIFEST field in the copy manifest. Accordingly, even when it is necessary to delete a sample, the apparatus can operate so as not to store the sample to be deleted in the MP4 by referring to the COPY MANIFEST field of the MP4 header information or the copy manifest.
 以下、マッピング情報(Mapping info.)のAVC/HEVCのエクスポートについて説明する。 Hereinafter, the AVC / HEVC export of mapping information (Mapping info.) Will be described.
 Mapping info.は、AVC/HEVCの変換処理を行い、エクスポートするために用いられる。図44Aに示すように、この変換処理において、スタートコード(Start-code)をデータ長(length)に変換する必要がある。スタートコードがストリームを解析することでサーチされ、各NALユニットのデータ長が得られる。 Mapping info. Is used for AVC / HEVC conversion processing and export. As shown in FIG. 44A, in this conversion process, it is necessary to convert the start code (Start-code) into the data length (length). The start code is searched by analyzing the stream, and the data length of each NAL unit is obtained.
 ここで、スタートコードをサーチする処理は、高ビットレートのストリームにおいて処理負荷が大きい。これに対して、Mapping info.を導入することで、スタートコードのサーチが不要となる。 Here, the processing for searching for the start code has a large processing load in a high bit rate stream. On the other hand, Mapping info. By introducing, the start code search becomes unnecessary.
 図44Bは、Mapping info.ファイルの構成例を示す図である。このMapping info.ファイルは、例えば、AVストリームファイルのクリップ毎に設けられる。Mapping info.ファイルは、クリップAVストリーム内のAU(Access Unit)毎の複数のNALユニットのオフセット(offset)及びデータ長(len)を含む。図44Cに示すように、オフセットは、NALユニットのスタートコードの先頭から当該NALユニットの先頭までのデータ長を示す。なお、オフセットとして、M2TSファイルの先頭からNALユニットの先頭までのデータ長が用いられてもよい。 FIG. 44B shows Mapping info. It is a figure which shows the structural example of a file. This Mapping info. A file is provided for each clip of an AV stream file, for example. Mapping info. The file includes an offset (offset) and a data length (len) of a plurality of NAL units for each AU (Access Unit) in the clip AV stream. As shown in FIG. 44C, the offset indicates the data length from the start of the start code of the NAL unit to the start of the NAL unit. Note that the data length from the beginning of the M2TS file to the beginning of the NAL unit may be used as the offset.
 装置は、Mapping info.を参照することで、スタートコードをサーチすることなく、各NALユニットの先頭に見つけることができる。よって、エクスポート処理を高速化できる。 The device is Mapping info. Can be found at the head of each NAL unit without searching for the start code. Therefore, the export process can be speeded up.
 (変形例5-2)
 HDRコンテンツにおけるマスタリング時の特性を示すパラメータとしては、タイトル毎、あるいは、プレイリスト毎に固定となる静的HDRメタデータと、シーン毎に可変となる動的HDRメタデータが存在する。ここで、タイトル及びプレイリストは、連続して再生される映像信号を示す情報である。以降、連続して再生される映像信号を連続再生単位と呼ぶ。
(Modification 5-2)
As parameters indicating characteristics at the time of mastering in HDR content, there are static HDR metadata that is fixed for each title or each playlist, and dynamic HDR metadata that is variable for each scene. Here, the title and the playlist are information indicating video signals that are continuously reproduced. Hereinafter, video signals that are continuously played back are referred to as continuous playback units.
 例えば、静的HDRメタデータは、EOTF関数(カーブ)の種類、18%Gray値、Diffuse White値、Knee point、及びClip pointの少なくとも一つを含む。EOTFは、複数の輝度値と複数のコード値とを関係付けた情報であり、映像信号の輝度範囲を変更するための情報である。その他の情報は、映像信号の輝度に関する属性情報であることから、静的HDRメタデータは、映像信号の輝度範囲に関する情報であり、映像信号の輝度範囲を特定するための情報と言える。 For example, static HDR metadata includes at least one of EOTF function (curve) type, 18% Gray value, Diffuse White value, Knee point, and Clip point. The EOTF is information that associates a plurality of luminance values with a plurality of code values, and is information for changing the luminance range of the video signal. Since the other information is attribute information regarding the luminance of the video signal, the static HDR metadata is information regarding the luminance range of the video signal and can be said to be information for specifying the luminance range of the video signal.
 具体的には、18%Gray値及びDiffuse White値は、予め定められた基準となる明るさの映像における輝度値(nit)を示し、言い換えると、映像における基準の明るさを示す。より具体的には、18%Gray値は、マスタリング前において18nitの明るさの物体のマスタリング後の輝度値(nit)を示す。Diffuse White値は、白色に相当する輝度値(nit)を示す。 Specifically, the 18% Gray value and the Diffuse White value indicate the luminance value (nit) in a video with a predetermined reference brightness, in other words, the reference brightness in the video. More specifically, the 18% Gray value indicates a luminance value (nit) after mastering of an object having a brightness of 18 nits before mastering. The Diffuse White value indicates a luminance value (nit) corresponding to white.
 また、Knee point及びClip pointは、EOTF関数におけるコード値に対応する輝度値と、表示装置において表示する輝度値との特性が変化する点を示す。具体的には、Knee point及びClip pointは、EOTFにより示される映像信号の輝度に対する、実際に表示する輝度値の増分を、1対1とは異なる値とする変化点を示す。例えば、Knee pointは、EOTF関数において線形変化からはずれる点を特定するための情報である。また、Clip pointは、表示の際に輝度値のクリップが開始される点を示す。ここでクリップとは、ある値以上の入力輝度値を同一の出力輝度値に変換することである。また、EOTF関数(カーブ)の種類とは、例えば、HDRのEOTF及びSDRのEOTFである。 Also, Knee point and Clip point indicate points where the characteristics of the luminance value corresponding to the code value in the EOTF function and the luminance value displayed on the display device change. Specifically, Knee point and Clip point indicate change points at which the increment of the actually displayed luminance value is different from the one-to-one value with respect to the luminance of the video signal indicated by EOTF. For example, Knee point is information for specifying a point that deviates from a linear change in the EOTF function. Clip point indicates a point where the clipping of the luminance value is started at the time of display. Here, the term “clip” refers to converting an input luminance value greater than a certain value into the same output luminance value. The types of EOTF functions (curves) are, for example, HDR EOTF and SDR EOTF.
 動的HDRメタデータは、シーン毎に異なるマスタリング特性を示すパラメータ、あるいは、ビット深度が10bitである基本レイヤのHDRストリームを12bitに拡張するための拡張レイヤのデータなどである。基本レイヤの復号結果に対して拡張レイヤの復号結果を適用することで、例えば、基本レイヤのみではピーク輝度が1000nitである信号のピーク輝度を拡張して、4000nitまで表現可能とすることができる。マスタリング特性を示すパラメータはSEIなどビデオストリーム内に格納することが想定されるが、拡張レイヤのデータは、基本レイヤとは別ストリームとして格納することが想定される。これらのデータをTSに多重化する際には、例えば、基本レイヤと拡張レイヤは互いに異なるPIDのTSパケットとして格納される。 Dynamic HDR metadata is a parameter indicating a mastering characteristic that is different for each scene, or data of an extension layer for extending an HDR stream of a base layer having a bit depth of 10 bits to 12 bits. By applying the decoding result of the enhancement layer to the decoding result of the base layer, for example, the peak luminance of a signal having a peak luminance of 1000 nits can be expanded only by the base layer and can be expressed up to 4000 nits. Although the parameter indicating the mastering characteristic is assumed to be stored in a video stream such as SEI, the enhancement layer data is assumed to be stored as a stream separate from the base layer. When these data are multiplexed on the TS, for example, the base layer and the enhancement layer are stored as TS packets having different PIDs.
 また、マスタリング特性とは、オリジナル(マスタリング前)の輝度と、マスタリング後の輝度との関係を示す。例えば、マスタリング特性を示すパラメータとは、上記した静的HDRメタデータと同様の情報であり、言い換えると、静的HDRメタデータに含まれる情報の少なくとも一つである。 Also, the mastering characteristic indicates the relationship between the original (before mastering) luminance and the luminance after mastering. For example, the parameter indicating the mastering characteristic is the same information as the static HDR metadata described above, in other words, is at least one piece of information included in the static HDR metadata.
 図45は、静的HDRメタデータの格納例について示す。本例は、Blu-rayディスクなどのパッケージメディアにおいて、静的HDRメタデータをプレイリストに格納する例である。プレイリストから参照されるストリーム毎のメタデータの1つとして、静的HDRメタデータが格納される。この場合、静的HDRメタデータはプレイリスト単位で固定である。OTTでは、ストリームの取得に先立って参照するマニフェストファイルに静的HDRメタデータが格納されてもよい。また、放送では、ストリームの属性を示す記述子に静的HDRメタデータが格納されてもよい。なお、タイトル毎に静的HDRメタデータが固定である場合には、静的HDRメタデータは、タイトルの属性を示す管理情報として格納されてもよい。 FIG. 45 shows a storage example of static HDR metadata. In this example, static HDR metadata is stored in a playlist in a package medium such as a Blu-ray disc. Static HDR metadata is stored as one piece of metadata for each stream referenced from the playlist. In this case, static HDR metadata is fixed for each playlist. In OTT, static HDR metadata may be stored in a manifest file that is referred to prior to stream acquisition. In broadcasting, static HDR metadata may be stored in a descriptor indicating a stream attribute. When static HDR metadata is fixed for each title, the static HDR metadata may be stored as management information indicating title attributes.
 ここで、上述したように、HDRの使用、不使用が切り替わる、あるいは、輝度情報が切り替わると視覚的に目立ち、ユーザーに不快感を与えるため、シームレスに連続再生される区間においては、HDRの使用、不使用、あるいは、輝度情報は固定される。つまり、図45に示すプレイリストにおいて、プレイアイテム間(クリップ間)で、HDRとSDRとの切り替えは禁止される。 Here, as described above, when HDR is used or not used, or when luminance information is switched, it is visually noticeable and unpleasant to the user. Not used or brightness information is fixed. That is, in the playlist shown in FIG. 45, switching between HDR and SDR is prohibited between play items (between clips).
 つまり、本実施の形態に係る映像ストリーム生成方法は、第1輝度範囲の映像データ及び第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを生成する生成ステップを含む。生成ステップでは、複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て第1輝度範囲の映像データになるように、又は、全て第2輝度範囲の映像データになるように映像ストリームを生成する。言い換えると、複数の第2映像データが、第1輝度範囲の映像データと第2輝度範囲の映像データとを含むことが禁止される。 That is, the video stream generation method according to the present embodiment generates a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range. Includes a generation step. In the generating step, among the plurality of first video data, the plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all of the second luminance data are in the second luminance range. A video stream is generated so as to become video data. In other words, the plurality of second video data is prohibited from including video data in the first luminance range and video data in the second luminance range.
 例えば、第1輝度範囲は、SDRであり、ピーク輝度(最大輝度値)が100nitの輝度範囲である。第2輝度範囲は、HDRであり、ピーク輝度(最大輝度値)が100nitを超える輝度範囲である。第2輝度範囲は、第1輝度範囲を全て含み、第2輝度範囲のピーク輝度は、第1輝度範囲のピーク輝度よりも大きい。 For example, the first luminance range is an SDR, and the luminance range where the peak luminance (maximum luminance value) is 100 nits. The second luminance range is HDR, and is a luminance range in which the peak luminance (maximum luminance value) exceeds 100 nits. The second luminance range includes the entire first luminance range, and the peak luminance of the second luminance range is larger than the peak luminance of the first luminance range.
 また、例えば、複数の第2映像データは、一つのプレイリストにより指定される複数の映像データ(複数のプレイアイテムで指定される複数のクリップ)である。なお、プレイアイテムはクリップの全体を再生区間として指定する必要はなく、クリップの一部のみを指定してもよい。 Also, for example, the plurality of second video data is a plurality of video data (a plurality of clips specified by a plurality of play items) specified by one playlist. The play item does not need to specify the entire clip as a playback section, and only a part of the clip may be specified.
 また、複数の第2映像データが連続してシームレスに再生されるか否かは、例えば、映像ストリームに含まれる情報により示されてもよい。例えば、映像ストリームに各映像データ間(例えばクリップ間)がシームレスに再生されるか否かを示す情報が含まれてもよい。例えば、この情報とは、図39に示すconnection_conditionである。connection_conditionがseamless_w_gapであれば、プレイアイテムの接続においてビデオはシームレスに接続される。 Further, whether or not the plurality of second video data is continuously and seamlessly reproduced may be indicated by, for example, information included in the video stream. For example, information indicating whether each video data (for example, between clips) is seamlessly reproduced may be included in the video stream. For example, this information is connection_condition shown in FIG. If connection_condition is seamless_w_gap, the video is seamlessly connected in the connection of the play item.
 また、映像ストリームの格納フォーマットは、上述したMP4であってもよいし、MPEG2-TSであってもよい。さらに、格納フォーマットはこれら以外の形式のストリームであってもよい。 Also, the storage format of the video stream may be MP4 described above or MPEG2-TS. Furthermore, the storage format may be a stream of a format other than these.
 また、本実施の形態に係る映像ストリーム生成装置は、上記映像ストリーム生成方法を実行する。 Also, the video stream generation device according to the present embodiment executes the video stream generation method.
 また、本実施の形態に係る再生装置及び再生方法は、上記映像ストリーム生成方法又は映像ストリーム生成装置により生成された映像ストリームを再生する。つまり、再生装置は、第1輝度範囲の映像データ及び第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを再生する再生部を備える。映像ストリームは、複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て第1輝度範囲の映像データになるように、又は、全て第2輝度範囲の映像データになるように生成されている。 Also, the playback device and playback method according to the present embodiment play back the video stream generated by the video stream generation method or the video stream generation device. That is, the playback device includes a playback unit that plays back a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range. In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced become all video data in the first luminance range, or all in the second luminance range. It is generated to be video data.
 また、本実施の形態に係る再生装置及び再生方法は、上記映像ストリーム生成方法又は映像ストリーム生成装置により生成された映像ストリームが記録されている。つまり、記録媒体は、第1輝度範囲の映像データ及び第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームが記録されている。映像ストリームは、複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て第1輝度範囲の映像データになるように、又は、全て第2輝度範囲の映像データになるように生成されている。 Also, in the playback apparatus and playback method according to the present embodiment, the video stream generated by the video stream generation method or the video stream generation apparatus is recorded. That is, the recording medium records a video stream including a plurality of first video data including video data in the first luminance range and video data in the second luminance range wider than the first luminance range. In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced become all video data in the first luminance range, or all in the second luminance range. It is generated to be video data.
 また、動的HDRメタデータが基本レイヤのHDRストリームの拡張レイヤである場合、図46に示すように、基本レイヤと拡張レイヤとは、それぞれ独立したシングルトラックMP4ファイルとしてエクスポートされる。そのうえで、DMPのメタデータなど、シングルトラックMP4の属性情報を示す管理情報は、基本レイヤのMP4と拡張レイヤのMP4の識別情報を含む。より一般的には、この管理情報は、異なるシングルトラックMP4を復号する際にこれらのMP4に依存関係があることを示し、依存関係のタイプが、HDR信号の拡張であることを示す。 Also, when the dynamic HDR metadata is an extension layer of the HDR stream of the base layer, as shown in FIG. 46, the base layer and the extension layer are exported as independent single track MP4 files. In addition, the management information indicating the attribute information of the single track MP4, such as DMP metadata, includes identification information of the MP4 of the base layer and the MP4 of the enhancement layer. More generally, this management information indicates that these MP4s have dependencies when decoding different single track MP4s, and that the type of dependency is an extension of the HDR signal.
 また、動的HDRメタデータがSEIなどによりビデオストリーム内に格納される場合には、当該ビデオストリームのトラックを格納するシングルトラックMP4の属性情報に、トラック内に動的HDRメタデータが格納されることを示す情報、及び、格納される動的HDRメタデータの種別を特定するための識別情報が含まれてもよい。 Further, when dynamic HDR metadata is stored in a video stream by SEI or the like, dynamic HDR metadata is stored in the track in the attribute information of the single track MP4 that stores the track of the video stream. Information indicating this, and identification information for specifying the type of dynamic HDR metadata to be stored may be included.
 なお、上記実施の形態および各変形例において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In the above-described embodiment and each modification, each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
 以上、一つまたは複数の態様に係る映像ストリーム生成方法および再生装置について、各実施の形態および各変形例に基づいて説明したが、本開示は、これらの実施の形態および各変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を各実施の形態および各変形例に施したものや、各実施の形態および各変形例における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 As described above, the video stream generation method and the playback device according to one or more aspects have been described based on each embodiment and each modification. However, the present disclosure is limited to these embodiments and each modification. It is not something. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art are applied to each embodiment and each modification, and a form constructed by combining the components in each embodiment and each modification is also possible. It may be included within the scope of one or more embodiments.
 例えば、実施の形態1およびその変形例では、MPEG2-TSによって構成されたファイルを元ファイルとして用いた。しかし、元ファイルは、MP4と異なるファイルフォーマットによって構成されているファイルであれば、MPEG2-TSのファイル以外のどのようなファイルまたはトランスポートストリームであってもよい。 For example, in the first embodiment and its modification, a file constituted by MPEG2-TS is used as the original file. However, the original file may be any file or transport stream other than the MPEG2-TS file as long as the file is configured in a file format different from MP4.
 また、実施の形態2では、図22Aに示すように、再生区間1と再生区間2とを統合したが、これらの再生区間のそれぞれはMP4ファイルのムービーフラグメントであっても、それ以外の他のストリームであってもよい。 Further, in the second embodiment, as shown in FIG. 22A, the playback section 1 and the playback section 2 are integrated, but each of these playback sections may be a movie fragment of an MP4 file, It may be a stream.
 また、以下のような場合も本開示に含まれてもよい。 The following cases may also be included in the present disclosure.
 (1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 (1) Each of the above devices is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like. A computer program is stored in the RAM or hard disk unit. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
 (2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。 (2) A part or all of the components constituting each of the above devices may be configured by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
 (3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。 (3) A part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
 (4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。 (4) The present disclosure may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
 また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。 The present disclosure also provides a computer-readable recording medium such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like. The digital signal may be recorded on these recording media.
 また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。 In the present disclosure, the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
 また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。 Further, the present disclosure may be a computer system including a microprocessor and a memory, and the memory may store the computer program, and the microprocessor may operate according to the computer program.
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。 In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。 (5) The above embodiment and the above modifications may be combined.
 以上、本開示の一つまたは複数の態様に係るデータ送信方法およびデータ再生方法などについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。 As described above, the data transmission method and the data reproduction method according to one or more aspects of the present disclosure have been described based on the embodiments, but the present disclosure is not limited to the embodiments. Unless it deviates from the gist of the present disclosure, one or more of the present disclosure may be applied to various modifications conceived by those skilled in the art in the present embodiment, or forms configured by combining components in different embodiments. It may be included within the scope of the embodiments.
 本開示は、映像ストリーム生成方法、及び、映像ストリームを再生する再生装置に適用できる。 The present disclosure can be applied to a video stream generation method and a playback device that plays back a video stream.
 10,20,40,100,200  ファイル生成装置
 11  元ファイル取得部
 12  差分ファイル取得部
 13  手順ファイル取得部
 14,104  生成部
 21  統合部
 22  格納部
 30  再生装置
 31  抽出部
 32  合成部
 41  取得部
 42  選択部
 43  生成部
 101  補助情報サーチ部
 103  補助情報解析部
 104a  サンプル生成部
 104b  サンプルエントリ生成部
 201  プレイリスト解析部
 202  エクスポート対象選択部
 203  M2TS分離部
 204  エクスポートファイル取得部
 205  再多重化部
 206  コピーマニフェスト解析部
10, 20, 40, 100, 200 File generation device 11 Original file acquisition unit 12 Difference file acquisition unit 13 Procedure file acquisition unit 14, 104 Generation unit 21 Integration unit 22 Storage unit 30 Playback device 31 Extraction unit 32 Composition unit 41 Acquisition unit 42 selection unit 43 generation unit 101 auxiliary information search unit 103 auxiliary information analysis unit 104a sample generation unit 104b sample entry generation unit 201 playlist analysis unit 202 export target selection unit 203 M2TS separation unit 204 export file acquisition unit 205 remultiplexing unit 206 Copy manifest analysis section

Claims (5)

  1.  第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを生成する生成ステップを含み、
     前記生成ステップでは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように前記映像ストリームを生成する
     映像ストリーム生成方法。
    Generating a video stream including a plurality of first video data including video data of a first luminance range and video data of a second luminance range wider than the first luminance range;
    In the generating step, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all of the first video data are the first video data. A video stream generation method for generating the video stream so as to be video data in a two luminance range.
  2.  前記複数の第2映像データは、一つのプレイリストにより指定される複数の映像データである
     請求項1記載の映像ストリーム生成方法。
    The video stream generation method according to claim 1, wherein the plurality of second video data is a plurality of video data specified by one playlist.
  3.  第2輝度範囲の最大輝度値は100nitを超える
     請求項1又は2記載の映像ストリーム生成方法。
    The video stream generation method according to claim 1 or 2, wherein the maximum luminance value of the second luminance range exceeds 100 nits.
  4.  第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームを再生する再生部を備え、
     前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている
     再生装置。
    A playback unit for playing back a video stream including a plurality of first video data including video data in a first luminance range and video data in a second luminance range wider than the first luminance range;
    In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all the first video data are the first video data. A playback device that has been generated to produce video data in two luminance ranges.
  5.  第1輝度範囲の映像データ及び前記第1輝度範囲より広い第2輝度範囲の映像データを含む複数の第1映像データを含む映像ストリームが記録されており、
     前記映像ストリームは、前記複数の第1映像データのうち、連続してシームレスに再生される複数の第2映像データが、全て前記第1輝度範囲の映像データになるように、又は、全て前記第2輝度範囲の映像データになるように生成されている
     記録媒体。
    A video stream including a plurality of first video data including video data of a first luminance range and video data of a second luminance range wider than the first luminance range is recorded,
    In the video stream, among the plurality of first video data, a plurality of second video data that are continuously and seamlessly reproduced are all video data in the first luminance range, or all the first video data are the first video data. A recording medium that has been generated so as to be video data in two luminance ranges.
PCT/JP2015/003893 2014-08-19 2015-08-03 Video stream generation method, playback apparatus, and recording medium WO2016027426A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462039131P 2014-08-19 2014-08-19
US62/039,131 2014-08-19
JP2015-148578 2015-07-28
JP2015148578A JP2017183762A (en) 2014-08-19 2015-07-28 Video stream generation method, reproduction device, and recording medium

Publications (1)

Publication Number Publication Date
WO2016027426A1 true WO2016027426A1 (en) 2016-02-25

Family

ID=55350395

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003893 WO2016027426A1 (en) 2014-08-19 2015-08-03 Video stream generation method, playback apparatus, and recording medium

Country Status (1)

Country Link
WO (1) WO2016027426A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095918A (en) * 2017-09-21 2020-05-01 索尼公司 Reproduction device, reproduction method, program, and recording medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213283A (en) * 2008-09-17 2010-09-24 Panasonic Corp Recording medium, playback device, and integrated circuit
WO2012172460A1 (en) * 2011-06-14 2012-12-20 Koninklijke Philips Electronics N.V. Graphics processing for high dynamic range video
WO2013046095A1 (en) * 2011-09-27 2013-04-04 Koninklijke Philips Electronics N.V. Apparatus and method for dynamic range transforming of images
JP2015133696A (en) * 2014-01-10 2015-07-23 パナソニックIpマネジメント株式会社 File generating method, file generating device, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213283A (en) * 2008-09-17 2010-09-24 Panasonic Corp Recording medium, playback device, and integrated circuit
WO2012172460A1 (en) * 2011-06-14 2012-12-20 Koninklijke Philips Electronics N.V. Graphics processing for high dynamic range video
WO2013046095A1 (en) * 2011-09-27 2013-04-04 Koninklijke Philips Electronics N.V. Apparatus and method for dynamic range transforming of images
JP2015133696A (en) * 2014-01-10 2015-07-23 パナソニックIpマネジメント株式会社 File generating method, file generating device, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111095918A (en) * 2017-09-21 2020-05-01 索尼公司 Reproduction device, reproduction method, program, and recording medium
US11483616B2 (en) 2017-09-21 2022-10-25 Sony Corporation Reproduction apparatus, reproduction method, program, and recording medium

Similar Documents

Publication Publication Date Title
JP6467680B2 (en) File generation method and file generation apparatus
US11395018B2 (en) Information processing apparatus, information processing method, and program
JP7052733B2 (en) Information processing equipment, information recording media, information processing methods, and programs
JP2019024229A (en) File generation method and file generation apparatus
JP2013093755A (en) Video recording device and video recording method
JPWO2019043987A1 (en) Content recording device, content editing device, content reproducing device, content recording method, content editing method, and content reproducing method
JP2017183762A (en) Video stream generation method, reproduction device, and recording medium
JP6964436B2 (en) Video recording device and video playback device
JP2015109131A (en) File generation method, reproduction method, file generation device, regeneration device and recording medium
WO2015105037A1 (en) File generation method, file generation device and recording medium
JP7215415B2 (en) Information processing device, information recording medium, information processing method, and program
WO2015083354A1 (en) File generation method, playback method, file generation device, playback device, and recording medium
JP7024787B2 (en) Information processing equipment, information processing methods, and programs
JP7147755B2 (en) Information processing device, information recording medium, information processing method, and program
WO2016027426A1 (en) Video stream generation method, playback apparatus, and recording medium
JP6982829B2 (en) Recording device, recording method and recording medium
CN110462735B (en) Information processing apparatus, information recording medium, information processing method, and program
JP2016027512A (en) Information processing device, information recording medium, and information processing method, and program
WO2015072127A1 (en) File generation method and file generation apparatus
JP2004040329A (en) Demultiplexer and method thereof, and multiplexer and method thereof
JP2015153440A (en) Information processor, information recording device, information recording medium, information processing method, and program
JP2010181800A (en) Data structure of encrypted media file, encrypted media creating method, encrypted media decoding method, encrypted media sectioning method, and encrypted media coupling method and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15834281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15834281

Country of ref document: EP

Kind code of ref document: A1