WO2006030767A1 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
WO2006030767A1
WO2006030767A1 PCT/JP2005/016815 JP2005016815W WO2006030767A1 WO 2006030767 A1 WO2006030767 A1 WO 2006030767A1 JP 2005016815 W JP2005016815 W JP 2005016815W WO 2006030767 A1 WO2006030767 A1 WO 2006030767A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
stream
file
picture
clip
Prior art date
Application number
PCT/JP2005/016815
Other languages
English (en)
French (fr)
Inventor
Hiroshi Yahata
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/574,821 priority Critical patent/US20080049574A1/en
Priority to JP2006535141A priority patent/JPWO2006030767A1/ja
Publication of WO2006030767A1 publication Critical patent/WO2006030767A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Definitions

  • the present invention relates to a technique for recording moving image data on a recording medium and managing the recorded moving image data.
  • optical disk recorder that can write and store digital data on an optical disk such as a DVD has been widely used.
  • the target to be written is, for example, a data stream of a broadcast program, or a video and audio data stream shot by a camcorder or the like.
  • the written data is held on the DVD in a randomly accessible state.
  • a DVD employs a file system called UDF (Universal Disc Format).
  • UDF Universal Disc Format
  • the UDF file system is suitable for recording and playback of video and audio data.
  • the video and audio data that is mainly written on DVDs is large, so the maximum file size in the UDF file system is set sufficiently large.
  • the UDF file system makes it easy to edit data in units of sectors.
  • Patent Document 1 discloses such a UDF file system!
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2000-013728
  • a FAT32 file system is generally adopted in a PC.
  • the size of one data file is limited to less than 4GB. Therefore, FAT Considering editing with the 32 file system, it is necessary to store the video and audio data obtained in one recording into multiple files. Therefore, how to manage these video and audio data becomes a problem.
  • An object of the present invention is to provide a data management method when video 'audio data obtained by one recording is divided into a plurality of files.
  • a data processing apparatus writes a video data stream and management information for reproducing the video based on the data stream to one or more recording media.
  • picture data of each picture constituting the video and time information specifying the display time of each picture are stored in association with each other.
  • the data processing device has a table in which the time information, a storage position of the picture data in the data stream, and file information specifying a stream file in which the picture data is stored are associated with each other
  • a processor that generates as part of the management information; and a controller that writes the data stream and the management information to the recording medium as one or more stream files and one or more management information files.
  • the controller may generate a plurality of stream files and one management information file.
  • the data stream includes one or more playback units starting from reference picture data of a reference picture that can be decoded independently, and the processor includes reference picture data at a head of the playback unit.
  • the table may be generated.
  • the processor may generate the table for the first reference picture data arranged first in each of the plurality of stream files.
  • the data stream includes the time information generated based on a common reference time for the video recorded continuously, and the controller is generated based on the common reference time
  • the data stream may be divided to generate the plurality of stream files.
  • the data stream is composed of a plurality of packets having a fixed data length, and the processor determines the storage location of the picture data based on the arrangement of the plurality of packets in the data stream. You can specify it.
  • the controller may write the one or more stream files and the one or more management information files to the recording medium adopting the FAT32 file system.
  • the data processing device may further include an encoder that generates the one or more reproduction units based on an analog signal.
  • the data processing device may further include an encoder that generates the data stream based on the common reference time when video is continuously recorded based on an analog signal.
  • the recording medium records one or more stream files storing video data streams and one or more management information files storing management information for reproducing the video based on the data streams. ing.
  • picture data of each picture constituting the video and time information specifying the display time of each picture are stored in association with each other.
  • the management information associates the time information, the storage location of the picture data in the data stream, and file information for specifying a stream file in which the picture data is stored.
  • the table is stored.
  • the data processing device generates a table storing file information and the like for specifying a file in which a data stream is stored.
  • this table it is possible to specify in which file all or part of the data stream without analyzing the data stream is stored. Therefore, a desired reproduction position of the data stream can be accessed at high speed.
  • FIG. 1 is a diagram showing the configuration of a system formed by an optical disc recorder 100 and other devices according to an embodiment of the present invention.
  • FIG. 2 shows the data structure of transport stream (TS) 20.
  • FIG. 3 (a) is a diagram showing the data structure of a video TS packet 30, and (b) is an audio T
  • FIG. 3 is a diagram showing a data structure of S packet 31.
  • FIG. 4 (a) to (d) are diagrams showing the relationship of streams constructed when video pictures are reproduced from video TS packets.
  • FIG. 5 is a diagram showing a functional block configuration of the recorder 100.
  • FIG. 6 is a diagram showing a detailed functional block configuration of a TS processing unit 204.
  • FIG. 7] (a) to (e) are diagrams showing the relationship between a transport stream and a clip AV stream.
  • FIG. 8 is a diagram showing a recording area of a BD 205a and its directory Z file structure.
  • FIG. 9 (a) to (d) are diagrams showing the relationship between management information and stream data.
  • FIG. 10 is a diagram showing information (entries) stored in the playlist file 83 and the data structure of the playlist file.
  • FIG. 11 is a diagram showing a data structure relating to information (entries) stored in the clip information file 84 and some entries in the clip information file.
  • FIG. 12 is a diagram showing a data structure of information (entries) stored in the clip information file 84 and other partial entries of the clip information file.
  • FIG. 13 is a diagram showing a data structure of a time / address conversion table.
  • FIG. 14 is a diagram showing the correspondence between time and address according to the first example.
  • FIG. 15 is a diagram showing the correspondence between time and address according to the second example.
  • FIG. 16 (a) shows real playlists 1 and 2 and corresponding clips 1 and 2. (b) shows the first section from INI to OUT1 and the second section from IN2 to OUT2.
  • FIG. 6 is a diagram showing virtual playlists that are continuously played back.
  • FIG. 17 (a) is a diagram showing positions of division points when a virtual playlist is divided, and (b) shows divided virtual playlists 1 and 2.
  • FIG. 18 (a) is a diagram showing virtual playlists 1 and 2 to be merged, and (b) is a diagram showing a virtual playlist merged into one.
  • FIG. 19 (a) is a diagram showing a real playlist and clips for which the section A—B is to be deleted, and (b) is the section A—B is deleted and the positions of points A and B are combined.
  • FIG. 6 is a diagram showing a real play list and a clip.
  • FIG. 20 is a diagram showing the relationship between thumbnail pictures managed in BD2O5a and management files.
  • FIG. 21 (a) to (c) are diagrams showing a virtual playlist 312, a real playlist 314 and a clip 316 to which marks are added, respectively.
  • FIG. 22 (a) to (d) are diagrams for explaining a file structure in a file system having an upper limit on the file size.
  • FIG. 23 (a) and (b) are diagrams showing correlations between streams and sequences before and after midway deletion.
  • FIGS. 24A to 24D are diagrams showing the relationship between management information files 82 to 84 and clip AV stream file 85 suitable for the FAT32 file system according to this embodiment.
  • FIG. 25 is a diagram schematically showing the data structure of a time / address conversion table (EP-map) 87.
  • FIG. 26 is a diagram showing a detailed data structure of a conversion table 87.
  • FIG. 27 is a flowchart showing a processing procedure for reproducing a picture corresponding to a PTS designated by using a conversion table 87.
  • FIGS. 28A and 28B are views showing clips before and after editing according to the present embodiment.
  • FIG. 29 (a) is a diagram showing the concept of the time address conversion table stored in one clip information file for the edited clip AV stream, and (b) shows the range of two STC sequences, respectively. (C) is a diagram showing two files in which a clip AV stream is stored, and (d) is a diagram showing a change in ATS of a clip AV stream across a plurality of files.
  • FIG. 30 is a diagram showing a correspondence between a fine entry and an I picture arranged at the head of each GOP.
  • FIG. 31] (a) to (d) are diagrams showing modifications of the data structure of the fine entry.
  • FIG. 32 is a diagram showing a data structure of a time map according to the present embodiment.
  • FIG. 33 (a) is a diagram showing the concept of one content in this embodiment, (b) is a diagram showing the concept of a clip including content management information and stream data, and (c) FIG. 5 is a diagram showing three memory cards 112a to 112c.
  • FIG. 34 is a diagram showing the contents of information included in clip metadata 331.
  • the data processing apparatus is described as an optical disk recorder with a built-in HDD equipped with an optical disk, a semiconductor memory, a drive Z slot such as a small HDD, but a mobile phone having a camcorder or a movie shooting function. It is not particularly limited to this.
  • FIG. 1 shows a configuration of a system formed by the optical disc recorder 100 and other devices.
  • the optical disk recorder 100 (hereinafter referred to as “recorder 100”) has a recording function for recording a video data stream of a broadcast program and a moving picture data stream on one or more types of recording media. Examples of the recording medium include a semiconductor memory card 112, a memory card 113 using a small HDD, and a Blu-ray disc (BD) 114.
  • the power recorder 100 which is an example of a removable recording medium, has a built-in HDD, it is also possible to record and store a video data stream in the HDD.
  • the recorder 100 also has a playback function for reading a data stream recorded on these recording media and playing back a moving image.
  • FIG. 1 shows other devices (PC 108 and camcorder 110) that can be linked in association with the recording function and the playback function of the recorder 100. However, these devices also have their own recording and playback functions. Each function is equivalent to the recorder 100. In the following description, the recorder 100 will be mainly described as an example. [0024] Processing related to the recording function and the playback function of the recorder 100 is performed based on an instruction given by the user using the remote controller 116, a button (not shown) of the recorder 100, or the like.
  • the recorder 100 is connected to an antenna 102a that receives a digital signal related to a digital broadcast program and an antenna 102b that receives an analog signal related to an analog broadcast program, and receives the digital signal and the analog signal.
  • the recorder 100 receives a digital signal and an analog signal via the coaxial cable 104, for example.
  • the digital signal is transmitted as an MPEG-2 transport stream (hereinafter referred to as “transport stream” or “TS”).
  • transport stream transport stream
  • the recorder 100 When receiving the TS, the recorder 100 performs predetermined processing on the TS, and records it on the BD 114 while maintaining the packet structure of the TS described later.
  • the recorder 100 compresses and encodes moving image data obtained from the analog signal to generate a TS, and records the TS on the BD 114.
  • the recorder 100 can record an analog Z digital broadcast program on a memory card 112 using a semiconductor such as an SD memory card or a memory card 113 using a small HDD. Also, still image data recorded on the memory cards 112 and 113 can be copied to the BD 114.
  • the camcorder 110 When recording is performed using the camcorder 110, the camcorder 110 generates a TS based on video and audio analog signals to be captured.
  • the recorder 100 decodes the video and audio recorded on the BD 114 and reproduces them via the TV 106, a speaker (not shown), and the like.
  • the video and audio are not limited to broadcast programs, but may be video and audio recorded by the power encoder 110, for example.
  • a device that records video and Z or audio may be different from a device that reproduces them.
  • a BD114 with recorded video and audio may be removed from the recorder 100 and loaded into another device such as a PC 108 or a camcorder 110. And the device loaded with the BD114 may play video and audio.
  • FIG. 2 shows the data structure of the transport stream (TS) 20.
  • the TS packet includes, for example, a video TS packet (V—TSP) 30 in which compressed video data is stored, an audio TS packet (A—TSP) 31 in which compressed audio data is stored, and a program table.
  • V—TSP video TS packet
  • A—TSP audio TS packet
  • PAT program ⁇ Association 'table
  • PAT stored packet
  • PAT-TS P Program correspondence table
  • PMT Program ⁇ Map table
  • PMT Program ⁇ Map table
  • PMT Program ⁇ Clock ⁇ Reference
  • Packet Packet
  • the data amount of each TS packet is 188 bytes.
  • TS packets that describe the program structure of TS such as PAT-TSP and PMT-TSP are generally called PSIZSI packets.
  • FIG. 3 shows the data structure of the video TS packet 30.
  • the video TS packet 30 has a 4-byte transport packet header 30a and a 184-byte transport packet payload 30b.
  • the payload 30b stores video data 30b.
  • FIG. 3B shows the data structure of the audio TS packet 31.
  • the audio TS packet 31 has a 4-byte transport packet header 31a and a transport packet payload 31b of 184 knots.
  • the audio data 31b is stored in the transport packet payload 31b.
  • a TS packet is generally composed of a 4-byte transport bucket header, 184-byte elementary data, and power.
  • a packet identifier (Packet IDentifier; PID) that identifies the type of the packet is described in the packet header. For example, the PID of the video TS packet is “0x0020”, and the PID of the audio TS packet is “0x0021”.
  • Elementary data includes content data such as video data and audio data, control data for controlling playback, and the like. What data is stored depends on the type of packet.
  • FIGs 4 (a) to 4 (d) show the relationship of the streams constructed when playing video pictures from video TS packets.
  • TS40 is a video TS packet 40a-40d. including. Note that TS40 can include other packets. Here, only video TS packets are shown. Video TS packets are easily identified by the PID stored in header 40a-1.
  • Video data 40a Packetized Elementary Stream (PES) packets are composed of video data of each video TS packet such as 2.
  • Figure 4 (b) shows the data structure of the packetary elementary stream (PES) 41.
  • the PES 41 is composed of a plurality of PES packets 41a, 41b and the like.
  • the PES packet 41a includes a PES header 41a-1 and a PES payload 41a-2, and these data are stored as video data of a video TS packet.
  • Each of the PES payloads 41a-2 includes data of one picture.
  • the PES header 41a-1 stores a presentation time stamp (PTS) that specifies the playback display time of each picture.
  • PTS presentation time stamp
  • An elementary stream is composed of the PES payload 41a-2.
  • Figure 4 (c) shows the data structure of elementary stream (ES) 42.
  • the ES 42 has a plurality of sets of picture headers and picture data.
  • picture is generally used as a concept including a shift between a frame and a field.
  • the picture header 42a shown in FIG. 4 (c) describes a picture coding type that specifies the picture type of the picture data 42b arranged thereafter, and the picture header 42c specifies the picture type of the picture data 42d.
  • the picture coding type to be described is described! The type indicates I picture (Intra- coded picture), P picture (Predictive-coded picture), 7 pictures, or B picture (Biairectionaliy- predictive- coded picture). If the type is I picture, the picture coding type is “00 lb” if it is MPEG 2 video.
  • the picture data 42b, 42d, etc. are the data of one frame that can be constructed only by the data, or by the data and the data decoded before and after Z or after.
  • FIG. 4 (d) shows a picture 43a constructed from the picture data 42b force and a picture 43b constructed from the picture data 42d.
  • MPEG2 decoder 206 (described later) of recorder 100 is A video TS packet is acquired, picture data is acquired according to the above-described processing, and a picture constituting the video is acquired by decoding. As a result, the video can be reproduced on the TV 106.
  • the MPEG2 encoder 203 (described later) of the recorder 100 performs processing in the order shown in FIGS. 4 (d), (c), (b), and (a) to construct the TS40. To do.
  • FIG. 5 shows the functional block configuration of the recorder 100.
  • the recorder 100 has not only the BD 205a but also a hard disk drive (HDD) 205b as a recording medium. That is, the recorder 100 is a BD recorder with a built-in HD D205b.
  • HDD hard disk drive
  • the recorder 100 includes a digital tuner 201a and an analog tuner 201b, an AD converter 202, an MPEG-2 encoder 203, a TS processing unit 204, an MPEG-2 decoder 206, a graphic input U control 207. And memory 208, A CPU node 213, a network control unit 214, an instruction receiving unit 215, an interface (IZF) unit 216, a memory card control unit 217, and a system control unit 250 are included.
  • the optical disc 205a is described in the recorder 100. However, the optical disc 205a can be detached from the optical disc recorder 100 and is not a component of the recorder 100 itself.
  • the digital tuner 201a receives a digital signal including one or more programs from the antenna 102a (FIG. 1).
  • a transport stream transmitted as a digital signal contains multiple program packets.
  • a transport stream containing multiple program packets is called a “full TS”.
  • Digital tuner 2 Ola selects the channel and extracts only the necessary program packets from the full TS and outputs them as “partial TS”.
  • the procedure for extracting a packet of a desired channel from the full TS is as follows. Let X be the program number (channel number) of the desired program. First, Full TS The knot (PAT—TSP in Figure 2) is searched. Since the packet ID (PID) of the program guide packet is always given 0, it is only necessary to search for a packet having that value.
  • the program table in the program table packet stores each program number and the PID of the program correspondence table packet (PMT-TSP in Fig. 2) of each program corresponding to the program number. As a result, the packet ID (PID) of the program correspondence table PMT corresponding to the program number X can be specified.
  • Program correspondence table PMT PID is XX.
  • the program correspondence table PMT stores, for each program, the PID of a TS packet in which video and audio information constituting each program is stored as a viewing target.
  • the PID of the video information of program number X is XV
  • the PID of the audio information is XA.
  • a PSI packet is a packet that generically represents the program table packet (PAT-TSP) and the program correspondence table packet (PMT-TSP) shown in FIG.
  • the reason for modifying the PSI packet is that the program table and the program correspondence table need to be adapted to the partial TS because the number of programs included in the full TS is different from that in the partial TS.
  • the SI packet is a packet that includes the contents of the program included in the full TS, data describing the schedule Z timing, etc., uniquely defined extended information (these are also called “program arrangement information”), and the like.
  • full TS the SI packet contains 20 to 30 types of data. Of these data, only the data important for playback of the partial TS is extracted, and one SIT packet is generated and multiplexed in the partial TS.
  • information partial transport stream descriptor
  • indicating that the stream is a partial TS is stored in the SIT packet. It is common practice to multiplex SIT packets within a partial TS. This is based on the European Z Japan digital broadcasting regulations (DVBZARIB) This is for consistency.
  • Analog tuner 201b receives the analog signal of antenna 102b (Fig. 1), selects a channel based on the frequency, and extracts a necessary program signal. The program video and audio signals are output to the AD converter 202.
  • the recorder 100 acquires digital signals and analog signals via the coaxial cable 104, the signal system input to FIG. 5 is strictly one. However, since a digital signal and an analog signal can be easily separated by frequency, FIG. 5 shows that the digital signal and the analog signal are input from different systems.
  • the AD converter 202 digitally converts the input signal and supplies it to the MPEG-2 encoder 20 3.
  • the MPEG-2 encoder 203 (hereinafter referred to as “encoder 203”) compresses the supplied analog broadcast digital data into the MPEG-2 format and converts it into a transport stream. Generated and input to the TS processing unit 204.
  • This process is a process for generating the TS 40 shown in FIG. 4 (a) from each picture shown in FIG. 4 (d).
  • the encoder 203 acquires and encodes digital baseband signals such as pictures 43a, 43b, etc., from which analog broadcast signal power is also obtained, and generates picture data 42b.
  • ES42 shown in Fig. 4 (c) is generated.
  • the encoder 203 also generates a presentation time stamp (PTS) or the like that specifies the playback output time of a picture (frame or field), and stores the PTS or the like in the PES header 41a. PES41 shown in) is generated. Thereafter, the encoder 203 constructs TS40 shown in FIG. 4 (a). The above-described processing is continued until the encoder 203 receives a recording end instruction. Note that the encoder 203 has a buffer (not shown) or the like that temporarily holds a reference picture or the like in order to perform the compression code.
  • PTS presentation time stamp
  • the TS processing unit 204 receives a partial TS when recording a moving image, generates a clip AV stream (ClipAV stream), and records it on the BD 205a and Z or the HDD 205b.
  • the clip AV stream is a data stream having a format for recording on the BD 205a and / or the HDD 205b.
  • a clip AV stream is composed of a plurality of “source packets”, and the “source packet” is generated by adding a predetermined header to each TS packet constituting the partial TS. Note that the processing when generating the clip AV stream Details will be described later with reference to FIGS. 7 (a) to (e).
  • the TS processing unit 204 reads a clip AV stream from the BD 205a and Z or the HDD 205b, generates a partial TS based on the clip AV stream, and outputs the partial TS to the MPEG-2 decoder 206.
  • the TS processing unit 204 receives still image data stored in the memory card 112 or 113 from the memory card control unit 217, which will be described later, and the BD 205a and Z are processed without processing the still image. Or record to HDD205b. Still image data recorded on the BD 205a and Z or HDD 205b can be read and output to the decoder 206.
  • the TS processing unit 204 is described as recording data in the BD 205a and Z or HDD 205b, or reading out the data of these forces, but this is for convenience of explanation. In actuality, writing and reading of streams to the BD 205a and HDD 205b are performed by a controller (not shown) provided in each drive device along with the rotation of the disk and the movement of the head.
  • the MPEG-2 decoder 206 (hereinafter referred to as "decoder 206") analyzes the supplied partial TS and obtains MPEG-2 compressed code data. Then, the compressed and encoded data is decompressed and converted into uncompressed data, and supplied to the graphic control unit 207. In addition, the decoder 206 can convert not only the compressed code data of the MPEG-2 standard, but also still image data according to the JPEG standard into uncompressed data.
  • the graphic control unit 207 is connected to a memory 208 for internal calculation, and can realize an on-screen display (OSD) function. For example, the graphic control unit 207 can synthesize various menu images and videos and output them to the DA converter 209.
  • the DA converter 209 converts the input OSD composite image and audio data into analog signals and outputs them.
  • the output destination is, for example, the TV 106.
  • the CPU bus 213 is a path for transmitting a signal in the recorder 100, and is connected to each functional block as shown in the figure. In addition, the CPU bus 213 is connected to each component of a system control unit 250 described later.
  • the network control unit 214 connects the recorder 100 to the network 101 such as the Internet.
  • the network 101 such as the Internet.
  • the network control unit 214 transmits and receives data via the network 101.
  • This data is, for example, program guide data relating to broadcast programs and software program update data for controlling the operation of the recorder 100.
  • the instruction receiving unit 215 is a light receiving unit that receives an infrared ray of an operation button provided on the main body of the recorder 100 or a remote controller.
  • the instruction receiving unit 215 instructs the user to, for example, start recording Z stop, start playback of recorded program Z stop, or an instruction to copy the still image of the loaded memory card 112 to 0205 & or 11002051). give.
  • Interface (IZF) unit 216 controls a connector for recorder 100 to communicate with other devices and its communication.
  • the IZF unit 216 includes, for example, a USB 2.0 standard terminal, an IEE E1394 standard terminal, and a controller that enables data communication according to each standard, and can exchange data in a manner compliant with each standard.
  • the recorder 100 is connected to a PC 108, a camcorder (not shown) or the like via a USB 2.0 standard terminal, and is connected to a digital noise vision tuner or a camcorder (not shown) via a terminal of an IEE E 1394 standard terminal. (Not shown).
  • the memory card control unit 217 is a controller that controls the slot for loading the memory card 112 into the recorder 100 and the data communication between the recorder 100 and the memory card 112.
  • the memory card control unit 217 receives moving image data, still image data, management information related to them through the CPU bus 213, and writes them to the loaded memory cards 112 and 113.
  • the memory card control unit 217 reads still image data files, moving image data files, and the like from the loaded memory cards 112 and 113, and transmits them to the CPU bus 213.
  • the system control unit 250 controls the overall processing including the signal flow in the recorder 100.
  • the system control unit 250 includes a program ROM 210, a CPU 211, and a RAM 212. Each is connected to the CPU bus 213.
  • the program ROM 210 stores a software program for controlling the recorder 100.
  • the CPU 211 is a central control unit that controls the overall operation of the recorder 100.
  • the U 211 reads and executes the program, thereby generating a control signal for realizing processing defined based on the program, and outputs the control signal to each component via the CPU bus 213.
  • the CPU 211 generates management information described later (for example, the management file 82, the playlist file 83, and the clip information file 84 shown in FIG. 24), and outputs them to the TS processing unit 204 and the memory card control unit 217 via the CPU bus. To do.
  • the memory 212 has a work area for storing data necessary for the CPU 211 to execute the program.
  • the CPU 211 reads the program from the program ROM 210 to the random access memory (RAM) 212 using the CPU bus 213, and executes the program.
  • the computer program is recorded on a recording medium such as a CD-ROM and distributed on the market, or transmitted through a telecommunication line such as the Internet.
  • a computer system configured using a PC or the like can be operated as a data processing apparatus having functions equivalent to those of the recorder 100 according to the present embodiment.
  • FIG. 6 shows a detailed functional block configuration of the TS processing unit 204.
  • the TS processing unit 204 includes a source “packetizer 261”, a clock counter 262, a PLL circuit 263, a notch 264, and a source “de” packetizer 265.
  • the source packetizer 261 receives a partial TS, generates a source packet by adding a predetermined header before a TS packet constituting the partial TS, and outputs the source packet.
  • the header includes time information ATS (Arrival Time Stamp) indicating the time when the TS packet is received (that is, the arrival time of the TS packet).
  • ATS Arriv Time Stamp
  • the arrival time of the TS packet is specified based on the count value (count information) from the reference time given to the source 'packetizer 261. The reason for including information on the arrival time of the TS packet will be described later with reference to FIG.
  • the clock counter 262 and the PLL circuit 263 generate information necessary for the source packetizer 261 to specify the arrival time of the TS packet.
  • the PLL circuit 263 extracts a PCR packet (PCR—TSP in FIG. 2) included in the partial TS, and obtains a PCR (Program Clock Reference) indicating the reference time.
  • PCR Program Clock Reference
  • the same value as the value of PC R is set as the system standard time STC (System Time Clock) of the recorder 100 and used as the standard time.
  • System reference time STC system clock frequency The number is 27MHz.
  • the PLL circuit 263 outputs a 27 MHz clock signal to the clock counter 26 2.
  • the clock counter 262 receives the clock signal and outputs the clock signal to the source packetizer 261 as count information.
  • the noffer 264 includes a write buffer 264a and a read buffer 264b.
  • the write buffer 264a sequentially holds the sent source packets, and outputs them to the BD 205a or the like for writing when the total data amount reaches a predetermined value (for example, the total capacity of the buffer).
  • a series of source packet sequences (data streams) output at this time is called a clip AV stream.
  • the read buffer 264b temporarily buffers the clip AV stream from which the BD 205a isotropic power is read, and outputs the clip AV stream in units of source packets.
  • the source packetizer 265 receives the source packet, converts it into a TS packet, and outputs it as a nominal TS. It should be noted that the source 'de' packetizer 265 determines the original arrival time based on the timing information given from the clock power counter 262 and the arrival time information ATS of the TS packet contained in the source packet. The TS bucket is output at the corresponding time interval. Accordingly, the TS processing unit 204 can output the TS packet at the same timing as the arrival timing of the TS packet at the time of recording. Note that the source “de” packetizer 265 sends, for example, the arrival time specified in the first source packet to the clock counter 262 as an initial value in order to specify the reference time of the read partial TS. As a result, the initial value of the clock counter 262 can also be counted, and the subsequent count result can be received as timing information.
  • FIG. 7 (a) to 7 (e) show the relationship between the transport stream and the clip AV stream.
  • the full TS70 is shown in Fig. 7 (a).
  • TS packets are continuously arranged, and include data of three programs X, Y, and Z, for example.
  • FIG. 7 (b) shows a partial TS71 generated from the full TS70 by the digital tuner 201a. Since the partial TS 71 is a stream obtained by extracting some packets from a continuous full TS, the packets exist discretely in time. This packet interval is adjusted by the sender of the full TS so that decoding can be performed properly in the decoder. Meet the necessary conditions.
  • This “condition” means that the buffer memory of T-STD (TS System Target Decoder) specified as a decoder model in MPEG-2TS does not cause malfunctions such as overflow and underflow. This is a condition defined in the standard.
  • T-STD TS System Target Decoder
  • the partial TS71 includes, for example, a TS packet related to the program X.
  • FIG. 7 (c) shows a clip AV stream 72.
  • source packets are continuously arranged. Each source packet is distinguished by source packet number (SPN) # 0, 1, 2,.
  • SPN source packet number
  • FIG. 7 (d) shows the data structure of the source packet 73.
  • the data length of the source packet 73 is fixed at 192 bytes. That is, each source packet 73 is configured by adding a 4-byte TP header header 74 before a 188-byte TS packet 75.
  • the source 'packetizer 261 generates a source packet by adding a TP eXtra header 74 before the TS packet that constitutes the partial TS.
  • FIG. 7 (e) shows the data structure of the TP eXtra header 74.
  • the TP eXtra header 74 is also composed of a 2-bit copy permission indicator (CPI) 76 and a 30-bit arrival time stamp ATS77.
  • the copy permission indicator (CPI) 76 stipulates the number of copies of the entire clip AV stream 72 or a part of the clip AV stream 72 (0 times (copy not possible) Z1 time only, no Z restriction, etc.).
  • Arrival time stamp ATS77 describes the time with 27MHz accuracy.
  • the clip AV stream is also written to a recording medium other than the BD 205a such as the memory cards 112 and 113.
  • a file system different from the BD 205a FAT32 file system in this embodiment
  • a mode when a clip AV stream is written to the BD 205a will be described first, and then a mode when a clip AV stream is written to a recording medium adopting the FAT32 file system will be described.
  • the clip AV stream can also be recorded on the HDD 205b.
  • the HDD 205b is generally not detached from the recorder 100 and loaded into another device, data may be recorded with a unique data structure.
  • FIG. 8 shows the recording area of the BD 205a and its directory Z file structure.
  • the BD 205a has a gathered “file area 81-1” and a real-time “data area 81-2”.
  • the recording capacity of Gazard's file area 81-1 is several hundred megabytes.
  • a management information file database file
  • the gathered file area 81-1 is provided in the middle part of the recording area of the BD 205a that can be accessed efficiently.
  • a database file is indispensable for playing a video stream such as a clip AV stream, and an error in the recorded contents causes a serious failure. Therefore, the database file may be backed up to a BACKUP directory (not shown) in the same BDAV directory.
  • the recording capacity of the real-time data area 81-2 is 23 to 27 GB for a single-sided single-layer Blu-ray disc.
  • a stream file of the clip AV stream is recorded in the real-time data area 81-2.
  • a clip AV stream file 85 (01000.m2ts) is recorded.
  • the effects of stream file playback errors are local, while continuous reading must be ensured. Therefore, write processing is performed with an emphasis on the one that guarantees continuous reading rather than reducing the occurrence of errors.
  • the clip AV stream file 85 is recorded in a continuous area (a continuous logical sector) of 12 Mbytes at a minimum. This minimum recorded data size is called an “extent”. In the following description, it is assumed that the clip AV stream is recorded in the real-time data area 81-2 below the capability of recording a DV stream.
  • FIG. Fig. 9 ( a) to (d) show the relationship between management information and stream data.
  • Figures 9 (a) to 9 (c) are management information
  • Figure 9 (d) is stream data.
  • Figure 9 (a) shows the playlist table described in the management file 82 (Info, bdav). That is, the management file 82 stores a playlist file name table for specifying a playlist that exists on the BD 205a.
  • the “play list” is information that defines a playback path that spans part or all of one or more clip AV streams.
  • FIG. 9B shows a playlist described in the playlist file 83 (extension: rplsZvpls).
  • Playlists can be classified into real playlists and virtual playlists.
  • the real playlist is, for example, a playlist generated by the recorder 100 when the stream data is recorded for the first time, and specifies from the beginning to the end of the moving image as a playback path.
  • the virtual playlist is a playlist set by the user for the recorded stream data, and an arbitrary position and section desired by the user are designated.
  • Each section of the playlist is defined for each play item in the playlist. That is, in the play item, a start time (In-time) corresponding to the reproduction start position and an end time (Out-time) corresponding to the reproduction end position are described. The start time and end time are described by a presentation time stamp (PTS) that specifies the playback display time of the video frame and the playback output time of the audio frame. Normally, just one play item is provided in the real playlist immediately after recording, and the first and last times of the movie are specified. On the other hand, in the virtual playlist, the number of play items is arbitrary. A plurality of play items can be provided in one virtual playlist, and each play item can be described to specify a different video stream.
  • PTS presentation time stamp
  • Figure 9 (c) shows the time / address conversion table (EP_map) described in the clip information file (extension: clpi).
  • the conversion table (EP_map) 84 is a table in which the playback time of the clip AV stream is associated with the address where the data played back at that time is stored.
  • the address in the clip AV stream in which the data to be played back at that time is stored from the start time (In-time) and end time (Out-time) specified in the play item. Can be identified
  • the principle of conversion using this conversion table 84 will be described in detail later with reference to FIGS.
  • FIG. 9 (d) shows a moving picture stream stored in the clip AV stream file 85 (extension: m2ts).
  • each of the files “01000. m2ts” and “02000. m2ts” is a clip AV stream file.
  • one clip information file is provided for one clip AV stream file.
  • a pair of a clip AV stream file and a clip information file is referred to as a clip.
  • FIG. 10 shows information (entries) stored in the playlist file 83 and its data structure.
  • an entry indicated as PlayList O exists. This corresponds to the “play list” described above.
  • Play items (Playltem) 1, 2,... are described below the playlist information (PlayList).
  • Each play item contains the name of the clip information file to be played (Clip—Information—file—name), an identifier for identifying the STC (ref_to—STC_id), the start time (ln_time), and the end time (Out— time) etc. are stored.
  • the play list file 83 may be provided with an entry indicated as “play list mark (PlayListMark)”. The function of the playlist mark will be described later.
  • FIG. 11 and FIG. 12 are diagrams showing data structures related to information (entries) stored in the clip information file 84 and entries in the clip information file.
  • the clip information file 84 has various entries.
  • FIG. 11 further shows the detailed data structure of clip-related information (Cliplnfo) and the detailed data structure of sequence information (Sequencelnfo).
  • the clip related information (Cliplnfo) also has multiple entries.
  • FIG. 11 shows a detailed data structure of one entry (TS—type—info—block) included in the clip related information! /.
  • a time “address conversion table (EP-map) is provided as an entry in the feature point information (CPI).
  • This table is a set of time / address conversion tables (EP—map—for—one stream) provided for each of one or more clip AV streams.
  • Table 86 shows the time for each clip AV stream. This shows the data structure of the source conversion table (EP—map—for—one—stream). Other entries (ClipMark) will be described later.
  • a conversion table (EP-map) is provided for each recorded program, in other words, for each PID of a recorded video TS packet.
  • a TU-map can be provided instead of the EP-map.
  • the TU-map is a table showing the correspondence between packet arrival time (ATS) and source packet number. For example, packet arrival time entries are provided at 1-second intervals. Then, the number power of the source packet generated from the TS packet received first immediately after that time is associated with that time.
  • ATS packet arrival time
  • source packet number For example, packet arrival time entries are provided at 1-second intervals. Then, the number power of the source packet generated from the TS packet received first immediately after that time is associated with that time.
  • FIG. 13 shows the data structure of the time / address conversion table.
  • a time stamp (PTS) indicating the time is associated with a source packet number (SPN) indicating the address.
  • SPN source packet number
  • This time stamp (PTS) represents the PTS of each I picture placed at the beginning of the GOP of the MPEG standard when it comes to video.
  • the source packet number (SPN) is the source packet number (SPN) in which the leading data of the I picture reproduced at the time corresponding to the PTS is stored.
  • the data size of the source packet is 192 bytes, when the source packet number is specified, the number of heads of the clip AV stream is specified, and the data can be easily and reliably accessed.
  • the actual values of the source packet numbers XI, X2, etc. in this conversion table are not always continuous integers, but are larger than the integer values.
  • FIG. 14 shows the correspondence between time and address according to the first example.
  • the PTS value other than the PTS value is the start time (In-time) and Z Or if it is specified as the end time (Out-time), the address (source packet number) corresponding to that time cannot be obtained directly.
  • the MPEG-2 video codec compression method compression is performed using the difference between pictures, so the next picture cannot be decoded unless the I picture at the beginning of the GOP is first decoded. Therefore, if an I picture entry is described, further picture unit playback control, which is not a problem for actual playback, is time-added. If you start the I-picture power decoding specified in the less conversion table (EP—map) and analyze and decode the subsequent picture, only the expected picture will be displayed.
  • FIG. 15 shows the correspondence between time and address according to the second example. Differences from the example in Fig. 14 are explained.
  • a broadcast program may be recorded not only for one program but also for several consecutive programs.
  • the PTS and source packet number values are uniquely defined within one program (partial TS) and are not adjusted with each other. Therefore, the value of the PTS source packet number may be duplicated in two or more programs. Therefore, even in such a case, it is necessary to make it possible to convert the time and the address by using the time 'address conversion table (EP-map). Therefore, information (STC_ID) for uniquely identifying a specific playback point is specified and used to identify the source packet number along with time information.
  • STC_ID information for uniquely identifying a specific playback point is specified and used to identify the source packet number along with time information.
  • each partial TS is processed based on its own system time base STC, so that the system time base STC becomes discontinuous at the program switching point.
  • FIG. 15 shows an example in which STC discontinuities exist between yarns 1A and B and programs B and C when yarns 1A, B and C are recorded. Different STC IDs are set at each timing.
  • the last program C 2
  • an appropriate source packet number as originally specified is obtained based on the time information (In-timeZOut-time) and the STC-ID. Can do. Playltem O shown in Fig. 10 is provided with an entry (ref_to-STC-id) for identifying STC-ID along with information on start time (IN-time) and end time (OUT-time). Is understood.
  • a device itself encodes a video signal to generate a clip AV stream, such as a camcorder 110, a continuous recording period until the end of one recording start force is completed.
  • the STC need not be discontinuous within In such a case, the device operation may be restricted so that the STC does not become discontinuous during the continuous recording interval.
  • the recorder 100 receives a video signal and encodes it using the ADC 202 and the encoder 203.
  • FIG. 16 (a) shows real playlists 1 and 2 and corresponding clips 1 and 2.
  • Figure 16 (b) shows a virtual playlist that continuously plays back the first section from IN1 to OUT1 and the second section from IN2 to OUT2.
  • the first and second segments are each specified by a separate play item in the virtual playlist. According to the virtual playlist, it is possible to apparently join the playback sections of separate clips that do not directly check the real playlists 1 and 2 and the clips 1 and 2.
  • the MPEG-2 video compression method uses the difference between pictures to compress the picture, the picture immediately after jumping in at IN2 is the preceding necessary for decoding the picture. Because the picture data to be acquired is acquired, it cannot be normally decoded, and the video is not displayed for a while.
  • connection information (connection-condition) of the play item is set to “4”.
  • destructive editing is editing that does not leave the original video. Therefore, instead of editing the original stream like destructive editing, collect the streams near the junction and re-code the “bridge clips” so that they can be seamlessly connected! Can do.
  • the playback control is switched to the bridge clip immediately before the joint, and the playback of the second section is started after the bridge clip is played. This makes it possible to switch smoothly between scenes without any contradiction.
  • the connection information by this bridge clip is set to “3”.
  • FIG. 17 (a) shows the position of the division point when dividing the virtual playlist of FIG. 16 (b).
  • Figure 17 (b) shows the divided virtual playlists 1 and 2.
  • virtual Playlist 1 specifies continuous playback of the sections of Real Playlist 1 and some sections of Real Playlist 2.
  • virtual playlist 2 regulates playback of the remaining sections of real playlist 2.
  • FIG. 19 (a) shows a real play list and a clip whose sections A and B are to be deleted.
  • FIG. 19 (b) shows a real play list and a clip in which the sections A and B are deleted and the positions of the points A and B are combined.
  • the reason for directly checking clips and real playlists only in the case of partial deletion and deletion of real playlists is that only real playlists have a direct causal relationship with video / audio data. In other words, it is assumed that the user interface on the recorder does not allow the user to recognize the clip and presents only a real playlist (which has the same meaning as the clip for the user) and a virtual playlist (simple playback path information). Because of this.
  • a thumbnail picture is a reduced picture of a scene or still image of a movie, and is provided for the purpose of easily checking the contents of a movie or still image.
  • FIG. 20 shows a menu thumbnail file 302 and a mark thumbnail file 304 for managing thumbnail pictures.
  • the menu thumbnail file 302 stores index information relating to thumbnails of the BD 205a. This index information is stored in the menu thumbnail file 302! / The management number (menu— thumbnail— index) of the picture 302a, 302b, etc. is included.
  • Thumbnail picture 302a shows typical contents of virtual playlist 312.
  • the thumbnail picture 302b is called a volume thumbnail and shows typical contents of the entire BDAV directory.
  • the mark thumbnail file 304 stores index information related to the thumbnail of the “mark” that is added to the position of a desired video and functions as a bookmark.
  • the index information includes a management number (mark_thumbnail-index) of thumbnail pictures (thumbnail pictures 304a, 304b, 304c, etc.) managed in the mark thumbnail file 304.
  • the thumbnail picture 304a is a reduced image at a position where a mark in the virtual playlist 312 is added.
  • the thumbnail picture 304b is a reduced image at a position where a mark in the real play list 314 is added.
  • the thumbnail picture 304c is a reduced image at a position where a clip mark in the clip 316 is added.
  • the above-described thumbnail picture data is compressed and encoded based on the JPEG standard.
  • Figs. 21 (a) to 21 (c) show a virtual playlist 312, a real playlist 314, and a clip 316 to which marks are added, respectively.
  • the user can set multiple types of marks. In other words, “Bookmark” that specifies the cue point of the desired video etc. (content), “Skip mark” that specifies the point (section) to skip playback, and the position of the content that was previously stopped viewing “Resume mark”, “Chapter mark” to specify the beginning of the chapter, etc.
  • a bookmark and a resume mark are set. These marks are described in the “PlayListMark” entry of the playlist file (extension: vpls).
  • FIG. 10 describes PlayListMark () corresponding to the “PlayListMark” entry.
  • “mark—type” is information specifying the type of a mark such as a bookmark or a resume mark.
  • mark-time-stamp” is information for specifying a time stamp (PTS) of a picture to which a mark is set.
  • PTS time stamp
  • Each mark can be associated with a thumbnail picture.
  • a thumbnail picture 304a shown in FIG. 21 (a) is a reduced image of a scene where a bookmark is set.
  • the thumbnail picture 304a set in the virtual playlist 312 is managed in the mark thumbnail file 304 by! /.
  • a bookmark, a resume mark, and a skip mark are set in the real playlist 312 shown in FIG. 21 (b).
  • a thumbnail picture 304b at the skip start position can also be set for the skip mark. You can also set the duration to skip.
  • a clip mark is set in the clip 316 shown in Fig. 21 (c).
  • the clip mark is a mark added by the recorder 100 when a clip AV stream is generated. The user cannot participate in the generation of the clip mark, and cannot participate in the deletion of the generated clip mark. Since the clip mark is directly added to the clip, the function is effective even during playback based on the playlists 312 and 314.
  • the thumbnail picture 304c can also be set for the clip mark.
  • An ID (maker-ID) and unique information (makers_private-data) for each manufacturer of the recording device for example, the recorder 100
  • the FAT32 file system was developed mainly to handle video and audio data files. Therefore, it is not appropriate to make the data structure of various files on the FAT32 file system the same as the data structure on the file system described above. The reason is that files larger than 4GB cannot be recorded due to the limitations of the FAT32 file system. If a program is recorded or video is taken for a long time, there is a good chance that the video stream data will exceed 4GB.
  • FIG. 22 and FIG. 23 the problem when the data structure described so far is directly applied to the FAT32 file system will be described in more detail.
  • FIGS. 22 (a) to 22 (d) show a first example when a clip AV stream 85 and corresponding management information files 82 to 84 are provided in the FAT32 file system.
  • Figure 22 (d) shows that the video data recorded continuously Z is recorded in multiple files. Note that the management file 82 in FIG. 22 (a) is the same as the management file in FIG. 9 (a), and a description thereof will be omitted.
  • a continuously shot Z-recorded moving image may be divided into a plurality of clips and stored. More specifically, the clip AV stream file 85 of FIG. 22 (d) is generated one-to-one with the clip information file 84 of (c), and the set is defined as a clip.
  • the FAT32 file system cannot handle file sizes of 4GB or more, so if the data of a continuously shot Z-recorded movie becomes very large, multiple clip AV stream files of less than 4GB can be generated. Each time, a clip information file 84 is also generated, and as a result, a plurality of clips are generated.
  • a playlist file 83 (01001.rpls) shown in FIG. 22 (b) shows an example when a plurality of clips are concatenated as one reproduction sequence. If a UDF such as that shown in Fig. 9 is used, a series of continuously recorded Z-recorded videos can be stored as one clip.
  • FIG. 23 (a) and (b) show the clips before and after editing.
  • FIG. 23 (a) shows the editing range of a clip for the playlist generated in FIG.
  • FIG. 23 (a) it is assumed that editing is performed to delete the middle of the stream of the 01002.m2ts file. This In this case, the corresponding information in the clip information file (01002. clpi) is also deleted.
  • Figure 23 (b) shows the edited clip (01002.clpi file and 01002.m2ts file).
  • m2ts file after editing there are two STC sequences as shown in Fig. 23 (b) as STC—id # 1 and # 2. In other words, there are multiple STC sequences in one video file.
  • m2ts files continue to have one STC sequence that spans multiple clip AV stream files. Also, depending on the editing content, there may be one STC sequence in one video stream.
  • a new data structure shown in FIGS. 24 to 26 is defined to realize flexible data management.
  • one management information file (clip information file) is not associated with one clip AV stream file.
  • One or more clip AV stream files and one management information file (clip information file) To correspond. If multiple streams are managed using only one management information file, the relationship between these files and sequences can be obtained by referring only to the time map (EP-map) as described later. As a result, only PTS and STC sequences can be played back. It is specified using.
  • the new data structure can be constructed by any of the recorder 100, the PC 108, and the camcorder 110. In the following description, it is assumed that the recorder 100 shown in FIG. 5 constructs a new data structure.
  • the encoder 203 and the Z or the CPU 211 of the recorder 100 can be used in either case of recording video based on an analog signal or recording video based on a digital signal. Can be constructed. Therefore, an example in which video is recorded based on an analog signal will be described below. Assume that the recording medium is a memory card 112 that employs the FAT32 file system.
  • the encoder 203 performs processing in the order of Figs. 4D, 4C, 4B, and 4A to generate a transport stream.
  • the encoder 203 simultaneously generates PTS and the like of each picture and stores them in the PES header 41a-1 shown in FIG. 4 (b).
  • the TS processing unit 204 Based on the generated transport stream, the TS processing unit 204 generates a clip AV stream.
  • FIGS. 24A to 24D show the relationship between the management information files 82 to 84 and the clip AV stream file 85 suitable for the FAT32 file system according to this embodiment.
  • Each file shown in FIGS. 24A to 24D is recorded on the memory card 112 when, for example, a video is continuously shot using the camcorder 110.
  • This memory card 112 employs a FAT32 file system. Needless to say, the recording capacity of the memory card 112 is more than the sum of the file sizes of all files.
  • the management structure according to the present embodiment has the following two main features.
  • a continuously captured video stream is composed of a plurality of lip AV clips !; ). Due to the limitations of the FAT32 file system described above, the data size of each clip AV stream file 85 is less than 4 GB.
  • the clip AV stream file does not need to be divided into a plurality of segments immediately after recording a moving image. Even if there is only one immediately after recording, a plurality of clip AV stream files may be generated by editing or the like. If the management information described below is used, even if multiple clip AV stream files are generated afterwards, the movie file group can be managed uniformly.
  • the second main feature is that one clip information file 84 (02001. clp i) is provided regardless of the number of clip AV stream files, as shown in Fig. 24 (c). .
  • This clip information file 84 defines a time 'address conversion table (EP—MAP) over the entire clip AV stream. If this clip information file 84 is used, the power of which video data to be played back at a specified time is stored in which clip AV stream file 85, and in which position ( It is possible to identify what number is stored in the source packet.
  • EP—MAP time 'address conversion table
  • the conversion table defines the relationship between the time of the entire clip AV stream and the data position (address). Therefore, it is sufficient to provide one play item (Fig. 10) in the playlist file 83 (02001. rpls). If the start time (In-time) and the end time (Out-time) in the play item are described with the start time and end time of the clip AV stream, respectively.
  • FIG. 25 the data structure in the clip information file 84 will be described with reference to FIGS. 25 and 26.
  • FIG. 25 schematically shows the data structure of the time-address translation table (EP—map) 87.
  • the conversion table 87 is configured by extending the conversion table data structure shown in FIG. More specifically, the conversion table 87 describes not only the correspondence with time (PTS) and address (SP N) but also the file name including the source packet. .
  • the time stamp (PTS) represents the PTS of each I picture placed at the beginning of the MPEG standard GOP.
  • the reason for describing the file name in the conversion table 87 is that one clip AV stream is divided into a plurality of files and stored as shown in FIG. In other words, it is not possible to specify which file contains the source packet corresponding to the given PTS only by the correspondence between the given time (PTS) and the source packet number (SPN).
  • PTS given time
  • SPN source packet number
  • each value of PTS and SPN is stored separately for a coarse entry and a fine entry. Not all bits are described. For example, taking 33-bit PTS as an example, the upper 17 bits of 33 bits are described as coarse entries, and the lower 17 bits are described as fine entries in conversion table 87. The 17th bit, counted from the least significant bit, is defined redundantly for both coarse entry and fine entry, but this can be changed arbitrarily by design.
  • One or more PTSs with a common coarse entry are classified into the group of coarse entries. Only one coarse entry is described in the group. On the other hand, the fine entry is described for each PTS. Each PTS in the same group can be identified by a fine entry.
  • a coarse entry and a fine entry are also established for the SPN described above.
  • the file name including the source packet to which the SPN is given is also described in association with it.
  • the file name may be described corresponding to all fine entries of SPN, or may be described in SPN coarse entry units! / ⁇ .
  • FIG. 26 shows a detailed data structure of the conversion table 87.
  • the conversion table 87 can be roughly divided into a first loop 88, a second loop 89, and a third loop 90.
  • the number of loops of the first loop 88 is Ne
  • the number of loops of the second loop 89 is Nc
  • the number of loops of the third loop 90 is Nf.
  • Ne, Nc, and Nf values are described in field 91-1. Yes.
  • the first loop 88 corresponds to a file entry described later.
  • the first loop 88 is repeated every time at least one of the recording medium, the clip AV stream storage destination folder in one recording medium, and the file name of the clip AV stream changes. In other words, even if the clip AV stream is stored across a plurality of recording media, a plurality of storage folders, and Z or a plurality of files, it can be described using the first loop 88.
  • the first loop 88 has, for example, a file name field 88-1 and an entry ID field 88-2.
  • the file name field 88-1 describes the file name of the clip AV stream. This allows the file name to be described even if one clip AV stream spans multiple files.
  • the entry ID field 88-2 a fine entry of the first source packet of the clip AV stream included in the file is described.
  • the second loop 89 and the third loop 90 define the correspondence between the PTS and the SPN. Based on this correspondence, time and address can be converted.
  • each coarse entry of PTS and SPN is described repeatedly.
  • the second loop 89 has a fine ID field 89-1, a coarse field 89-2 and 89-3.
  • the Fine ID field 89—1 is provided to identify one or more fine entries corresponding to each coarse entry.
  • Coarse fields 89-2 and 89-3 describe the PTS coarse entry and SPN coarse entry, respectively.
  • the third loop 90 fine entries of PTS and SPN are repeatedly described.
  • the third loop 90 has an offset field 90-1, fine field 90-2, and 90-3.
  • the offset field 90-1 stores the offset value up to the end of the I picture data.
  • Fine fields 90-2 and 90-3 describe the PTS fine entry and SPN fine entry, respectively.
  • the first loop 88 may be provided with other fields.
  • clip AV stream file power The media-ref-id field that describes the serial number of the recording medium to identify which recording medium is recorded, and in which BDAV directory the stream file is stored It is possible to provide a BDAV-ref-id field that indicates The reason for providing the media—ref—id field is that multiple recording media This is because if the recorder can be loaded at the same time, the divided clip AV stream file can be recorded on different recording media, so that it is necessary to specify each recording medium. The reason why the BDAV-ref-id field is provided is that a plurality of BDAV directories can be generated for the same recording area (the same recording medium).
  • the CPU 211 can determine the contents of each entry of the conversion table 87 described above.
  • the CPU 211 stores the conversion table 87 in the clip information file and further writes it in the memory card 112.
  • the CPU 211 also generates the conversion table 87 when recording a digital broadcast program.
  • the processing at this time is as follows. First, the CPU 211 analyzes the received transport stream according to the data structure shown in Figs. 4 (a) to 4 (c). The CPU 211 detects the GOP header and the I picture header from the picture header 42a, identifies the first I picture of the GOP, and extracts the PTS from the PES header 41a-1 at that time. As a result, the CPU 211 can generate a PTS fine entry in the conversion table 87.
  • the TS processing unit 204 when the TS processing unit 204 generates a clip AV stream from the transport stream, the CPU 211 can specify in which source packet the data of the first I picture of the GOP is stored. The CPU 211 can generate a corresponding SPN fine entry according to the position of the source packet.
  • a series of video data streams is divided into a plurality of tap AV stream files. It is assumed that each file is stored in a plurality of recording media and / or stored in a plurality of BDAV directories.
  • the conversion table 87 is further provided with a status field 912! /. For example, when the conversion table 87 defines the storage destinations of all the clip AV stream files divided, the CPU 211 of the recorder 100 describes “1 1” in the status field 912. When only the storage location of some clip AV stream files is specified, describe a value other than “11” in the status field 91-2.
  • the CPU 211 of the recorder 100 can determine whether or not the storage destination of all clip AV stream files is described in the conversion table 87, the result can be described in the status field 91-2. By checking the value of the status field 91-2 at the time of playback, the CPU 211 can identify whether or not it is capable of playing at least all of the video. A more specific description of the status field 91-2 will be described later with reference to FIG.
  • the recorder 100 reads out the clip information file 84, the clip AV stream file 85, and the like storing the conversion table 87 from the memory capability 112 shown in FIG. 24, and reproduces a picture based on them.
  • the management file 82, playlist file 83, clip information file 84, etc. shown in FIG. 24 are read by the memory card control unit 217 when the memory card 112 is loaded in the recorder 100, and stored in the RAM 212.
  • FIG. 27 shows a processing procedure for reproducing a picture corresponding to the designated PTS using the conversion table 87.
  • the CPU 211 of the system control unit 250 acquires information (PTS) that specifies the playback time of a picture.
  • the specified PTS may be a PTS value corresponding to a specific playback time specified by the user power, or a value corresponding to the playback time of the I picture during fast forward, fast reverse playback, etc. Also good.
  • PTS information
  • the given PTS is divided into upper 17 bits and lower 17 bits of the 33 bits and processed as follows.
  • step S272 the CPU 211 uses the upper 17 bits of the given PTS value to set the second loop 89 in the time 'address conversion table 87 (EP—map—for—one—stream) in FIG. To identify the PTS coarse entry 89-2 to which the PTS belongs and the corresponding SPN coarse entry 89-3.
  • the fine ID field 89— A value of 1 is also specified.
  • the fine ID field 89-1 information indicating which loop should be referred to for the third loop 90 of the table 87 is described.
  • step S273 the CPU 211 detects the specified fine ID field 89.
  • step S274 based on SPN fine entry 90-3 and first loop 88 of table 87, CPU 211 identifies the file name storing the source packet to which the SPN is attached.
  • the entry ID field 88-2 in the first loop 88 describes the value of the fine entry of the first source packet of the clip AV stream included in each file.
  • the file name is described in the file name field 88-1.
  • the CPU 211 determines whether or not the value of the SPN fine entry 90-3 obtained in the previous step is equal to or greater than the value of the fine entry described in the entry ID field 88-2. judge. When they are equal, the CPU 211 identifies the file name from the file name field 88-1 corresponding to the SPN file entry 88-2. When it is larger, the CPU 211 determines whether or not the value of the SPN fine entry 90-3 is equal to or larger than the value of the fine entry described in the next entry ID field 88-2.
  • the value of the fine entry described in the value entry ID field 88-2 of the SPN fine entry 90-3 is equal to or smaller than that.
  • the file name is specified as described above.
  • the file name is specified from the file name field 88-1 specified in the entry ID field immediately before the entry ID field referenced at that time.
  • step S275 the CPU 211 detects the memory card control unit 217. Specify the specified file name and instruct to read one or more source packets.
  • the source packet to be read out is one or more source packets after the source packet to which the previously specified SPN is assigned.
  • the TS processing unit 204 receives the read source packet, and sends the transport stream subjected to the processing described with reference to FIG.
  • the decoder 206 decodes the picture, it is finally output as an analog signal to a TV or the like, and playback is started.
  • FIGS. 28A and 28B show clips before and after editing according to the present embodiment. There is one clip information file 84 before and after editing.
  • FIGS. 29 (a) to 29 (d) show the correspondence between the clip information file after the editing process shown in FIG. 28 (b) and the clip AV stream file.
  • the first and second lip AV stream files (02001.m2ts and 02002.m2ts) in FIG. 28 (b) are shown.
  • the data structure will be described together with the process of generating the time / address conversion table by the CPU 211 with reference to FIGS. 29 (a) to (d).
  • FIG. 29 (a) shows the concept of the time address conversion table stored in one clip information file for the edited clip AV stream.
  • Fig. 29 (a) also shows the top force in order, the first row is the position where the file entry is provided, the second row is the position where the coarse entry is provided, and the third row is the position where the fine entry is provided. Is shown.
  • FIG. 29 (b) shows the range of two STC sequences, respectively. 02001. The entire m2ts and the stream up to the edit point of 02002. m2ts are given STC—id # l, and the stream after the edit point of 02002. m2ts is given ST C_id # 2 . These are separate STC sequences.
  • FIG. 29 (c) shows two files in which clip AV streams are stored.
  • the CPU 211 first registers the file entry # 0 in the table in association with the address corresponding to the head of the STC sequence (STC_id # 1) (that is, the head of the stream file 02001.m2ts).
  • File entry # 0 contains the file name of the stream file (0200
  • each file entry 88-1 and fine entry 8 8-2 are described in association with each other.
  • each file entry is stored in the first loop 88 in association with the fine entry provided first in the file designated by the file entry.
  • a clip AV stream to which STC-id # 1 is assigned includes a plurality of files 02001.m2ts and 0200 due to restrictions of the FAT32 file system.
  • the value of ATS stored in the header 74 of each source packet of the clip AV stream changes continuously and periodically.
  • the value of ATS changes periodically without interruption.
  • Fig. 29 (d) shows the change in ATS of the clip AV stream across multiple files.
  • File 02001. m2ts force file 02002. It is understood that the value of ATS is continuous even in the point of switching to m2ts.
  • the TS processing unit 204 and the decoder 206 have reset the processing circuit when analyzing a clip AV stream from a different file.
  • the buffer temporarily storing the reference picture in the decoder 206 is also cleared, and the reproduced video is interrupted.
  • the CPU 211 does not reset the processing circuits of the TS processing unit 204 and the decoder 206 when the file is switched.
  • the clock counter 262, the PLL circuit 263, etc. of the TS processing unit 204 continue to operate even when the file is switched.
  • the clock counter 262 outputs the timing information for continuous conversion, and the source “de” packetizer 265 sends the TS packet to the decoder 206 based on the signal and the ATS.
  • the source “de” packetizer 265 sends the TS packet to the decoder 206 based on the signal and the ATS.
  • the CPU 211 can use the description of the file entry as a reference for determining whether or not the processing circuit such as the TS processing unit 204 is reset. When playing back the file specified in the file entry, the CPU 211 does not reset the processing circuit. The reason is that the presence of a file entry means that one clip AV stream is divided into a plurality of files and stored. However, when file entry # 0 is added, it means the start of a new stream, so the processing circuit can be reset.
  • ATS is discontinuous at the point where STC_id # 1 is switched to STC_id # 2 (for example, editing point). At this time, there is no need to guarantee continuous playback of the video.
  • the storage file name (“02002. m2ts”) is added to file entry # 0 for the stream to which STC—id # 2 is assigned. Therefore, when the video is reproduced from this stream, the TS processing unit 204 and the decoder 206 are reset.
  • FIG. 30 shows the correspondence between the fine entry and the I picture arranged at the head of each GOP.
  • the picture corresponding to the given playback start time (PTS) is B-picture 301.
  • GOP (N-1) is stored across the clip AV stream finale 02001.m2ts and 02002.m2ts.
  • data of B picture 301 is file 02002. m2ts It is assumed that it is stored in
  • the CPU 211 when the CPU 211 obtains the PTS, the upper 17 bits of the PTS are used to set the PTS coarse entry 89-2, the corresponding SPN coarse entry 89-3, and the fine ID field 89-1 Is identified. Subsequently, the CPU 211 uses the value of the specified fine ID field 89-1 to specify the PTS and SPN fine entries 90-2 and 90-3 corresponding to the PTS / SPN coarse entry.
  • the fine entry (N-1) shown in FIG. 30 is obtained as the PTS fine entry.
  • the CPU 211 compares the obtained PTS fine entry with the lower 17 bits of the given PTS, and determines that the latter is larger.
  • the CPU 211 reads the next fine entry of the obtained PTS fine entry (PTS fine entry N in FIG. 30) from the third loop 90 of the time / address conversion table 87, and the given PTS fine entry and the given entry. Compare the lower 17 bits of PTS. As a result, it is determined that the latter is smaller.
  • the decoder 206 decodes in order of the leading I picture of GOP (N-1), and when a PTS picture (B picture 301) that matches the given PTS appears, the decoder 206 outputs the output from that B picture 301. Just start. The above process can be performed for any picture.
  • FIGS. 31 (a) to 31 (d) show other examples of the data structure of the fine entry.
  • Various information can be described in place of the fine entry of the first source packet in the file entry (first loop 88) shown in FIG.
  • Figure 31 (a) shows field 88a that defines the first coarse entry and the last coarse entry set.
  • Figure 31 (b) shows a field 88b that defines the first fine entry and the last fine entry pair.
  • Figure 31 (c) shows field 88c which defines the first coarse entry and the number of coarse entries.
  • Figure 31 (d) shows a field 88d that defines the first fine entry and the number of fine entries.
  • the power of adding a file entry In place of the additional recording, or along with the additional recording, the information defined as the file entry (the above-mentioned media-ref-id, BDAV-ref-id, Clip A part or all of —AV—stream—file—name) may be stored in the coarse entry (second loop 89 shown in FIG. 26) or fine entry (third loop 90 shown in FIG. 26) itself.
  • the information defined as the file entry may be stored in the coarse entry (second loop 89 shown in FIG. 26) or fine entry (third loop 90 shown in FIG. 26) itself.
  • FIG. 32 shows an extended time map TMAP that includes a file entry 32, a time entry 33, and a VOBU entry 34.
  • the information regarding the coarse entry (second loop 89) in FIG. 26 is replaced with the Time entry, and the fine entry (first Replace information about loop 88) with VOBU entries
  • the power of adding a file entry to the time map TMAP instead of adding or adding information, the information specified as the file entry (media-ref-id, B DAV-ref-id above) , Clip-AV-stream-file-name) may be stored in the Time entry 33 or the VOBU entry 34 itself. Also, provide a field for storing information equivalent to the status field 91-2 shown in FIG.
  • FIG. 1 An AV stream file is recorded.
  • these multiple files may be recorded on separate recording media.
  • a modification will be described with reference to FIG.
  • FIG. 33 (a) shows a range of “1 shot” in which moving images are continuously shot.
  • Figure 33 (b) shows the concept of a clip containing content management information and stream data.
  • One shot that is, one content can be divided into a plurality of clips a to c and stored in each of the memory cards 112a to 112c (may be completed with one clip).
  • One clip includes clip metadata 331, a time map 332, and a clip AV stream 333 ⁇ (proportional stream).
  • the clip AV stream 333 is composed of partial streams 333a to 333c, and is included in each of the clips a to c.
  • FIG. 33 (b) shows the force with three clips a to c. Since the configuration of each clip is the same, clip a is taken as an example here.
  • partial stream 333a is referred to as partial stream a.
  • Clip a includes clip metadata a, time map a, and partial stream a.
  • Clip metadata a and time map a are management information.
  • the partial stream a is data constituting the clip AV stream 333. This data corresponds to the clip AV stream file 85 (for example, 02001.m2ts) shown in FIG.
  • Clip metadata a is described in the XML format, and information necessary for content reproduction, for example, a video Z audio format or the like is defined. Details of the clip metadata a will be described later with reference to FIG.
  • the time map a is a table that defines the relationship between the display time and the storage position (address) for each playback unit.
  • this time map is called a “clip timeline” (ClipTimeLine), and the extension of the file in which the clip timeline is stored is indicated with “CTL”.
  • CTL the extension of the file in which the clip timeline is stored.
  • the time map a is the same as the time “address conversion table 87 (EP — map— for— one—stream) shown in FIG. 26 or the time map TMAP shown in FIG.
  • the time maps a to c are the same information.
  • the recorder 100 shown in Fig. 5 has three card slots. Are provided, and the memory card 112a to l12c is loaded therein, and it is assumed that the writing process is performed.
  • the recorder 100 finishes writing the partial stream files a to c sequentially in the memory capabilities 112a to 112c, the contents of the time map are determined.
  • the recorder 100 may further write the time map to each of the memory cards 112a to 112c. Since the storage location of all stream files is specified in the time map, the value “11” indicating the status is specified in the status field 91-2.
  • time maps a to c are the time 'address conversion table 87 shown in FIG. 26, the device CPU first refers to the status field 91-2, and each time map a to c includes all stream files. It can be determined that the storage destination is defined.
  • PTS time to play
  • the CPU stores the picture data to be played back based on the PTS, regardless of the memory card time map.
  • the file name of the stream file that stores the data can be specified.
  • the media-ref-id field and the file name field 88-1 of the first loop 88 in the time map are referred to.
  • the specified memory card may not be loaded in the device.
  • the CPU of the device may notify the user of information (memory card name) specifying the memory card.
  • the file name of the stream file is also specified, for example, ⁇ Please insert the memory card yyyy on which the file with the file name xxxx is recorded '' t may be displayed on the TV screen! /.
  • each memory card when the capacity of each memory card is 4 giga ⁇ it, and the file size of each partial stream is the maximum file size (4 gigabytes) in the FAT32 file system, the memory card 112a The recordable capacity of ⁇ c runs out and management information cannot be written to the memory card 112. Therefore, it should be noted that the file size of each partial stream file is smaller than 4 giganoite at this time. Furthermore, the partial stream is composed of an integer number of source packets, which is less than 4 gigabytes, which is the limit from the above file system, and an integer multiple of the source packets (192 bytes) You can do it.
  • the arrival time information ATS in which the identification information (STC-id) of the system time base STC of the clip AV stream 333 does not change continuously as shown in Fig. 29 (d). Yes. Since this relationship is maintained even if it is divided into partial streams a to c, the STC-ids of the partial streams match, and the ATS also changes continuously before and after the boundary between two consecutive partial streams. Yes.
  • the ATS clock counter 262 (Fig. 6) is not reset, or a value unrelated to the previous count value is not set.
  • the clock counter 262 (Fig. 6) continuously counts based on the set reference time and outputs the count value.
  • FIG. 33 (c) shows three memory cards 112a to 112c. Data files constituting the clips a to c are written to the memory cards 112a to 112c.
  • FIG. 34 shows the contents of information included in the clip metadata 331.
  • Clip metadata 331 is classified into two types: configuration data (“Structural”) and description data (“Descriptive”).
  • the clip name is information for specifying the file, and for example, a well-known UMID (Unique Material IDentifier) is described.
  • UMID Unique Material IDentifier
  • the UMID is generated, for example, by combining the time when content is generated and the MAC (Media Access Control) address of the device that generated the content.
  • UMID is generated taking into account whether content has been newly generated. That is, a value different from the UMID of the original content is added to the content that has been added with UMID and then edited and processed. Therefore, when UMID is used, different values are defined for content existing all over the world, so the content can be uniquely identified.
  • the essence list describes information (video information and audio information) necessary for decoding video and audio.
  • the video information describes the format of video data, the compression encoding method, the frame rate, and the like.
  • the audio information describes the audio data format, sampling rate, and the like.
  • the compression code method is the MPEG-2 method.
  • the relation information specifies the relationship between the clips when there are a plurality of clips a to c as shown in Fig. 33 (b). Specifically, the relationship information defines the relationship of the playback or the playback order of the clip AV stream (partial stream) corresponding to each of the plurality of clips. These are managed as connection information 340.
  • connection information 340 describes information for specifying the first clip of the shot, and information for specifying the clip name immediately before and the clip name immediately after the clip.
  • the information specifying the clip name is defined by, for example, the UMID and the serial number unique to the memory card 112.
  • the description data includes access information, devices, shooting information, and the like.
  • the access information describes the person who last updated the clip and the date and time.
  • the device information includes the manufacturer name, the serial number of the recorded device, the model number, and so on.
  • the shooting information includes the photographer name, shooting start date / time, end date / time, and position.
  • the time maps a to c are the same information, but they may not be the same information.
  • the assumed time map modes (1) to (4) will be described.
  • time map X is used for reproduction of partial stream X only. According to this time map, if the specified playback time (PTS) is not described in the first accessed time map, the relation information is used to move to the next or previous clip, etc., and again in that clip. You need to refer to the time map.
  • PTS playback time
  • time map X is used for playback of partial streams from first partial stream 0 to partial stream X.
  • time map power can also be specified.
  • time map X is the playback of the partial stream from the first partial stream 0 to partial stream X. Furthermore, according to the time map X, the file of the next partial stream (x + 1) can be accessed). According to this time map, in addition to the advantage (2) described above, the time map of the next partial stream file can be directly specified without using the relation information, so that access can be performed at high speed.
  • Time maps corresponding to all partial streams are provided (time map X is used for playback of all partial streams). This form is the same as the above-described aspect described with reference to FIG. The time maps stored in each memory card are the same.
  • status field 912 By using the above-described status field 912, it is possible to indicate which of the above-described (1) to (4) the time map recorded on the memory card is.
  • status field 91 2 contains “00” for the time map of (1), “01” for the time map of (2), and “10” for the time map of (3). Each value of “11” should be described for the time map of (4).
  • the CPU of the device can switch how to refer to each file from the given playback time (PTS).
  • the data processing according to the present invention described above can be realized by a computer executing a predetermined program.
  • the program can be stored in a flexible disk, hard disk, optical disk, or other computer-readable information recording medium.
  • the data processing device of the present invention generates a table (access map) that can be described uniformly regardless of the inclusion relationship between the recording medium, the file, and the stream in the file.
  • This access map stores information for identifying the file of the stream, information on the recording medium on which the file is recorded, information on the Z or folder, and the like.
  • the access map the data processing device does not need to understand the storage status of all or part of the stream by analyzing the stream.
  • the access map it is possible to access a desired playback position of the stream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

 1回の録画で得られる映像・音声データを複数のファイルに分割したときのデータの管理方法を提供する。  データ処理装置は、映像のデータストリーム、および、データストリームに基づいて映像を再生するための管理情報のそれぞれを1以上の記録媒体に書き込む。データストリームには、映像を構成する各ピクチャのピクチャデータ、および、各ピクチャの表示時刻を特定する時刻情報が対応付けられて格納されている。データ処理装置は、1以上のピクチャに関し、時刻情報とデータストリーム内のピクチャデータの格納位置と、ピクチャデータが格納されるストリームファイルを特定するファイル情報とを対応付けたテーブルを、管理情報の一部として生成するプロセッサと、データストリームおよび管理情報を、1以上のストリームファイル、および、1以上の管理情報ファイルとして記録媒体に書き込むコントローラとを備えている。                                                                         

Description

明 細 書
データ処理装置
技術分野
[0001] 本発明は、動画データを記録媒体に記録し、記録された動画データを管理する技 術に関する。
背景技術
[0002] 近年、 DVD等の光ディスクにデジタルデータを書き込み、蓄積できる光ディスクレ コーダの普及が進んでいる。書き込まれる対象は、例えば放送された番組のデータ ストリームや、カムコーダ等によって撮影された映像および音声のデータストリームで ある。書き込まれたデータは、ランダムアクセス可能な状態で DVDに保持される。
[0003] DVDでは、 UDF (Universal Disc Format)と呼ばれるファイルシステムが採用 されて 、る。 UDFファイルシステムは映像 ·音声データの記録 '再生'編集に適して いる。例えば、 DVDに主に書き込まれる映像'音声データは大きいため、 UDFフアイ ルシステムにおける最大ファイルサイズは十分大きく設定されている。また、 UDFファ ィルシステムではセクタ単位でのデータの編集が容易である。特許文献 1は、このよう な UDFファイルシステムを開示して!/、る。
[0004] DVDに代表されるランダムアクセス可能な記録媒体に映像 ·音声データを記録す るために、従来はデータの性質に応じた適切なファイルシステムが開発され、利便性 や機器実装容易性を確保してきた。
特許文献 1 :特開 2000— 013728号公報
発明の開示
発明が解決しょうとする課題
[0005] 近年は、 PCを利用した映像'音声データの編集 (ノンリニア編集 (NLE) )が普及し つつあるため、 PCのファイルシステムで編集されることを想定して映像'音声データ を記録し、管理することが必要とされている。
[0006] PCでは一般的に FAT32ファイルシステムが採用されている。 FAT32ファイルシス テムでは、 1データファイルのファイルサイズは 4GB未満に制限される。よって、 FAT 32ファイルシステムでの編集を考慮すると、 1回の録画で得られる映像 ·音声データ を複数のファイルに分割して格納する必要が生じる。そこで、それらの映像'音声デ ータをどのように管理するかが問題となる。
[0007] 特に、近年は小径のハードディスクや半導体メモリのような記録媒体を複数装填で きる機器 (例えばカムコーダ)が開発されているため、分割された映像 ·音声データが 複数の記録媒体に跨って書き込まれることもある。よって、映像 ·音声データが分割さ れて 1つの記録媒体に書き込まれている状況のみならず、異なる記録媒体に書き込 まれている状況においても、適切に映像 ·音声データを管理する必要がある。
[0008] 本発明の目的は、 1回の録画で得られる映像'音声データを複数のファイルに分割 したときのデータの管理方法を提供することである。
課題を解決するための手段
[0009] 本発明によるデータ処理装置は、映像のデータストリーム、および、前記データスト リームに基づいて前記映像を再生するための管理情報のそれぞれを 1以上の記録媒 体に書き込む。前記データストリームには、前記映像を構成する各ピクチャのピクチャ データ、および、前記各ピクチャの表示時刻を特定する時刻情報が対応付けられて 格納されている。前記データ処理装置は、 1以上のピクチャに関し、前記時刻情報と 前記データストリーム内の前記ピクチャデータの格納位置と、前記ピクチャデータが 格納されるストリームファイルを特定するファイル情報とを対応付けたテーブルを前記 管理情報の一部として生成するプロセッサと、前記データストリームおよび前記管理 情報を、 1以上のストリームファイル、および、 1以上の管理情報ファイルとして前記記 録媒体に書き込むコントローラとを備えて 、る。
[0010] 前記コントローラは、複数のストリームファイルおよび 1つの管理情報ファイルを生成 してちよい。
[0011] 前記データストリームは、単独で復号ィ匕が可能な基準ピクチヤの基準ピクチャデー タから開始される 1以上の再生単位を含み、前記プロセッサは、前記再生単位の先 頭の基準ピクチャデータに対し、前記テーブルを生成してもよ 、。
[0012] 前記プロセッサは、前記複数のストリームファイルの各々において最初に配置され た前記先頭の基準ピクチャデータに対し、前記テーブルを生成してもよ 、。 [0013] 前記データストリームは、連続して録画された前記映像に関し、共通の基準時刻に 基づいて生成された前記時刻情報を含み、前記コントローラは、前記共通の基準時 刻に基づいて生成された前記データストリームを分割して、前記複数のストリームファ ィルを生成してもよい。
[0014] 前記データストリームは、一定のデータ長を有する複数のパケットから構成されてお り、前記プロセッサは、前記データストリーム内の前記複数のパケットの配置に基づい て、前記ピクチャデータの格納位置を特定してもよ 、。
[0015] 前記コントローラは、 FAT32ファイルシステムが採用されている前記記録媒体に対 して、前記 1以上のストリームファイル、および、前記 1以上の管理情報ファイルを書き 込んでもよい。
[0016] 前記データ処理装置は、アナログ信号に基づいて前記 1以上の再生単位を生成す るエンコーダをさらに備えて 、てもよ 、。
[0017] 前記データ処理装置は、アナログ信号に基づいて映像を連続して録画するときに おいて、前記共通の基準時刻に基づいて前記データストリームを生成するェンコ一 ダをさらに備えていてもよい。 本発明による記録媒体には、映像のデータストリーム を格納した 1以上のストリームファイル、および、前記データストリームに基づいて前記 映像を再生するための管理情報を格納した 1以上の管理情報ファイルが記録されて いる。前記データストリームには、前記映像を構成する各ピクチャのピクチャデータ、 および、前記各ピクチャの表示時刻を特定する時刻情報が対応付けられて格納され ている。前記管理情報には、 1以上のピクチャに関し、前記時刻情報と、前記データ ストリーム内の前記ピクチャデータの格納位置と、前記ピクチャデータが格納されるス トリームファイルを特定するファイル情報とを対応付けたテーブルが格納されている。 発明の効果
[0018] 本発明によれば、データ処理装置は、データストリームが格納されたファイルを特定 するファイル情報等を格納したテーブルを生成する。このテーブルを参照すれば、デ 一タストリームを解析することなぐデータストリームの全部または一部がどのファイル に格納されているかを特定できる。よって、データストリームの所望の再生位置に高 速にアクセスすることができる。 図面の簡単な説明
[図 1]本発明の実施形態による光ディスクレコーダ 100と他の機器とによって形成され るシステムの構成を示す図である。
[図 2]トランスポートストリーム (TS) 20のデータ構造を示す図である。
[図 3] (a)はビデオ TSパケット 30のデータ構造を示す図であり、 (b)は、オーディオ T
Sパケット 31のデータ構造を示す図である。
[図 4] (a)〜 (d)は、ビデオ TSパケットからビデオピクチャを再生する際に構築される ストリームの関係を示す図である。
[図 5]レコーダ 100の機能ブロックの構成を示す図である。
[図 6]TS処理部 204の詳細な機能ブロックの構成を示す図である。
[図 7] (a)〜(e)は、トランスポートストリームとクリップ AVストリームとの関係を示す図で ある。
[図 8]BD205aの記録領域と、そのディレクトリ Zファイル構造を示す図である。
[図 9] (a)〜 (d)は、管理情報とストリームデータとの関係を示す図である。
[図 10]プレイリストファイル 83に格納される情報 (エントリ)およびプレイリストファイル のデータ構造を示す図である。
[図 11]クリップ情報ファイル 84に格納される情報 (エントリ)およびクリップ情報ファイル の一部のエントリに関するデータ構造を示す図である。
[図 12]クリップ情報ファイル 84に格納される情報 (エントリ)およびクリップ情報ファイル の他の一部のエントリに関するデータ構造を示す図である。
[図 13]時間 ·アドレス変換テーブルのデータ構造を示す図である。
[図 14]第 1の例による時間とアドレスの対応を示す図である。
[図 15]第 2の例による時間とアドレスの対応を示す図である。
[図 16] (a)はリアルプレイリスト 1および 2と、対応するクリップ 1および 2を示す図であり 、 (b)は INIから OUT1までの第 1区間および IN2から OUT2までの第 2区間を連続 して再生するバーチャルプレイリストを示す図である。
[図 17] (a)はバーチャルプレイリストを分割するときの分割点の位置を示す図であり、 (b)は分割されたバーチャルプレイリスト 1および 2を示す。 [図 18] (a)は併合の対象であるバーチャルプレイリスト 1および 2を示す図であり、 (b) は 1つに併合されたバーチャルプレイリストを示す図である。
[図 19] (a)は区間 A— Bを削除の対象とするリアルプレイリストおよびクリップを示す図 であり、(b)は区間 A— Bを削除して、点 Aおよび Bの位置を結合したリアルプレイリス トおよびクリップを示す図である。
[図 20]BD2O5aにおいて管理されるサムネイルピクチャと管理ファイルとの関係を示 す図である。
[図 21] (a)〜(c)は、それぞれ、マークが付加されたバーチャルプレイリスト 312、リア ルプレイリスト 314およびクリップ 316を示す図である。
[図 22] (a)〜(d)は、ファイルサイズに上限のあるファイルシステムでのファイル構成を 説明する図である。
[図 23] (a)および (b)は、途中が削除される前後のストリームとシーケンスの相関関係 を示す図である。
[図 24] (a)〜(d)は、本実施形態による、 FAT32ファイルシステムにおいて好適な管 理情報ファイル 82〜84とクリップ AVストリームファイル 85の関係を示す図である。
[図 25]時間 ·アドレス変換テーブル (EP— map) 87のデータ構造を模式的に示す図 である。
[図 26]変換テーブル 87の詳細なデータ構造を示す図である。
[図 27]変換テーブル 87を利用して指定された PTSに対応するピクチャを再生する処 理の手順を示すフローチャートである。
[図 28] (a)および (b)は、本実施形態による編集前後のクリップを示す図である。
[図 29] (a)は編集されたクリップ AVストリームに対する、一つのクリップ情報ファイル に格納された時間 'ァドレス変換テーブルの概念を示す図であり、 (b)は 2つの STC シーケンスの範囲をそれぞれ示す図であり、(c)はクリップ AVストリームが格納された 2つのファイルを示す図であり、 (d)は複数のファイルに跨るクリップ AVストリームの A TSの変化を示す図である。
[図 30]ファインエントリと各 GOPの先頭に配置される Iピクチャとの対応を示す図であ る。 [図 31] (a)〜(d)は、ファインエントリのデータ構造の変形例を示す図である。
[図 32]本実施形態によるタイムマップのデータ構造を示す図である。
[図 33] (a)は本実施形態における 1コンテンツの概念を示す図であり、 (b)はコンテン ッの管理情報とストリームのデータとを含むクリップの概念を示す図であり、(c)は 3つ のメモリカード 112a〜 112cを示す図である。
[図 34]クリップメタデータ 331に含まれる情報の内容を示す図である。
符号の説明
100 HDD内蔵 BDレコーダ
106 TV
108 PC
112 メモリカード
114 BD
201a デジタルチューナ
201b アナログチューナ
202 ADコンバータ
203 MPEG— 2エンコーダ
204 TS処理咅
205a BD
205b HDD
206 MPEG— 2デコーダ
207 グラフィック制御部
208 メモリ
209 DAコンバータ
210 プログラム ROM
211 CPU
212 RAM
213 CPUバス
214 ネットワーク制御部 215 指示受信部
216 インターフェース(IZF)部
217 メモリカード制御部
250 システム制御部
261 ソース'パケタイザ
262 クロックカウンタ
263 PLL回路
264 バッファ
265 ソース .デ'パケタイザ
発明を実施するための最良の形態
[0021] 以下、添付の図面を参照して、本発明によるデータ処理装置の実施形態を説明す る。本実施の形態においては、データ処理装置は光ディスクや半導体メモリ、小型 H DDなどのドライブ Zスロットを搭載した HDD内蔵型の光ディスクレコーダであるとし て説明するが、カムコーダやムービー撮影機能を有する携帯電話等でもよぐ特にこ れに限定されない。
[0022] 図 1は、光ディスクレコーダ 100と他の機器とによって形成されるシステムの構成を 示す。光ディスクレコーダ 100 (以下「レコーダ 100」と記述する)は、放送番組の映像 および音声に関する動画のデータストリームを 1種類以上の記録媒体に記録する録 画機能を有する。記録媒体として、例えば半導体メモリカード 112、小型の HDDを利 用したメモリカード 113、 Blu— rayディスク(BD) 114である。なお、これらはリムーバ ブルな記録媒体の例である力 レコーダ 100が HDDを内蔵しているときには、その H DDに動画のデータストリームを記録し、蓄積することもできる。またレコーダ 100は、 それらの記録媒体に記録されたデータストリームを読み出して動画を再生する再生 機能も有する。
[0023] 図 1には、レコーダ 100の録画機能および再生機能に関連して連携することが可能 な他の機器 (PC108、カムコーダ 110)を示している。ただし、これらの機器もまた固 有の録画機能および再生機能を有している。各機能はレコーダ 100と同等である。 以下の説明では、主としてレコーダ 100を例に挙げて説明する。 [0024] レコーダ 100の録画機能および再生機能に関する処理は、リモコン 116や、レコー ダ 100本体のボタン(図示せず)等を利用してユーザが与えた指示に基づいて行わ れる。
[0025] まず、レコーダ 100の録画機能に関連する処理を説明する。レコーダ 100は、デジ タル放送番組に関するデジタル信号を受信するアンテナ 102a、および、アナログ放 送番組に関するアナログ信号を受信するアンテナ 102bと接続され、デジタル信号お よびアナログ信号を受信する。レコーダ 100は、例えば同軸ケーブル 104を介してデ ジタル信号およびアナログ信号を受け取る。
[0026] デジタル信号は、 MPEG— 2トランスポートストリーム(以下「トランスポートストリーム 」または「TS」と記述する)として伝送されている。 TSを受信した場合には、レコーダ 1 00は、その TSに所定の処理を行い、後述する TSのパケット構造を保持しながら BD 114に記録する。アナログ信号を受信した場合には、レコーダ 100は、そのアナログ 信号から得られた動画のデータを圧縮符号化して TSを生成し、その TSを BD114に 記録する。さらにレコーダ 100は、 SDメモリカードのような半導体を利用したメモリ力 ード 112や小型の HDDを利用したメモリカード 113にアナログ Zデジタル放送番組 を録画することもできる。また、メモリカード 112、 113に記録された静止画データなど を BD114にコピーすることもできる。なお、カムコーダ 110を利用して録画が行われ るときには、カムコーダ 110は撮影対象の映像および音声のアナログ信号に基づい て TSを生成する。
[0027] 次に、レコーダ 100が有する再生機能に関連する処理を説明する。レコーダ 100は BD114に記録された映像および音声を復号ィ匕し、 TV106、スピーカ(図示せず)等 を介して再生する。この映像および音声は放送番組に限られることはなぐ例えば力 ムコーダ 110によって記録された映像および音声であってもよい。なお、映像および Zまたは音声を記録した機器と、それらを再生する機器とが異なっていてもよい。例 えば、映像および音声が記録された BD114がレコーダ 100から取り出されて PC10 8やカムコーダ 110等の他の機器に装填されてもょ 、。そしてその BD114が装填さ れた機器が映像および音声を再生してもよ ヽ。
[0028] ここで、図 2〜図 4を参照しながら、デジタル放送信号として伝送されるトランスポー トストリームのデータ構造を説明する。
[0029] 図 2は、トランスポートストリーム (TS) 20のデータ構造を示す。 TSパケットは、例え ば、圧縮されたビデオデータが格納されたビデオ TSパケット (V—TSP) 30、圧縮さ れたオーディオデータが格納されたオーディオ TSパケット (A—TSP) 31の他、番組 表(プログラム ·アソシエーション'テーブル; PAT)が格納されたパケット(PAT— TS P)、番組対応表(プログラム ·マップ ·テーブル; PMT)が格納されたパケット(PMT — TSP)およびプログラム ·クロック ·リファレンス (PCR)が格納されたパケット(PCR— TSP)等を含む。各 TSパケットのデータ量は 188バイトである。また、 PAT— TSP、 P MT— TSP等の TSの番組構成を記述する TSパケットを一般に、 PSIZSIパケットと 呼ぶ。
[0030] 以下、本発明の処理に関連するビデオ TSパケットおよびオーディオ TSパケットを 説明する。図 3 (a)はビデオ TSパケット 30のデータ構造を示す。ビデオ TSパケット 3 0は、 4バイトのトランスポートパケットヘッダ 30a、および、 184バイトのトランスポート パケットペイロード 30bを有する。ペイロード 30bにはビデオデータ 30bが格納されて いる。一方、図 3 (b)は、オーディオ TSパケット 31のデータ構造を示す。オーディオ T Sパケット 31も同様に、 4バイトのトランスポートパケットヘッダ 31a、および、 184ノイト のトランスポートパケットペイロード 31bを有する。オーディオデータ 31bはトランスポ ートパケットペイロード 31bに格納されている。
[0031] 上述の例から理解されるように、一般に TSパケットは 4バイトのトランスポートバケツ トヘッダと、 184バイトのエレメンタリデータと力も構成されている。パケットヘッダには 、そのパケットの種類を特定するパケット識別子(Packet IDentifier;PID)が記述 されている。例えば、ビデオ TSパケットの PIDは" 0x0020"であり、オーディオ TSパ ケットの PIDは" 0x0021"である。エレメンタリデータは、ビデオデータ、オーディオデ ータ等のコンテンツデータや、再生を制御するための制御データ等である。どのよう なデータが格納されて 、るかは、パケットの種類に応じて異なる。
[0032] 以下、ビデオデータを例に挙げて、映像を構成するピクチャとの関係を説明する。
図 4 (a)〜(d)は、ビデオ TSパケットからビデオピクチャを再生する際に構築されるス トリームの関係を示す。図 4 (a)に示すように、 TS40は、ビデオ TSパケット 40a〜40d を含む。なお、 TS40には、他のパケットも含まれ得る力 ここではビデオ TSパケット のみを示している。ビデオ TSパケットは、ヘッダ 40a— 1に格納された PIDによって容 易に特定される。
[0033] ビデオデータ 40a— 2等の各ビデオ TSパケットのビデオデータから、 PES (Packet ized Elementary Stream)パケットが構成される。図 4 (b)は、パケットィ匕エレメン タリストリーム(PES) 41のデータ構造を示す。 PES41は、複数の PESパケット 41a、 41b等から構成される。 PESパケット 41aは、 PESヘッダ 41a— 1および PESペイロー ド 41a— 2から構成されており、これらのデータがビデオ TSパケットのビデオデータと して格納されている。
[0034] PESペイロード 41a— 2は、それぞれが 1つのピクチヤのデータを含んでいる。 PES ヘッダ 41a— 1には、各ピクチャの再生表示時刻を特定するプレゼンテーションタイム スタンプ(PTS)が格納されて 、る。
[0035] PESペイロード 41a— 2から、エレメンタリストリームが構成される。図 4 (c)は、エレメ ンタリストリーム(ES) 42のデータ構造を示す。 ES42は、ピクチャヘッダ、および、ピ クチャデータの組を複数有している。なお、「ピクチャ」とは一般にフレームおよびフィ 一ルドの 、ずれも含む概念として用いられる。
[0036] 図 4 (c)に示すピクチャヘッダ 42aには、その後に配置されたピクチャデータ 42bの ピクチャ種別を特定するピクチャコーディングタイプが記述され、ピクチャヘッダ 42c にはピクチャデータ 42dのピクチャ種別を特定するピクチャコーディングタイプが記述 されて!/、る。種別とは、 Iピクチャ(Intra— coded picture)、 Pピクチャ(Predictive — coded picture)ま 7こ ίま Bヒクテャ (Biairectionaliy— predictive— coded pict ure)を表す。種別が Iピクチャであれば、そのピクチャコーディングタイプは、 MPEG 2ビデオならば" 00 lb"である。
[0037] ピクチャデータ 42b、 42d等は、そのデータのみによって、または、そのデータとそ の前および Zまたは後に復号ィ匕されるデータとによって構築可能な 1枚分のフレーム のデータである。例えば図 4 (d)は、ピクチャデータ 42b力も構築されるピクチャ 43a およびピクチャデータ 42dから構築されるピクチャ 43bを示す。
[0038] TSに基づいて映像を再生する際、レコーダ 100の MPEG2デコーダ 206 (後述)は ビデオ TSパケットを取得して上述の処理にしたがってピクチャデータを取得し、復号 化することによって映像を構成するピクチャを取得する。これにより映像を TV106上 に再生することができる。逆に、映像を記録する際には、レコーダ 100の MPEG2ェ ンコーダ 203 (後述)は、図 4 (d)、(c)、 (b)および(a)の順に処理を行って、 TS40を 構築する。
[0039] 次に、図 5を参照しながら、機器のハードウェア構成を説明する。以下ではレコーダ 100を例に挙げて説明する力 その説明は図 1に示す PC108、カムコーダ 110にも 適用できる。なお、カムコーダ 110には後述するデジタルチューナ 201aを含んでい なくてもよい。
[0040] 以下、本実施形態によるレコーダ 100の構成を説明する。図 5は、レコーダ 100の 機能ブロックの構成を示す。レコーダ 100は、記録媒体として BD205aのみならず、 ハードディスクドライブ(HDD) 205bをも有している。すなわちレコーダ 100は、 HD D205bを内蔵した BDレコーダである。
[0041] レコーダ 100は、デジタルチューナ 201aおよびアナログチューナ 201bと、 ADコン ノ ータ 202と、 MPEG— 2エンコーダ 203と、 TS処理部 204と、 MPEG— 2デコーダ 206と、グラフィック帘 U御咅 207と、メモリ 208と、
Figure imgf000013_0001
CPUノ ス 213 と、ネットワーク制御部 214と、指示受信部 215と、インターフェース (IZF)部 216と、 メモリカード制御部 217と、システム制御部 250とを含む。なお、図 5には、光ディスク 205aがレコーダ 100内に記載されているが、光ディスク 205aは光ディスクレコーダ 1 00から取り外し可能であり、レコーダ 100自体の構成要素ではない。
[0042] 以下、各構成要素の機能を説明する。デジタルチューナ 201aは、アンテナ 102a ( 図 1)から 1以上の番組が含まれるデジタル信号を受け取る。デジタル信号として伝送 されるトランスポートストリームには複数の番組のパケットが混在している。複数の番組 のパケットを含むトランスポートストリームは"フル TS"と呼ばれる。デジタルチューナ 2 Olaは、選局を行ってフル TSから必要な番組のパケットのみを取り出し、 "パーシャ ル TS"として出力する。
[0043] フル TSから所望のチャンネルのパケットを取り出す手順は以下のとおりである。い ま、希望の番組の番組番号 (チャンネル番号)を Xとする。まず、フル TSカゝら番組表 ノケット(図 2の PAT— TSP)が検索される。番組表パケットのパケット ID (PID)には 、必ず 0が与えられているので、その値を有するパケットを検索すればよい。番組表 パケット内の番組表には、各番組番号と、その番組番号に対応する各番組の番組対 応表パケット(図 2の PMT— TSP)の PIDが格納されている。これにより、番組番号 X に対応する番組対応表 PMTのパケット ID (PID)を特定できる。番組対応表 PMTの PIDを XXとする。
[0044] 次に、 PID=XXが付された番組対応表パケット(図 2の PMT— TSP)を抽出すると 、番組番号 Xに対応する番組対応表 PMTが得られる。番組対応表 PMTには、番組 ごとに、視聴の対象として各番組を構成する映像'音声情報等が格納された TSパケ ットの PIDが格納されている。例えば、番組番号 Xの映像情報の PIDは XVであり、音 声情報の PIDは XAである。このようにして得られた映像情報を格納したパケットの PI D (=XV)と、音声情報を格納したパケットの PID (=XA)とを利用して、フル TSから 特定の番組に関する映像 '音声のパケットを抽出できる。
[0045] なお、フル TSからパーシャル TSを生成する際には、必要な映像 ·音声情報を格納 したパケットを取り出すだけでなく、 PSI (Program Specific Information)バケツ トおよび SI (Service Information)パケットも抽出および変更する必要がある。 PSI パケットとは、図 2に示す番組表パケット(PAT— TSP)および番組対応表パケット (P MT— TSP)等を総称するパケットである。 PSIパケットを修正する理由は、フル TSと パーシャル TSとでは含まれる番組数等が異なるため、番組表および番組対応表を パーシャル TSに適合させる必要が生じるからである。一方、 SIパケットとは、フル TS に含まれる番組の内容、スケジュール Zタイミング等を記述するデータ、独自に定義 された拡張情報 (これらは「番組配列情報」とも呼ばれる)等を含むパケットである。フ ル TSでは SIパケットに含まれるデータは 20〜30種類にも上る。これらのデータのう ち、パーシャル TSの再生等に関して重要なデータのみが抽出されて 1つの SITパケ ットが生成され、パーシャル TS内に多重化される。またパーシャル TSでは、 SITパケ ットにはそのストリームがパーシャル TSであることを示す情報(partial transport s tream descriptor)が格納されて 、る。パーシャル TS内に SITパケットを多重化す ることは慣用されている。これは、欧州 Z日本のデジタル放送規定 (DVBZARIB)と の整合'性のためである。
[0046] アナログチューナ 201bは、アンテナ 102b (図 1)力もアナログ信号を受け取り、周 波数に基づ 、て選局を行って必要な番組の信号を取り出す。そして番組の映像およ び音声信号を ADコンバータ 202に出力する。なお、図 1ではレコーダ 100は同軸ケ 一ブル 104を介してデジタル信号およびアナログ信号を取得して ヽるため、図 5に入 力される信号系統は厳密には 1本である。しかし、デジタル信号およびアナログ信号 は周波数によって容易に分離できるため、図 5ではデジタル信号およびアナログ信 号が別系統で入力されて 、るように記載して 、る。
[0047] ADコンバータ 202は入力された信号をデジタル変換して MPEG— 2エンコーダ 20 3に供給する。 MPEG— 2エンコーダ 203 (以下「エンコーダ 203」と記述する)は、録 画の開始指示を受け取ると、供給されたアナログ放送のデジタルデータを MPEG— 2形式に圧縮符号ィ匕してトランスポートストリームを生成し、 TS処理部 204に入力す る。この処理は、図 4 (d)に示す各ピクチャから、図 4 (a)に示す TS40を生成する処 理である。具体的には、エンコーダ 203は、アナログ放送信号力も得られたピクチャ 4 3a、 43b等のデジタルベースバンド信号を取得して符号化し、ピクチャデータ 42bを 生成する。そして図 4 (c)に示す ES42を生成する。
[0048] また、エンコーダ 203はピクチャ(フレームまたはフィールド)の再生出力時刻を特 定するプレゼンテーションタイムスタンプ (PTS)等も生成し、その PTS等を PESへッ ダ 41aに格納して図 4 (b)に示す PES41を生成する。その後、エンコーダ 203は図 4 (a)に示す TS40を構築する。上述の処理は、エンコーダ 203が録画の終了指示を 受け取るまで継続される。なお、エンコーダ 203は圧縮符号ィ匕を行うために、参照ピ クチャ等を一時的に保持するバッファ(図示せず)等を有している。
[0049] TS処理部 204は、動画の記録時にはパーシャル TSを受け取り、クリップ AVストリ ーム(ClipAVストリーム)を生成し、 BD205aおよび Zまたは HDD205bに記録する 。クリップ AVストリームとは、 BD205aおよび/または HDD205bに記録するための 形式を有するデータストリームである。クリップ AVストリームは複数の「ソースパケット」 から構成されており、「ソースパケット」はパーシャル TSを構成する各 TSパケットに所 定のヘッダを付カ卩して生成される。なお、クリップ AVストリームを生成する際の処理の 詳細は、図 7 (a)〜(e)に関連して後述する。
[0050] TS処理部 204は、動画の再生時には、 BD205aおよび Zまたは HDD205bからク リップ AVストリームを読み出し、そのクリップ AVストリームに基づいてパーシャル TS を生成して MPEG— 2デコーダ 206に出力する。
[0051] また、 TS処理部 204は、後述するメモリカード制御部 217からメモリカード 112、ま たは 113に格納された静止画データを受け取り、その静止画を加工することなくその まま BD205aおよび Zまたは HDD205bに記録する。また、 BD205aおよび Zまた は HDD205bに記録された静止画データを読み出してデコーダ 206に出力すること もできる。 TS処理部 204のさらに具体的な構成および動作は、後に図 6および図 7を 参照しながら詳述する。なお、本明細書では、 TS処理部 204が BD205aおよび Zま たは HDD205bにデータを記録し、またはそれら力もデータを読み出すとして説明し ているが、これは説明の便宜のためである。 BD205aや HDD205bに対するストリー ムの書き込みや読み出しは、実際には、ディスクの回転、ヘッドの移動とともに各々の ドライブ装置に設けられたコントローラ(図示せず)が行っている。
[0052] MPEG— 2デコーダ 206 (以下「デコーダ 206」と記述する)は、供給されたパーシ ャル TSを解析して MPEG— 2圧縮符号ィ匕データを取得する。そして、その圧縮符号 化データを伸長して非圧縮データに変換し、グラフィック制御部 207に供給する。ま た、デコーダ 206は、 MPEG— 2規格の圧縮符号ィ匕データのみならず、例え «JPE G規格に従った静止画データも非圧縮データに変換することができる。グラフィック制 御部 207には内部演算用のメモリ 208が接続されており、オン'スクリーン 'ディスプレ ィ(On Screen Display ;OSD)機能を実現できる。例えば、グラフィック制御部 20 7は種々のメニュー画像と映像とを合成して DAコンバータ 209に出力することができ る。 DAコンバータ 209は、入力された OSD合成画像および音声データをアナログ変 換して出力する。出力先は、例えば TV106である。
[0053] CPUバス 213はレコーダ 100内の信号を伝送する経路であり、図示されるように各 機能ブロックと接続されている。また、 CPUバス 213には、後述するシステム制御部 2 50の各構成要素も接続されて 、る。
[0054] ネットワーク制御部 214は、レコーダ 100をインターネット等のネットワーク 101に接 続するためのインターフェイスであり、例えば、イーサネット(登録商標)規格に準拠し た端子およびコントローラである。ネットワーク制御部 214は、ネットワーク 101を介し てデータを授受する。このデータは、例えば放送番組に関する番組表のデータや、 レコーダ 100の動作を制御するためのソフトウェアプログラムの更新データである。
[0055] 指示受信部 215は、レコーダ 100の本体部に設けられた操作ボタン、または、リモ ートコントローラ力もの赤外線を受光する受光部である。指示受信部 215は、ユーザ から、例えば録画の開始 Z停止、録画した番組の再生の開始 Z停止等の指示や、 装填されたメモリカード 112の静止画を 0205&または11002051)にコピーする指 示を与える。
[0056] インターフェース(IZF)部 216は、レコーダ 100が他の機器と通信するためのコネ クタおよびその通信を制御する。 IZF部 216は、例えば USB2. 0規格の端子、 IEE E1394規格の端子および各規格によるデータ通信を可能とするコントローラを含み、 各規格に準拠した方式でデータを授受することができる。例えば、レコーダ 100は、 USB2. 0規格の端子を介して PC108や、カムコーダ(図示せず)等と接続され、 IEE E 1394規格の端子の端子を介してデジタルノヽイビジョンチューナや、カムコーダ(図 示せず)等と接続される。
[0057] メモリカード制御部 217は、メモリカード 112をレコーダ 100に装填するためのスロッ ト、および、レコーダ 100とメモリカード 112との間のデータ通信を制御するコントロー ラである。メモリカード制御部 217は、 CPUバス 213を介して動画データ、静止画デ ータ、それらに関連する管理情報等を受け取り、装填されたメモリカード 112、 113に 書き込む。またメモリカード制御部 217は、装填されたメモリカード 112、 113から静 止画データファイル、動画データファイル等を読み出して、 CPUバス 213に伝送する
[0058] システム制御部 250は、レコーダ 100内の信号の流れを含む全体的な処理を制御 する。システム制御部 250は、プログラム ROM210と、 CPU211と、 RAM212とを有 している。それぞれは CPUバス 213に接続されている。プログラム ROM210にはレ コーダ 100を制御するためのソフトウェアプログラムが格納されている。
[0059] CPU211は、レコーダ 100の全体の動作を制御する中央制御ユニットである。 CP U211は、プログラムを読み出して実行することにより、プログラムに基づいて規定さ れる処理を実現するための制御信号を生成し、 CPUバス 213を介して各構成要素 に出力する。また CPU211は、後述の管理情報 (例えば図 24に示す管理ファイル 8 2、プレイリストファイル 83、クリップ情報ファイル 84)を生成し、 CPUバスを介して TS 処理部 204やメモリカード制御部 217に出力する。
[0060] メモリ 212は、 CPU211がプログラムを実行するために必要なデータを格納するた めのワーク領域を有する。例えば、 CPU211は、 CPUバス 213を使用してプログラム ROM210からプログラムをランダムアクセスメモリ(RAM) 212に読み出し、そのプロ グラムを実行する。なお、コンピュータプログラムは、 CD— ROM等の記録媒体に記 録して市場に流通され、または、インターネット等の電気通信回線を通じて伝送され る。これにより、 PC等を利用して構成されたコンピュータシステムを、本実施形態によ るレコーダ 100と同等の機能を有するデータ処理装置として動作させることができる。
[0061] 図 6は、 TS処理部 204の詳細な機能ブロックの構成を示す。 TS処理部 204は、ソ ース 'パケタイザ 261と、クロックカウンタ 262と、 PLL回路 263と、ノ ッファ 264と、ソ ース 'デ'パケタイザ 265とを有する。
[0062] ソース'パケタイザ 261は、パーシャル TSを受け取り、そのパーシャル TSを構成す る TSパケットの前に所定のヘッダを付カ卩してソースパケットを生成して出力する。へッ ダには、その TSパケットを受信した時刻(すなわちその TSパケットの到着時刻)を示 す時刻情報 ATS (Arrival Time Stamp)が含まれている。 TSパケットの到着時刻 は、ソース'パケタイザ 261に与えられる基準時刻からのカウント値 (カウント情報)に 基づいて特定される。 TSパケットの到着時刻に関する情報を含める理由は、図 7を 参照しながら後述する。
[0063] クロックカウンタ 262および PLL回路 263は、ソース'パケタイザ 261が TSパケット の到着時刻を特定するために必要な情報を生成する。まず PLL回路 263は、パーシ ャル TSに含まれる PCRパケット(図 2の PCR— TSP)を抽出して、基準時刻を示す P CR (Program Clock Reference :プログラム時刻基準参照値)を取得する。 PC Rの値と同じ値がレコーダ 100のシステム基準時刻 STC (System Time Clock)と して設定され、基準時刻とされる。システム基準時刻 STCのシステムクロックの周波 数は 27MHzである。 PLL回路 263は、 27MHzのクロック信号をクロックカウンタ 26 2に出力する。クロックカウンタ 262はクロック信号を受け取り、そのクロック信号をカウ ント情報としてソース ·パケタイザ 261に出力される。
[0064] ノッファ 264は、ライトバッファ 264aおよびリードバッファ 264bを有する。ライトバッ ファ 264aは、送られてきたソースパケットを逐次保持し、合計のデータ量が所定値( 例えばバッファの全容量)になったときに、書き込みのために BD205a等に出力する 。このとき出力される一連のソースパケット列(データストリーム)を、クリップ AVストリー ムと呼ぶ。一方、リードバッファ 264bは、 BD205a等力も読み出されたクリップ AVスト リームを一時的にバッファして、ソースパケット単位で出力する。
[0065] ソース .デ'パケタイザ 265は、ソースパケットを受け取って TSパケットに変換し、ノ 一シャル TSとして出力する。留意すべきは、ソース 'デ'パケタイザ 265は、クロック力 ゥンタ 262から与えられるタイミング情報と、ソースパケットに含まれていた TSパケット の到着時刻情報 ATSとに基づ ヽて、元の到着時刻に対応する時間間隔で TSバケツ トを出力することである。これにより、 TS処理部 204は、記録時の TSパケットの到着タ イミングと同じタイミングで TSパケットを出力することができる。なお、ソース 'デ'パケ タイザ 265は、読み出したパーシャル TSの基準時刻を指定するために、例えば最初 のソースパケットにおいて指定されている到着時刻を初期値としてクロックカウンタ 26 2に送る。これにより、クロックカウンタ 262においてその初期値力もカウントを開始さ せることができ、よってその後のカウント結果をタイミング情報として受け取ることがで きる。
[0066] ここで、図 7を参照しながら、 TS処理部 204において行われる処理を具体的に説明 する。図 7 (a)〜(e)は、トランスポートストリームとクリップ AVストリームとの関係を示す 。参考のため、図 7 (a)にフル TS70を示している。フル TS70は、 TSパケットが連続 して配置されており、例えば 3つの番組 X, Yおよび Zのデータを含む。図 7 (b)は、デ ジタルチューナ 201aによってフル TS70から生成されたパーシャル TS71を示す。パ 一シャル TS71は、連続したフル TSから一部のパケットを取り出したストリームである ため、パケットが時間的に離散して存在している。このパケットの間隔は、フル TSの 送信側によって調整されており、デコーダにおいてデコードが適正に行われるために 必要な条件を満たす。この「条件」とは、 MPEG— 2TSでデコーダモデルとして規定 された T—STD (TSシステムターゲットデコーダ; TS System Target Decoder) のバッファメモリがオーバーフローおよびアンダーフローなどの不具合を引き起こさな V、ために MPEG規格上定められた条件である。
[0067] パーシャル TS71は、例えば番組 Xに関する TSパケットを含んでいる。
[0068] 図 7 (c)は、クリップ AVストリーム 72を示す。クリップ AVストリーム 72は、ソースパケ ットが連続して配列されている。各ソースパケットは、ソースパケット番号(SPN) # 0、 1、 2…で区別される。
[0069] 図 7 (d)は、ソースパケット 73のデータ構造を示す。ソースパケット 73のデータ長は 192バイトに固定されている。すなわち、各ソースパケット 73は、 188バイトの TSパケ ット 75の前に、 4バイトの TPェクストラヘッダ 74を付カ卩して構成されている。ソース'パ ケタイザ 261は、パーシャル TSを構成する TSパケットの前に TPェクストラヘッダ 74 を付加することにより、ソースパケットを生成している。
[0070] 図 7 (e)は、 TPェクストラヘッダ 74のデータ構造を示す。 TPェクストラヘッダ 74は、 2ビットのコピー許可インジケータ(CPI) 76と、 30ビットの到着タイムスタンプ ATS77 と力も構成されている。コピー許可インジケータ(CPI) 76は、そのビット値に応じて、 クリップ AVストリーム 72の全部または一部のコピー回数(0回(コピー不可) Z1回の み Z制限なし等)を規定している。到着タイムスタンプ ATS77には、 27MHz精度で 時刻が記述される。
[0071] 次に、図 8を参照しながら、クリップ AVストリームがどのように BD205a上に記録さ れるかを説明する。なお、本実施形態においては、クリップ AVストリームはメモリカー ド 112、 113等の BD205a以外の記録媒体にも書き込まれる。メモリカード 112、 113 にお 、ては、 BD205aとは異なるファイルシステム(本実施形態では FAT32ファイル システム)が採用されている。よって、以下ではまず、クリップ AVストリームが BD205a に書き込まれるときの態様を説明し、その後、クリップ AVストリームが FAT32ファイル システムを採用する記録媒体に書き込まれるときの態様を説明する。
[0072] なお、クリップ AVストリームは HDD205bにも記録され得る。このとき、 BD205aの ファイルシステムおよび FAT32ファイルシステムの!/、ずれを採用して記録してもよ!/ヽ 。ただし、 HDD205bは一般にレコーダ 100から取り外されて他の機器に装填される ことはないため、独自のデータ構造によってデータを記録してもよい。
[0073] 図 8は、 BD205aの記録領域と、そのディレクトリ Zファイル構造を示す。 BD205a は、ギャザード 'ファイル領域 81—1とリアルタイム 'データ領域 81—2とを有する。ギ ャザード'ファイル領域 81— 1の記録容量は数百メガバイトである。ギャザード'フアイ ル領域 81— 1には、クリップ AVストリームの再生等を管理する管理情報のファイル( データベースファイル)が記録される。図 8に示すように、データベースファイルは複 数種類存在しており、例えば管理ファイル 82 (Info, bdav)、プレイリストファイル 83 ( 01001. rpls、 10000. vpls)、クリップ情報ファイル 84 (01000. clpi)力存在する。 これらはアクセスされる頻度が高い。よって、ギャザード 'ファイル領域 81—1は効率 的にアクセスが可能な、 BD205aの記録領域の中間部に設けられている。また、デ ータベースファイルはクリップ AVストリーム等の動画ストリームを再生するために必須 であり、記録内容の誤りは重大な障害を引き起こす。そのため、データべ一スフアイ ルは同じ BDAVディレクトリ内の BACKUPディレクトリ(図示なし)にバックアップされ てもよい。
[0074] 一方、リアルタイム ·データ領域 81— 2の記録容量は片面単層の Blu— rayディスク であれば 23〜27ギガバイトである。リアルタイム ·データ領域 81—2には、クリップ A Vストリームのストリームファイルが記録される。例えばクリップ AVストリームファイル 85 (01000. m2ts)が記録される。先のデータベースファイルと異なり、ストリームフアイ ルの再生誤りの影響は局所的であり、その一方、連続的な読み出しを確保する必要 がある。よって、誤りの発生を低減するよりも、連続読み出しを保証する方に重点をお いた書き込み処理が行われる。具体的には、クリップ AVストリームファイル 85は最小 で 12Mバイトの連続領域 (連続した論理セクタ)に記録される。この最小の記録デー タサイズは「エクステント」と呼ばれる。なお、リアルタイム 'データ領域 81— 2には、 D Vストリームを記録することもできる力 以下ではクリップ AVストリームが記録されてい るとして説明する。
[0075] 次に、図 9を参照しながら、上述の管理ファイル 82、プレイリストファイル 83、クリップ 情報ファイル 84およびクリップ AVストリームファイル 85相互の関係を説明する。図 9 ( a)〜(d)は、管理情報とストリームデータとの関係を示す。図 9 (a)〜(c)が管理情報 であり、図 9 (d)がストリームデータである。図 9 (a)は管理ファイル 82 (Info, bdav)に 記述されるプレイリストのテーブルを示す。すなわち、管理ファイル 82には、 BD205a 上に存在するプレイリストを特定するプレイリストファイル名のテーブルが格納されて いる。ここで「プレイリスト」とは、 1以上のクリップ AVストリームの一部または全部に跨 る再生経路を規定した情報である。
[0076] 図 9 (b)は、プレイリストファイル 83 (拡張子: rplsZvpls)に記述されるプレイリストを 示す。プレイリストは、リアルプレイリストおよびバーチャルプレイリストに分類できる。リ アルプレイリストは、例えば初めてストリームデータが記録されたときにレコーダ 100に よって生成されるプレイリストであり、再生経路として動画の最初から最後までが指定 される。一方、バーチャルプレイリストは、記録されたストリームデータに対してユーザ が設定したプレイリストであり、ユーザの希望する任意の位置および区間が指定され る。
[0077] プレイリストの各区間は、プレイリスト内の各プレイアイテムにおいて規定される。す なわち、プレイアイテムには、再生開始位置に対応する開始時刻(In— time)および 再生終了位置に対応する終了時刻(Out— time)が記述される。開始時刻および終 了時刻は、映像のフレームの再生表示時刻や音声のフレームの再生出力時刻を特 定するプレゼンテーションタイムスタンプ (PTS)によって記述される。通常、記録直後 のリアルプレイリストではプレイアイテムは 1つだけ設けられ、動画の最初と最後の時 刻が指定される。一方、バーチャルプレイリストではプレイアイテムの数は任意である 。 1つのバーチャルプレイリストに複数のプレイアイテムを設け、各プレイアイテムが異 なる動画ストリームを指定するように記述することもできる。
[0078] 図 9 (c)はクリップ情報ファイル (拡張子: clpi)に記述される時間 ·アドレス変換テー ブル(EP_map)を示す。変換テーブル(EP_map) 84は、クリップ AVストリームの 再生時刻と、その時刻に再生されるデータが格納されたアドレスとを対応付けたテー ブルである。この変換テーブル 84を利用することにより、プレイアイテムにおいて指定 される開始時刻(In— time)および終了時刻(Out— time)から、その時刻に再生す べきデータが格納されたクリップ AVストリームにおけるアドレスを特定することができ る。なお、この変換テーブル 84を利用した変換の原理は、後に図 13から図 15を参照 しながら詳述する。
[0079] 図 9 (d)は、クリップ AVストリームファイル 85 (拡張子: m2ts)に格納される動画ストリ ームを示す。この図では、ファイル" 01000. m2ts"および" 02000. m2ts"の各々 力クリップ AVストリームファイルである。
[0080] 図 9 (c)および(d)に示すように、 BD205a上では、 1つのクリップ AVストリームファ ィルに対して 1つのクリップ情報ファイルが設けられる。以下では、クリップ AVストリー ムファイルと、クリップ情報ファイルの対を、クリップ (Clip)と称する。
[0081] 図 10は、プレイリストファイル 83に格納される情報(エントリ)およびそのデータ構造 を示す。拡張子" rpls"および" vpls"ファイル 83内には PlayList Oとして示すエントリ が存在する。これが上述の「プレイリスト」に対応する。プレイリスト情報(PlayList)の 下位には、プレイアイテム(Playltem) 1、 2 · · ·が記述される。各プレイアイテムには 再生対象となるクリップ情報ファイルのファイル名(Clip— Information— file— nam e)、 STCを特定するための識別子 (ref_to— STC_id)、開始時刻 (ln_time)、 終了時刻(Out— time)等が格納される。なお、プレイリストファイル 83には、 "プレイ リストマーク(PlayListMark) "として示すエントリを設けることもできる。プレイリストマ ークの機能は後述する。
[0082] 図 11および図 12は、クリップ情報ファイル 84に格納される情報(エントリ)およびタリ ップ情報ファイルのエントリに関するデータ構造を示す図である。クリップ情報フアイ ル 84には、種々のエントリが設けられている。このうち、図 11にはさらに、クリップ関連 情報(Cliplnfo)の詳細なデータ構造とシーケンス情報(Sequencelnfo)の詳細な データ構造とが示されている。クリップ関連情報 (Cliplnfo)にもまた、複数のエントリ が存在する。図 11には、クリップ関連情報に含まれる 1つのエントリ(TS— type— inf o— block)の詳細なデータ構造が示されて!/、る。
[0083] また図 12によれば、特徴点情報 (CPI)内のエントリとして時間 'アドレス変換テープ ル (EP— map)が設けられていることが理解される。このテーブルは、 1以上のクリツ プ AVストリームごとに設けられた時間 ·アドレス変換テーブル (EP— map— for— on e stream)の集合である。テーブル 86は、クリップ AVストリームごとの時間 'ァドレ ス変換テーブル(EP— map— for— one— stream)のデータ構造を示して 、る。他 のエントリ(ClipMark)等に関しては後述する。変換テーブル (EP— map)は、録画 した番組ごと、換言すれば記録したビデオ TSパケットの PIDごとに設けられる。
[0084] なお、図 12の CPIテーブルに示されるように、 EP— mapに代えて TU— mapを設 けることもできる。 TU— mapとは、パケットの到着時刻(ATS)とソースパケット番号と の対応を示すテーブルである。パケットの到着時刻のエントリは、例えば 1秒間隔で 設けられる。そして、その時刻の直後に最初に受け取られた TSパケットから生成され たソースパケットの番号力 その時刻に対応付けられる。
[0085] 次に、図 13から図 15を参照しながら、時間.アドレス変換テーブル (EP— map)の データ構造と、変換テーブル 84を利用した時間—アドレス変換の原理を説明する。 図 13は、時間.アドレス変換テーブルのデータ構造を示す。変換テーブルでは、時 間を示すタイムスタンプ (PTS)とアドレスを示すソースパケット番号(SPN)とが対応 付けられている。このタイムスタンプ(PTS)は、映像に関していえば MPEG規格の G OPの先頭に配置される各 Iピクチャの PTSを表す。またソースパケット番号(SPN)と は、その PTSに対応する時刻に再生される Iピクチャの先頭データが格納されたソー スパケット番号(SPN)である。ソースパケットのデータサイズは 192バイトであるから、 ソースパケット番号が特定されるとクリップ AVストリームの先頭力 のノイト数が特定 され、そのデータに容易かつ確実にアクセスできる。なお、この変換テーブルにおけ るソースパケット番号 XI、 X2等の実際の値は必ずしも連続する整数ではなぐ飛び 飛びに大きくなつて 、く整数値である。
[0086] 図 14は、第 1の例による時間とアドレスの対応を示す。上述のように、時間 *ァドレス 変換テーブルには GOPの先頭に配置される各 Iピクチャの PTS値のみが記述されて いるため、その PTS値以外の PTS値が開始時刻(In— time)および Zまたは終了時 刻(Out— time)として指定されると、その時刻に対応するアドレス (ソースパケット番 号)を直接得ることができない。しかし、 MPEG— 2ビデオの符号ィ匕圧縮方式では、ピ クチャ間の差分を用いて圧縮処理を行うため、最初に GOP先頭の Iピクチャを復号し なければ、続くピクチャも復号できない。したがって、 Iピクチャのエントリが記述されて いれば実際の再生には問題なぐそれ以上のピクチャ単位の再生制御は、時間'アド レス変換テーブル (EP— map)で指定される Iピクチャ力 復号を開始し、続くピクチ ャを解析 Z復号しながら、期待されるピクチャだけを表示処理すればょ ヽこと〖こなる。
[0087] 図 15は、第 2の例による時間とアドレスの対応を示す。図 14の例と異なる点を説明 する。放送番組の録画は、 1つの番組のみならず連続する複数の番組に亘る場合が ある。このとき、 PTSやソースパケット番号の値は 1つの番組内(パーシャル TS内)で は一意に定められている力 番糸且相互での調整はされていない。よって、 PTSゃソー スパケット番号の値は、 2つ以上の番組において重複する場合がある。したがって、 そのような場合にも時間 'アドレス変換テーブル (EP— map)によって確実に時間とァ ドレスとの変換を可能にする必要がある。そこで、特定の再生ポイントを一意に特定 するための情報 (STC_ID)を規定し、時刻情報とともにソースパケット番号を特定す るために利用する。
[0088] まず、最初に録画されている番組に対し、 STC— ID=0を与える。図 6に関連して 説明したように、各パーシャル TSは独自のシステム時刻基準 STCに基づ 、て処理さ れるため、番組の切り替え点においてはシステム時刻基準 STCが不連続になる。図 15には、番糸 1A、 Bおよび Cを録画したときにおいて、番糸 1Aと B、および、番組 Bと C との間に STC不連続点が存在する例を示す。各タイミングにおいて異なる STC— ID が設定されている。図 15では、最初の番組 Aは STC— ID=0、次の番組 Bは STC— ID= 1、最後の番組 Cは STC— ID = 2である。さらに、 1つの STC— IDのストリーム の最長再生時間を規定することで、同一の STC— ID内でも同一の PTSが存在しな いことを保証している。なお、 MPEGの PTSは 90KHz精度で 33ビット長であるため 、約 26. 5時間までであれば一意の PTSを与えて表示時刻を正しく記述できる。
[0089] 上述のように STC— IDを割り当てておくことにより、時刻情報(In— timeZOut— ti me)および STC— IDに基づいて、本来指定されたとおりの適切なソースパケット番 号を得ることができる。図 10に示す Playltem Oには、開始時刻(IN— time)および 終了時刻(OUT— time)の情報とともに STC— IDを特定するためのエントリ (ref_t o— STC— id)が設けられていることが理解される。
[0090] なお、カムコーダ 110のように、その機器自らが映像信号をエンコードしてクリップ A Vストリームを生成するときには、 1回の録画開始力 終了までの、一連続な記録区間 内で STCを不連続にする必要はない。このようなときには、その一連続な記録区間 中では STCが不連続にならないように機器の動作を制限してもよい。なお、レコーダ 100が映像信号を受け取って、 ADC202およびエンコーダ 203を利用してェンコ一 ドするときも同様である。
[0091] 次に、図 16から図 19を参照しながら、バーチャルプレイリストを利用したクリップ AV ストリームの編集処理を説明する。図 16 (a)は、リアルプレイリスト 1および 2と、対応 するクリップ 1および 2を示す。クリップ 1の一部およびクリップ 2の一部を連続して再生 するバーチャルプレイリストを生成することを考える。図 16 (b)は、 IN1から OUT1ま での第 1区間および IN2から OUT2までの第 2区間を連続して再生するバーチャル プレイリストを示す。第 1区間および第 2区間はそれぞれバーチャルプレイリスト内の 別個のプレイアイテムによって指定される。バーチャルプレイリストによれば、リアルプ レイリスト 1および 2およびクリップ 1および 2を直接カ卩ェすることなぐ別個のクリップの 一部の再生区間を見かけ上つなぎ合わせることができる。
[0092] し力しながら、前述の通り、 MPEG— 2ビデオ圧縮方式はピクチャ間の差分を用い て圧縮しているため、 IN2で飛び込んだ直後のピクチャは、そのピクチャの復号に必 要な先行するピクチャのデータが取得されて 、な 、ために通常復号できず、しばらく 映像が表示されないことになる。
[0093] 映像のみに関し、シームレスな再生を実現するためには、もともとのストリームを破 壊編集し、接続点でのビデオの再エンコードする必要がある。このとき、プレイアイテ ムの接続情報(connection— condition)は「4」に設定される。しかしながら、破壊 編集は元の映像が残らない編集である。そこで、破壊編集のような元のストリームの 編集は行わずに、接合点付近のストリームを集め、シームレス接続できるように再ェン コード処理した「ブリッジクリップ」と!、うクリップを新たに設けることができる。再生時は 、つなぎ目の直前でブリッジクリップに再生制御を切り替え、ブリッジクリップの再生後 に第 2区間の再生に移る。これにより、矛盾のない滑らかな場面の切り替えを実現す ることができる。なお、このブリッジクリップによる接続情報は「3」に設定される。
[0094] 図 17 (a)は、図 16 (b)のバーチャルプレイリストを分割するときの分割点の位置を 示す。図 17 (b)は、分割されたバーチャルプレイリスト 1および 2を示す。バーチャル プレイリスト 1は、リアルプレイリスト 1の区間とリアルプレイリスト 2の一部の区間の連続 再生を規定する。一方、バーチャルプレイリスト 2は、リアルプレイリスト 2の残りの区間 の再生を規定する。
[0095] 図 17 (a)および (b)に示す処理とは逆の処理、すなわち複数のバーチャルプレイリ ストを併合することもできる。図 18 (a)は、併合の対象であるバーチャルプレイリスト 1 および 2を示す。図 18 (b)は、 1つに併合されたバーチャルプレイリストを示す。
[0096] 図 17 (a)および (b)の例においても、また図 18 (a)および (b)の例においても、ノ 一チャルプレイリストを用いることにより、リアルプレイリスト 1および 2およびクリップ 1お よび 2を直接加工することなぐクリップを見かけ上分割し、または併合することができ る。
[0097] 一方、リアルプレイリストの部分削除の場合には、クリップおよびリアルプレイリストを 直接カ卩ェする必要がある。図 19 (a)は、区間 A—Bを削除の対象とするリアルプレイリ ストおよびクリップを示す。そして、図 19 (b)は、区間 A—Bを削除して、点 Aおよび B の位置を結合したリアルプレイリストおよびクリップを示す。リアルプレイリストの部分削 除および削除の場合にのみクリップおよびリアルプレイリストを直接カ卩ェする理由は、 リアルプレイリストのみが映像 ·音声データと直接の因果関係を持っためである。つま り、レコーダ上のユーザーインターフェースにおいて、ユーザにクリップを認識させず 、リアルプレイリスト(ユーザにとって、クリップと同じ意味を持つ)とバーチャルプレイリ スト(単なる再生経路情報)のみを提示することを想定して 、るためである。
[0098] 次に、図 20を参照しながらサムネイルピクチャの管理を説明する。図 20は、 BD20 5aにお 、て管理されるサムネイルピクチャと管理ファイルとの関係を示す。サムネィ ルビクチャとは、動画の一場面や静止画等の縮小されたピクチャであり、動画や静止 画の内容を容易に確認する目的で設けられる。
[0099] サムネイルピクチャに関連するデータは、複数のファイルに格納される。図 20には、 サムネイルピクチャを管理するメニューサムネイルファイル 302およびマークサムネィ ルファイル 304が示されている。メニューサムネイルファイル 302は、 BD205aゃプレ イリストのサムネイルに関するインデクス情報を格納して 、る。このインデクス情報は、 メニューサムネイルファイル 302にお!/、て管理されるサムネイルピクチャ(サムネイル ピクチャ 302a、 302b等)の管理番号(menu— thumbnail— index)を含む。サムネ ィルピクチャ 302aはバーチャルプレイリスト 312の代表的な内容を示す。また、サム ネイルピクチャ 302bはボリュームサムネイルと呼ばれ、本 BDAVディレクトリの全体に 関する代表的な内容を示す。なお図 8には、メニューサムネイルファイル 302に対応 する" menu, tidx"ファイルと、各サムネイルピクチャの実体データを示す" menu, td t (n) " (n= l, 2· · ·)が示されている。
[0100] 一方、マークサムネイルファイル 304は、所望の映像の位置に付加され、しおりとし て機能する「マーク」のサムネイルに関するインデクス情報を格納して 、る。このイン デクス情報も同様に、マークサムネイルファイル 304において管理されるサムネイル ピクチャ(サムネイルピクチャ 304a、 304b, 304c等)の管理番号(mark_thumbna il— index)を含む。サムネイルピクチャ 304aはバーチャルプレイリスト 312内のマー クが付加された位置の縮小画像である。サムネイルピクチャ 304bはリアルプレイリスト 314内のマークが付加された位置の縮小画像である。また、サムネイルピクチャ 304c はクリップ 316内のクリップマークが付加された位置の縮小画像である。なお図 8には 、マークサムネイルファイル 304に対応する" mark, tidx"ファイルと、各サムネイルピ クチャの実体データを示す" mark. tdt (n) " (n= l, 2· · ·)が示されている。上述の 各サムネイルピクチャのデータは、 JPEG規格に基づ ヽて圧縮符号化されて ヽる。
[0101] 上述のメニューサムネイルファイル 302およびマークサムネイルファイル 304を利用 すると、サムネイルピクチャを一覧表示したり、特定のマークのみのサムネイルピクチ ャを選択的に表示させることができる。これにより、ユーザはその BD205aで管理され ている動画の概要、種々のプレイリストの概要、または、特定のプレイリストの複数の 場面の概要を容易に把握できる。
[0102] 図 21 (a)〜(c)は、それぞれ、マークが付加されたバーチャルプレイリスト 312、リア ルプレイリスト 314およびクリップ 316を示す。 BD205aではユーザは複数種類のマ ークを設定することができる。すなわち、所望の動画等 (コンテンツ)の頭出し点を指 定する「ブックマーク」、再生を飛ばす点(区間)を指定する「スキップマーク」、および 、先に視聴を停止したコンテンツの位置を指定する「レジュームマーク」、チャプター の先頭を指定する「チャプターマーク」等である。 [0103] 図 21 (a)に示すバーチャルプレイリスト 312には、ブックマークおよびレジュームマ ークが設定されている。これらのマークは、プレイリストファイル(拡張子: vpls)の" Pla yListMark"エントリに記述される。図 10には、 "PlayListMark"エントリに対応する PlayListMark ()が記載されている。 PlayListMark ()において、 "mark— type"は 、ブックマーク、レジュームマーク等のマークの種類を特定する情報である。 "mark— time— stamp"は、マークが設定されるピクチャのタイムスタンプ(PTS)を特定する 情報である。各マークにはサムネイルピクチャを対応付けることもできる。図 21 (a)に 示すサムネイルピクチャ 304aは、ブックマークが設定された場面の縮小画像である。 バーチャルプレイリスト 312に設定されたサムネイルピクチャ 304aは、マークサムネィ ルファイル 304にお!/、て管理される。
[0104] 次に、図 21 (b)に示すリアルプレイリスト 312には、ブックマーク、レジュームマーク およびスキップマークが設定されている。スキップマークについても、スキップ開始位 置のサムネイルピクチャ 304bを設定できる。またスキップする期間(duration)もあわ せて設定できる。
[0105] 図 21 (c)に示すクリップ 316には、クリップマークが設定されている。クリップマーク は、クリップ AVストリームを生成した際にレコーダ 100が付加するマークである。ユー ザはクリップマークの生成に関与できず、また生成されたクリップマークの削除等にも 関与できない。クリップマークは、クリップに直接付加されるため、プレイリスト 312およ び 314に基づく再生時にもその機能は有効である。なお、クリップマークにもサムネィ ルビクチャ 304cが設定され得る。
[0106] 上述の各マークには、録画機器(例えばレコーダ 100)のメーカごとの ID (maker— ID)と独自情報(makers_private— data)を付加することもできる。これにより、マー クを用いてメーカ独自に機器の機能を拡張することができる。
[0107] これまでは、 UDFのような映像'音声データファイルの扱いに優れたファイルシステ ムを利用した、動画ストリームの記録、編集、再生を説明した。次に、 PCで広く利用さ れている FAT32ファイルシステムを利用した動画ストリームの記録、編集、再生を説 明する。
[0108] FAT32ファイルシステムは、映像 ·音声データファイルを主として扱うために策定さ れていないため、 FAT32ファイルシステム上の各種ファイルのデータ構造を、これま でに説明したファイルシステム上のデータ構造と同じにすることは適切ではない。そ の理由は、 FAT32ファイルシステムの制約により、 4GBを超えるファイルを記録する ことはできないからである。番組の録画や映像の撮影が長時間にわたると、動画ストリ ームのデータが 4GBを超える可能性は十分にある。以下、図 22および図 23を参照 しながら、これまで説明したデータ構造をそのまま FAT32ファイルシステムにお 、て 適用したときの問題をより詳しく説明する。
[0109] 図 22 (a)〜(d)は、 FAT32ファイルシステムにおいて、クリップ AVストリーム 85およ び対応する管理情報ファイル 82〜84を設けたときの第 1の例を示す。図 22 (d)は、 連続して撮影 Z録画された動画のデータが複数のファイルに分割して記録されてい ることを示す。なお、図 22 (a)の管理ファイル 82は図 9 (a)の管理ファイルと同じであ るため、説明は省略する。
[0110] 図 22 (c)および(d)に示すように、 FAT32ファイルシステムにおいては、連続して 撮影 Z録画された動画が複数のクリップに分割されて格納されることがある。より詳細 に説明すると、図 22 (d)のクリップ AVストリームファイル 85は、(c)のクリップ情報ファ ィル 84と 1対 1で生成され、その組がクリップとして定義される。 FAT32ファイルシス テムは 4GB以上のファイルサイズを扱うことができな 、ため、連続して撮影 Z録画さ れた動画のデータが非常に大きくなると、 4GB未満のクリップ AVストリームファイルが 複数生成され得る。するとその都度クリップ情報ファイル 84も生成され、結果としてク リップが複数生成される。これらのクリップにわたって映像を再生するためには、再生 経路情報 (プレイリスト)を設けて複数のクリップ間のつながりを規定し、一つの再生シ 一ケンスとして設定する必要がある。図 22 (b)に示すプレイリストファイル 83 (01001 . rpls)は、複数のクリップを一つの再生シーケンスとして連結したときの例を示す。な お、図 9に示すような UDFを用いると、連続して撮影 Z録画された動画を 1クリップと して収めることがでさる。
[0111] 次に、図 23を参照する。図 23 (a)および (b)は、編集前後のクリップを示す。図 23 ( a)は、図 22で生成されたプレイリストに対するクリップの編集範囲を示す。図 23 (a) の例では、 01002. m2tsファイルのストリームの途中を削除する編集を行うとする。こ のときクリップ情報ファイル (01002. clpi)の対応する範囲の情報も削除される。図 2 3 (b)は、編集後のクリップ(01002. clpiファイルおよび 01002. m2tsファイル)を示 す。
[0112] 図 23 (a)に示す編集前の状態では、連続して記録された動画ストリームの STC—i dは 1つ(STC— id= l)である。このときは、複数のクリップ AVストリームファイルにわ たる 1つの STCシーケンスが存在している。
[0113] し力し、編集後の 01002. m2tsファイルには、図 23 (b)に STC— id # 1および # 2 として示されるように 2つの STCシーケンスが存在する。すなわち、 1つの動画フアイ ル内に複数の STCシーケンスが存在する。なお、クリップ AVストリームファイル 0100 1. m2tsおよび 01003. m2tsファイルには、引き続き複数のクリップ AVストリームフ アイルにわたる 1つの STCシーケンスが存在している。また、編集内容によっては、 1 つの動画ストリーム内に 1つの STCシーケンスが存在することもある。
[0114] 今後、このような編集処理 (部分削除処理)が繰り返されると、一つの動画ストリーム を格納するファイルと、その中に格納される STCシーケンスとの包含関係がさらに複 雑に変動することが容易に理解される。
[0115] また、半導体メモリ 112のような比較的小型かつ小容量の記録媒体を利用して動画 ストリームを記録する場合には、レコーダ装置にメモリカードスロットを複数用意できる ため、異なる半導体メモリに跨って動画ストリーム (または一つのプレイリスト)が記録さ れることも想定される。そうなれば、記録媒体、動画ストリームファイル、 STCシーケン スの 3者間の相関がさらに複雑になり得る。その結果、処理の複雑化および遅延が生 じ得る。
[0116] そこで、本実施形態においては図 24〜図 26に示す新たなデータ構造を規定して、 柔軟なデータの管理を実現する。具体的には、 1つにクリップ AVストリームファイルに 1つの管理情報ファイル (クリップ情報ファイル)を対応させるのではなぐ 1または複 数のクリップ AVストリームファイルと 1つの管理情報ファイル(クリップ情報ファイル)と を対応させる。 1つの管理情報ファイルだけで複数のストリームを管理すると、後述の ようにタイムマップ(EP— map)のみを参照すればこれらのファイルとシーケンスの関 係を得ることができる。その結果、再生すべき映像は、 PTSと STCシーケンスのみを 利用して指定される。
[0117] 新たなデータ構造は、レコーダ 100、 PC108、カムコーダ 110のいずれもが構築で きる。以下では、図 5に示すレコーダ 100が新たなデータ構造を構築するとして説明 する。
[0118] レコーダ 100のエンコーダ 203および Zまたは CPU211は、アナログ信号に基づ いて映像を記録する時、および、デジタル信号に基づいて映像を記録する時のいず れにおいても、図 24〜図 26に示すデータ構造を構築できる。そこで、以下ではアナ ログ信号に基づいて映像が記録される例を説明する。記録媒体は、 FAT32ファイル システムを採用するメモリカード 112であるとする。
[0119] この例においては、エンコーダ 203は、図 4 (d)、 (c)、 (b)および(a)の順に処理を 行って、トランスポートストリームを生成する。エンコーダ 203は、各ピクチャの PTS等 も同時に生成して、図 4 (b)に示す PESヘッダ 41a— 1に格納する。生成されたトラン スポートストリームに基づいて、 TS処理部 204はクリップ AVストリームを生成する。
[0120] 一方、 CPU211は管理情報を生成する。エンコーダ 203および CPU211は、 CP Uバス 213を介して、クリップ AVストリームおよび管理情報をメモリカード制御部 217 に送る。メモリカード制御部 217は、クリップ AVストリームおよび管理情報を受け取り 、メモリカード 112に書き込む。 図 24 (a)〜(d)は、本実施形態による、 FAT32ファ ィルシステムにおいて好適な管理情報ファイル 82〜84とクリップ AVストリームフアイ ル 85の関係を示す。図 24 (a)〜(d)に示す各ファイルは、例えばカムコーダ 110を 利用して動画が連続的に撮影されたときにメモリカード 112に記録される。このメモリ カード 112は、 FAT32ファイルシステムを採用する。いうまでもなぐメモリカード 112 の記録容量は全ファイルのファイルサイズの和以上である。
[0121] 本実施形態による管理構造は、以下に示す 2つの主要な特徴を備えている。
[0122] 第 1には、図 24 (d)に示すように、連続的に撮影された動画ストリームが複数のタリ ップ AVス卜!;ームフアイノレ(02001. m2ts/02002. m2ts/02003. m2ts)に分害 ij されていることである。上述の FAT32ファイルシステムの制約により、各クリップ AVス トリームファイル 85のデータサイズは 4GB未満である。
[0123] ここで留意すべきは、各クリップ AVストリームファイル 85内のクリップ AVストリーム には、同じ STC_idが与えられていることである。さらに、ソース'パケタイザ 261 (図 6 )によって付加される ATSの値も連続的に変化している。その意味は、動画が連続し て撮影されている間は、 ATSを生成するためのクロックカウンタ 262および PLL回路 263はリセットされることなく動作を継続することである。複数のクリップ AVストリームフ アイル 85が生成されるカゝ否かには影響を受けない。
[0124] なお、クリップ AVストリームファイルは動画を録画した直後において複数に分割さ れている必要はない。録画直後は 1つであっても、編集等により複数のクリップ AVス トリームファイルが生成されてもよい。次に説明する管理情報を利用すれば、事後的 に複数のクリップ AVストリームファイルが生成されても統一的に動画ファイル群を管 理できる。
[0125] 第 2の主要な特徴は、図 24 (c)に示すように、クリップ情報ファイル 84 (02001. clp i)がクリップ AVストリームファイルの数にかかわらず 1つ設けられていることである。こ のクリップ情報ファイル 84は、クリップ AVストリーム全体にわたる時間'アドレス変換テ 一ブル (EP— MAP)を規定している。このクリップ情報ファイル 84を利用すれば、指 定された時刻に再生すべき映像のデータがどのクリップ AVストリームファイル 85に格 納されているの力 そして、そのクリップ AVストリームファイル 85内のどの位置(何番 目のソースパケット)に格納されているのかを特定できる。
[0126] なお、変換テーブルは、クリップ AVストリームの全体にわたる時間とデータ位置(ァ ドレス)との関係を規定している。よって、プレイリストファイル 83 (02001. rpls)内に はプレイアイテム(図 10)を 1つ設ければ十分である。そのプレイアイテム内の開始時 刻(In— time)および終了時刻(Out— time)に、それぞれクリップ AVストリーム先頭 の時刻と末尾の時刻とを記述すればょ 、。
[0127] 次に、図 25および図 26を参照しながら、クリップ情報ファイル 84内のデータ構造を 説明する。
[0128] 図 25は、時間.アドレス変換テーブル (EP— map) 87のデータ構造を模式的に示 す。変換テーブル 87は、図 13に示す変換テーブルデータ構造を拡張して構成され ている。具体的に説明すると、変換テーブル 87には時間(PTS)およびアドレス(SP N)との対応関係のみならず、そのソースパケットを含むファイル名が記述されている 。なお、変換テーブル 87においても、タイムスタンプ(PTS)は MPEG規格の GOPの 先頭に配置される各 Iピクチャの PTSを表すとする。
[0129] 変換テーブル 87にファイル名を記述する理由は、 1つのクリップ AVストリームが図 2 4に示すように複数のファイルに分割して格納されたためである。すなわち、与えられ た時刻 (PTS)とソースパケット番号(SPN)との対応関係のみでは、与えられた PTS に対応するソースパケットがどのファイルに含まれているかを特定できないためである
[0130] なお、変換テーブル 87においては、 PTSおよび SPNの各値はコアースエントリ (co arse entry)およびファインエントリ(fine entry)に分けて格納されている。すべて のビットが記述されるのではな 、。例えば 33ビットの PTSを例に挙げると、 33ビットの うち上位 17ビットをコアースエントリとし、下位 17ビットをファインエントリとして変換テ 一ブル 87に記述する。最下位ビットから数えて 17ビット目はコアースエントリおよびフ ァインエントリの両方に重複して規定されるが、これは設計上任意に変更できる。
[0131] コアースエントリが共通する 1以上の PTSはそのコアースエントリのグループに分類 される。そのグループにおいては、コアースエントリは 1つしか記述されない。一方、フ ァインエントリは、 PTSごとに記述される。同じグループの各 PTSは、ファインエントリ によって識別できる。
[0132] 上述の SPNについても、まったく同様にコアースエントリおよびファインエントリが設 けられる。そして、その SPNが与えられたソースパケットを含むファイル名も対応付け て記述される。なお、ファイル名は SPNのすベてのファインエントリに対応して記述し てもよ 、し、 SPNのコアースエントリ単位で記述してもよ!/ヽ。
[0133] PTSの各ビットをコアースエントリおよびファインエントリに分けることにより、変換テ 一ブル 87のデータ量を低減できる。 PTSから SPNへの変換処理、および、得られた SPNに対応するソースパケットがどのファイルに属するかは後述する。
[0134] 図 26は、変換テーブル 87の詳細なデータ構造を示す。変換テーブル 87は、大きく 第 1ループ 88、第 2ループ 89および第 3ループ 90に分けることができる。第 1ループ 88のループ回数は Ne回、第 2ループ 89のループ回数は Nc回、および第 3ループ 9 0のループ回数は Nf回である。 Ne、 Nc、 Nfの各値はフィールド 91— 1に記述されて いる。
[0135] 第 1ループ 88は、後述のファイルエントリに対応する。第 1ループ 88は、少なくとも、 記録媒体、 1つの記録媒体内のクリップ AVストリーム格納先のフォルダ、クリップ AV ストリームのファイル名のいずれか 1つが変化するたびに繰り返される。換言すれば、 クリップ AVストリームが複数の記録媒体、複数の格納フォルダおよび Zまたは複数 のファイルにまたがって格納されても、第 1ループ 88を利用して記述できる。
[0136] 第 1ループ 88は、例えばファイル名フィールド 88— 1およびエントリ IDフィールド 88 —2を有している。ファイル名フィールド 88— 1には、クリップ AVストリームのファイル 名が記述される。これにより、 1つのクリップ AVストリームが複数のファイルに跨っても そのファイル名を記述できる。またエントリ IDフィールド 88— 2には、そのファイルに 含まれるクリップ AVストリームの先頭ソースパケットのファインエントリが記述される。
[0137] 第 2ループ 89および第 3ループ 90は、 PTSと SPNとの対応関係を規定する。この 対応関係に基づいて時間とアドレスとを変換することができる。
[0138] 第 2ループ 89は、 PTSと SPNの各コアースエントリが繰り返し記述される。第 2ルー プ 89は、ファイン IDフィールド 89— 1、コアースフィールド 89— 2および 89— 3を有し ている。ファイン IDフィールド 89— 1は、各コアースエントリに対応する 1以上のフアイ ンエントリを特定するために設けられる。コアースフィールド 89— 2および 89— 3は、 それぞれ PTSコアースエントリおよび SPNコアースエントリが記述される。
[0139] 第 3ループ 90は、 PTSと SPNの各ファインエントリが繰り返し記述される。第 3ルー プ 90は、オフセットフィールド 90— 1、ファインフィールド 90— 2および 90— 3を有し ている。オフセットフィールド 90—1は、 Iピクチャデータの末尾までのオフセット値が 格納されている。ファインフィールド 90— 2および 90— 3は、それぞれ PTSファインェ ントリおよび SPNファインエントリが記述される。
[0140] なお、第 1ループ 88には他のフィールドを設けることもできる。例えば、クリップ AV ストリームファイル力 どの記録媒体に記録されているかを識別するための記録媒体 のシリアル番号等を記述する media— ref— idフィールドや、そのストリームファイルが どの BDAVディレクトリに格納されて 、るのかを示す BDAV— ref— idフィールド等を 設けることができる。 media— ref— idフィールドを設けた理由は、複数の記録媒体を 同時に装填可能なレコーダであれば分割されたクリップ AVストリームファイルを異な る記録媒体に記録し得るため、各記録媒体を特定する必要が生じるからである。また 、 BDAV— ref— idフィールドを設けた理由は、 BDAVディレクトリは同じ記録領域( 同一の記録媒体)に対して複数生成できるからである。
[0141] クリップ AVストリームが 1以上のストリームファイルとして書き込まれると、各ストリーム ファイルのファイル名、クリップ AVストリーム内の各ソースパケットの配置等が確定す る。よって、 CPU211は上述の変換テーブル 87の各エントリの内容を確定することが できる。 CPU211は、変換テーブル 87をクリップ情報ファイルに格納してメモリカード 112へさらに書き込む。
[0142] なお、 CPU211は、デジタル放送番組を録画する際にも変換テーブル 87を生成 する。このときの処理は以下のとおりである。まず CPU211は、受信したトランスポー トストリームを図 4 (a)から(c)に示すデータ構造にしたがって解析する。そして CPU2 11は、ピクチャヘッダ 42aから GOPヘッダおよび Iピクチャヘッダを検出して GOPの 先頭の Iピクチャを特定し、そのときの PESヘッダ 41a— 1から PTSを抽出する。これ により CPU211は、変換テーブル 87内の PTSファインエントリを生成できる。一方、 T S処理部 204がトランスポートストリームからクリップ AVストリームを生成したとき、 CP U211は、その GOPの先頭の Iピクチャのデータがどのソースパケットに格納されてい るかを特定できる。そのソースパケットが先頭力 何番目に配置されているかにしたが つて、 CPU211は、対応する SPNファインエントリを生成できる。
[0143] 上述のアナログ Zデジタル放送番組のいずれの例においても、クリップ AVストリー ムの現実の書き込みが完了しなくても、 CPU211はそのストリームを格納したファイル のファイル名を変換テーブル 87に記述することは可能である。ストリームファイルのフ アイル名等は、書き込み開始前には予め決定されているためである。
[0144] 上述のように、本実施形態においては、一連の映像のデータストリームが複数のタリ ップ AVストリームファイルに分割される。そして、各ファイルが複数の記録媒体に格 納され、および/または、複数の BDAVディレクトリに格納されることを想定している。 このような複雑な記録態様のもとで的確に再生を行うため、変換テーブル 87にはさら に状態フィールド 91 2が設けられて!/、る。 [0145] 例えば、変換テーブル 87が分割された全てのクリップ AVストリームファイルの格納 先を規定しているときには、レコーダ 100の CPU211は、状態フィールド 91 2に「1 1」を記述する。一部のクリップ AVストリームファイルの格納先のみを規定しているとき には、状態フィールド 91—2に「11」以外の値を記述する。レコーダ 100の CPU211 は、全てのクリップ AVストリームファイルの格納先が変換テーブル 87に記述されてい る力否かを判断できるため、その結果を状態フィールド 91— 2に記述できる。再生時 にお 、て状態フィールド 91 - 2の値を確認することにより、 CPU211は少なくとも全 ての映像を再生できる力否かを特定できる。状態フィールド 91— 2のさらに具体的な 説明は、図 33を参照しながら後述する。
[0146] 次に、図 27を参照しながら、変換テーブル 87を利用してクリップ AVストリームのピ クチャを再生する手順を説明する。以下では、レコーダ 100が、図 24に示すメモリ力 ード 112から、変換テーブル 87を格納したクリップ情報ファイル 84、クリップ AVストリ ームファイル 85等を読み出し、それらに基づいてピクチャを再生するとして説明する 。なお、図 24に示す管理ファイル 82、プレイリストファイル 83、クリップ情報ファイル 8 4等は、メモリカード 112がレコーダ 100に装填されたときにメモリカード制御部 217に よって読み出され、 RAM212に格納されているとする。
[0147] 図 27は、変換テーブル 87を利用して指定された PTSに対応するピクチャを再生す る処理の手順を示す。まず、ステップ S271において、システム制御部 250の CPU2 11はピクチャの再生時刻を特定する情報 (PTS)を取得する。指定される PTSは、ュ 一ザ力 指定された特定の再生時刻に対応する PTS値であってもよいし、早送り、早 戻し再生等のときの Iピクチャの再生時刻に対応する値であってもよい。ここでは説明 の簡単のため、 GOPの先頭に配置される Iピクチャの PTSが指定されたとする。
[0148] 与えられた PTSは、 33ビットのうち上位 17ビットと下位 17ビットとに分けて、以下処 理される。
[0149] ステップ S272において、 CPU211は、与えられた PTS値の上位 17ビットを利用し て、図 26の時間'アドレス変換テーブル 87 (EP— map— for— one— stream)中の 第 2ループ 89を参照し、その PTSが属する PTSコアースエントリ 89— 2および対応 する SPNコアースエントリ 89— 3を特定する。また、同時にファイン IDフィールド 89— 1の値も特定される。ファイン IDフィールド 89— 1には、テーブル 87の第 3ループ 90 に関し、何番目のループを参照すればよいかを示す情報が記述されている。
[0150] 次に、ステップ S273において、 CPU211は、特定されたファイン IDフィールド 89
- 1の値を利用してテーブル 87の第 3ループ 90を参照し、 PTS/SPNコアースェン トリに対応する PTSおよび SPNファインエントリ 90— 2および 90— 3を特定する。この 結果、その PTSに対応する SPN (コアースエントリおよびファインエントリ)が特定され る。
[0151] ステップ S274においては、 CPU211は、 SPNファインエントリ 90— 3およびテープ ル 87の第 1ループ 88に基づいて、その SPNが付されたソースパケットを格納したフ アイル名を特定する。
[0152] この処理は具体的には以下のとおり行われる。上述のように、第 1ループ 88内のェ ントリ IDフィールド 88— 2には、各ファイルに含まれるクリップ AVストリームの先頭ソ ースパケットのファインエントリの値が記述される。そして先頭ソースパケットのファイン エントリ 88 - 2と対応して、ファイル名フィールド 88 - 1にはファイル名が記述されて いる。
[0153] よって、 CPU211は、先のステップにおいて得られた SPNファインエントリ 90— 3の 値力 エントリ IDフィールド 88— 2に記述されたファインエントリの値と等しいまたはそ れよりも大きいか否かを判定する。等しいときには、 CPU211は、その SPNのフアイ ンエントリ 88 - 2と対応するファイル名フィールド 88 - 1からファイル名を特定する。 大きいときには、 CPU211は、 SPNファインエントリ 90— 3の値力 次のエントリ IDフ ィールド 88— 2に記述されたファインエントリの値と同じまたはそれよりも大きいか否か を判定する。
[0154] この処理を繰り返すと、いずれかの時点で、 SPNファインエントリ 90— 3の値力 ェ ントリ IDフィールド 88— 2に記述されたファインエントリの値と等しぐまたはそれよりも 小さくなる。等しくなるときは上述のとおりファイル名を特定する。小さくなつたときは、 そのとき参照していたエントリ IDフィールドの 1つ前のエントリ IDフィールドに規定され たファイル名フィールド 88 - 1から、ファイル名を特定する。
[0155] その結果、ステップ S275において、 CPU211はメモリカード制御部 217に対して 特定されたファイル名を指定して、 1以上のソースパケットを読み出すよう指示する。 読み出されるソースパケットは、先に特定された SPNが割り当てられたソースパケット 以後の 1以上のソースパケットである。 TS処理部 204は、読み出されたソースパケット を受け取り、図 6に関連して説明した処理を行ったトランスポートストリームを、デコー ダ 206に送る。デコーダ 206がピクチャを復号化すると、最終的にはアナログ信号と して TV等へ出力され、再生が開始される。
[0156] 図 24から図 26に示すクリップ情報ファイル 84によれば、映像を部分的に削除する 編集が行われ、一つの動画ストリームを格納するファイルと、その中に格納される ST Cシーケンスとの包含関係が複雑になったときにも十分対応できる。例えば、図 28 (a )および (b)は、本実施形態による編集前後のクリップを示す。編集前後のクリップ情 報ファイル 84はいずれも 1つである。
[0157] 以下では、図 29および図 30を参照しながら、図 28 (b)におけるクリップ情報フアイ ル 84およびクリップ AVストリームファイル 85をより詳しく説明する。
[0158] 図 29 (a)〜(d)は、図 28 (b)に示す編集処理後のクリップ情報ファイルとクリップ A Vストリームファイルとの対応を示す。ここでは、図 28 (b)の 1番目および 2番目のタリ ップ AVストリームファイル(02001. m2tsおよび 02002. m2ts)を示している。以下 図 29 (a)〜(d)を参照しながら、 CPU211が時間 ·アドレス変換テーブルを生成する 処理とともにそのデータ構造を説明する。
[0159] 図 29 (a)は、編集されたクリップ AVストリームに対する、一つのクリップ情報ファイル に格納された時間 'ァドレス変換テーブルの概念を示す。図 29 (a)の上力も順に、 1 段目はファイルエントリが設けられている位置、 2段目はコアースエントリが設けられて いる位置、 3段目はファインエントリが設けられている位置を概念的に示している。
[0160] このようなテーブルを生成するにあたり、 CPU211は時間.アドレス変換テーブルを STCシーケンス単位で記述する。図 29 (b)は、 2つの STCシーケンスの範囲をそれ ぞれ示す。 02001. m2tsの全体および 02002. m2tsの編集点までのストリームに は STC— id # lが与えられており、 02002. m2tsの編集点以降のストリームには ST C_id # 2が与えられているとする。これらは別個の STCシーケンスである。また、図 29 (c)は、クリップ AVストリームが格納された 2つのファイルを示す。 [0161] CPU211は、まず STCシーケンス(STC_id # 1)の先頭(すなわちストリームファ ィル 02001. m2tsの先頭)に対応するアドレスに関連付けて、テーブルにファイルェ ントリ # 0を登録する。ファイルエントリ # 0にはストリームファイルのファイル名 (0200
1. m2ts)が記述される。
[0162] STCシーケンスが進むと、その途中において、クリップ AVストリームを格納している フアイノレ力 Sス卜ジームフアイノレ 02001. m2ts力ら 02002. m2tsに切り替わる。そこで、 CPU211は、その切り替わり位置に対応するアドレスに関連付けて、テーブルにファ ィルエントリ # 1を登録する。ファイルエントリ # 1には次のストリームファイルのフアイ ル名 (02002. m2ts)が記述される。
[0163] 図 26の第 1ループ 88に示されるように、各ファイルエントリ 88— 1とファインエントリ 8 8— 2とは対応付けられて記述されている。本実施形態では、各ファイルエントリは、 そのファイルエントリによって指定されたファイルにおいて最初に設けられたファイン エントリと関連付けて第 1ループ 88に格納される。
[0164] 本実施形態においては、 STC— id# 1が割り当てられたクリップ AVストリームは、 F AT32ファイルシステムの制約に起因して複数のファイル 02001. m2tsおよび 0200
2. m2tsに格納されている。したがって、これらのファイルに跨るクリップ AVストリーム は、本来的には途切れることなく連続的に再生することができる。
[0165] 連続的な再生を保証するため、本実施形態においては、クリップ AVストリームの各 ソースパケットのヘッダ 74に格納された ATSの値は連続的かつ周期的に変化してい る。換言すれば、 ATSの値は途切れることなく周期的に変化している。図 29 (d)は、 複数のファイルに跨るクリップ AVストリームの ATSの変化を示す。ファイル 02001. m2ts力ファイル 02002. m2tsに切り替わつている点においても、 ATSの値は連続 していることが理解される。
[0166] これまでは、ファイルが切り替わると、クリップ AVストリームの STC— idも変化するこ とが前提であった。よって、 TS処理部 204およびデコーダ 206は、異なるファイルか らのクリップ AVストリームを解析するときには処理回路をー且リセットしていた。これに より、デコーダ 206内の参照ピクチャ等が一時的に格納されているバッファもクリアさ れ、再生される映像は途切れていた。 [0167] 本実施形態においては、 CPU211は、ファイルが切り替わったときには TS処理部 204およびデコーダ 206の処理回路をリセットしない。 TS処理部 204のクロックカウン タ 262、 PLL回路 263等は、ファイルが切り替わっても継続して動作する。その結果、 クロックカウンタ 262は連続的に変換するタイミング情報を出力し、ソース 'デ'パケタ ィザ 265はその信号と ATSとに基づいて、 TSパケットをデコーダ 206へ送出する。こ れにより、クリップ AVストリームが複数のファイルに跨って格納されていても、そのスト リームの ATSに基づ ヽて途切れることなく映像を再生できる。
[0168] CPU211は、 TS処理部 204等の処理回路をリセットする力否かを判断する基準と してファイルエントリの記述を利用することができる。ファイルエントリに指定されたファ ィルを再生するときには、 CPU211は処理回路をリセットしない。その理由は、フアイ ルエントリの存在は、 1つのクリップ AVストリームが複数のファイルに分割されて格納 されていることを意味するカゝらである。ただし、ファイルエントリ # 0が付加されていると きには新たなストリームの開始を意味するため、処理回路をリセットすればよい。
[0169] 一方、 STC_id # 1が STC_id # 2に切り替わつている点(例えば編集点)におい ては、 ATSは不連続である。このときは映像の連続再生を保証する必要はない。ま た STC— id # 2が割り当てられたストリームには改めてファイルエントリ # 0に格納ファ ィル名(「02002. m2ts」)が付加される。よって、このストリームから映像を再生する 時には TS処理部 204およびデコーダ 206等はリセットされる。
[0170] これまでは、ファインエントリは GOPの先頭に配置される各 Iピクチャの PTSに基づ いて設定されており、再生開始時刻としてそのような Iピクチャの PTSが指定されると して説明した。しかし、一般的には、そのような Iピクチャ以外のピクチャの再生開始時 刻(PTS)が指定される。以下、ファインエントリを利用して任意のピクチャ力 表示で きることを説明する。
[0171] 図 30は、ファインエントリと各 GOPの先頭に配置される Iピクチャとの対応を示す。
以下、 GOP (N— 1)内の最後の Bピクチャ 301を再生するための処理を説明する。 与えられた再生開始時刻 (PTS)に対応するピクチャは Bピクチヤ 301である。
[0172] なお、 GOP (N— 1)はクリップ AVストリームフアイノレ 02001. m2tsと 02002. m2ts とに跨って格納されている。そして Bピクチャ 301のデータはファイル 02002. m2ts に格納されているとする。
[0173] まず CPU211が PTSを取得すると、その PTSの上位 17ビットを利用して、 PTSコ アースエントリ 89— 2、および、対応する SPNコアースエントリ 89— 3とファイン IDフィ 一ルド 89— 1とを特定する。続いて CPU211は、特定されたファイン IDフィールド 89 - 1の値を利用して、 PTS/SPNコアースエントリに対応する PTSおよび SPNフアイ ンエントリ 90— 2および 90— 3を特定する。ここでは、図 30に示すファインエントリ(N - 1)が PTSファインエントリとして得られたとする。
[0174] CPU211は、得られた PTSファインエントリと、与えられた PTSの下位 17ビットとを 比較し、後者の方が大きいと判断する。そして CPU211は、得られた PTSファインェ ントリの次のファインエントリ(図 30における PTSファインエントリ N)を、時間'アドレス 変換テーブル 87の第 3ループ 90から読み出し、その PTSファインエントリと、与えら れた PTSの下位 17ビットとを比較する。その結果、後者の方が小さいと判断する。
[0175] この比較結果により、与えられた PTSは、 GOP (N—l)の先頭 Iピクチャよりは大き V、が GOP (N)の先頭 Iピクチャよりは小さ 、ことが特定される。よって与えられた PTS に対応するピクチャは、 GOP (N— 1)に存在することが特定される。
[0176] ここで、 GOP (N— 1)の先頭 Iピクチャ力も再生を開始するためには、その Iピクチャ のデータが格納されたファイル 02001. m2tsを特定する必要がある。特定するため の処理の手順は、先に図 27を参照しながら説明したとおりであるため、ここでは省略 する。
[0177] デコーダ 206は、 GOP (N— 1)の先頭 Iピクチャ力 順に復号化し、与えられた PT Sと一致する PTSのピクチャ(Bピクチャ 301)が現れると、その Bピクチャ 301から出 力を開始すればよい。上述の処理は、任意のピクチャに関して実行できる。
[0178] 本実施形態による時間 *ァドレス変換テーブル 87のように、所定のピクチャの再生 時刻と記録アドレスとファイルエントリとを対応付けたテーブル (リスト)を設けることに より、記録媒体、 AVストリームファイル、 STCシーケンスの如何なる相関に対しても、 正しく検索をかけることができる。
[0179] 上述の説明では、図 26〖こ示すファイルエントリ(第 1ループ 88)に 4種類のフィール ド(media ref id, BDAV ref idゝ Clip AV stream file nameおよび f irst— fine— entry— ref— id)を設けた例を説明した。し力し、規定するフィールドは 変更してもよい。
[0180] 図 31 (a)〜(d)は、ファインエントリのデータ構造の他の例を示す。図 26に示すファ ィルエントリ(第 1ループ 88)中の先頭ソースパケットのファインエントリに代えて、種々 の情報を記述できる。図 31 (a)は、最初のコアースエントリおよび最後のコアースェン トリの組を規定したフィールド 88aを示す。図 31 (b)は、最初のファインエントリおよび 最後のファインエントリの組を規定したフィールド 88bを示す。図 31 (c)は、最初のコ アースエントリおよびコアースエントリの数の組を規定したフィールド 88cを示す。図 3 1 (d)は、最初のファインエントリおよびファインエントリの数の組を規定したフィールド 88dを示す。
[0181] 本実施形態においてはファイルエントリを追加した力 その追カ卩に代えて、または追 カロとともに、ファイルエントリとして規定される情報(上述の media— ref— id、 BDAV — ref— id、 Clip— AV— stream— file— name)の一部または全部を、コアースェン トリ(図 26に示す第 2ループ 89)またはファインエントリ(図 26に示す第 3ループ 90) 自体に格納してもよい。
[0182] また、 DVDビデオレコーディング規格のタイムマップ TMAPに対して、上述のファ ィルエントリと同等のファイルエントリを追加することもできる。例えば、図 32は、フアイ ルエントリ 32、タイムエントリ 33および VOBUエントリ 34を含む拡張されたタイムマツ プ TMAPを示す。このような情報を得るためには、図 26 (図 31 (a)〜(d)の変形例を 含む)のコアースエントリに関する情報 (第 2ループ 89)を Timeエントリとして置き換え 、ファインエントリ(第 1ループ 88)に関する情報を VOBUエントリに置き換えればよい
[0183] タイムマップ TMAPに対してもファイルエントリを追加した力 その追加に代えて、ま たは追加とともに、ファイルエントリとして規定される情報(上述の media— ref— id、 B DAV— ref— id、 Clip— AV— stream— file— name)の一部または全部を、 Time エントリ 33または VOBUエントリ 34自体に格納してもよい。また、図 26に示す状態フ ィールド 91 - 2と同等の情報を格納するフィールドを設けてもょ 、。
[0184] 本実施形態においては、図 24に示されるように、メモリカード 112に複数のクリップ AVストリームファイルが記録されるとした。しかし、これら複数のファイルはそれぞれ 別個の記録媒体に記録されてもよい。以下、図 33を参照しながら変形例を説明する
[0185] 図 33 (a)は、連続的に動画が撮影された「1ショット」の範囲を示す。図 33 (b)は、コ ンテンッの管理情報とストリームのデータとを含むクリップの概念を示す。 1ショット、す なわち 1つのコンテンツは、複数のクリップ a〜cに分けて各メモリカード 112a〜112c に格納することができる(1つのクリップで完結してもよい)。 1つのクリップは、クリップ メタデータ 331と、タイムマップ 332と、クリップ AVストリーム 333のー咅 (咅分ストリー ム)とを含む。クリップ AVストリーム 333は、部分ストリーム 333a〜333cから構成され ており、クリップ a〜cのそれぞれに含まれる。図 33 (b)には 3つのクリップ a〜cが記載 されている力 各クリップの構成は共通しているため、ここではクリップ aを例に挙げて 説明する。記載の簡略ィ匕のため、部分ストリーム 333aを部分ストリーム aなどと記載す る。
[0186] クリップ aは、クリップメタデータ aと、タイムマップ aと、部分ストリーム aとを含む。クリツ プメタデータ aおよびタイムマップ aは管理情報である。一方、部分ストリーム aはクリツ プ AVストリーム 333を構成するデータである。このデータは、図 24 (d)に示すクリップ AVストリームファイル 85 (例えば 02001. m2ts)に対応する。
[0187] クリップメタデータ aは XML形式で記述されており、コンテンツの再生に必要な情報 、例えば映像 Z音声フォーマット等が規定される。クリップメタデータ aの詳細は、図 3 4を参照しながら後述する。
[0188] タイムマップ aは、再生単位ごとの、表示時刻とその格納位置(アドレス)との関係を 規定したテーブルである。ここでは、このタイムマップを「クリップタイムライン」(ClipTi meLine)と呼び、クリップタイムラインが格納されたファイルの拡張子に" CTL"を付し て図示している。タイムマップ aは、図 26に示す時間 'アドレス変換テーブル 87 (EP —map— for— one— stream)または図 32に示すタイムマップ TMAPと同じである。
[0189] 図 33に示す例では、クリップメタデータおよびタイムマップは 1つではなぐ対応す る部分ストリームファイルごとに存在していることに留意されたい。ただし、各タイムマ ップ a〜cは同一の情報である。例えば図 5に示すレコーダ 100に 3つのカードスロット が設けられ、そこにメモリカード 112a〜l 12cが装填されている状態で、書き込み処 理が行われることを想定する。レコーダ 100が部分ストリームファイル a〜cをメモリ力 ード 112a〜 112cに順次書き終えたとき、タイムマップの内容が確定する。その結果 、レコーダ 100はさらにそのタイムマップを各メモリカード 112a〜112cに書き込めば よい。なお、そのタイムマップには全てのストリームファイルの格納先が規定されてい るため、状態フィールド 91—2にはその状態を示す値「11」が規定される。
[0190] このタイムマップを利用することにより、再生のために各メモリカード 112a〜112cが 機器に装填されているときは、任意の記録媒体の任意のピクチャ力 再生を開始でき る。タイムマップ a〜cが図 26に示す時間'アドレス変換テーブル 87であるとすると、 機器の CPUは、まず状態フィールド 91—2を参照して、各タイムマップ a〜cには全て のストリームファイルの格納先が規定されていると判断できる。さらに、再生を行うべき 時刻(PTS)の指定を受けると、どのメモリカードのタイムマップを利用しても、その CP Uはその PTSに基づいて再生すべきピクチャのデータがどのメモリカードに格納され ているかを特定し、かつ、そのデータを格納したストリームファイルのファイル名も特 定できる。このとき、タイムマップ中の第 1ループ 88の media— ref— idフィールドおよ びファイル名フィールド 88— 1が参照される。
[0191] なお、特定されたメモリカードがその機器に装填されていないことがある。このときは 、その機器の CPUは、そのメモリカードを特定する情報 (メモリカード名)等をユーザ に通知すればよい。さらに、ストリームファイルのファイル名も特定されているため、例 えば「ファイル名 xxxxのファイルが記録されたメモリカード yyyyを挿入してください」 t 、う通知を TVの画面に表示してもよ!/、。
[0192] 本実施形態の例において各メモリカードの容量を 4ギガノ《イトとしたときには、各部 分ストリームのファイルサイズを FAT32ファイルシステムにおけるファイルサイズの最 大値 (4ギガバイト)とすると、メモリカード 112a〜cの記録可能容量がなくなって管理 情報をメモリカード 112に書き込みできなくなる。よって、このときは各部分ストリーム ファイルのファイルサイズは 4ギガノ《イトよりも小さくなることに留意されたい。さらに、 部分ストリームは整数個のソースパケットから構成されるとし、上記ファイルシステムか らの制限である 4ギガバイト未満であり、かつ、ソースパケット(192バイト)の整数倍と してちよい。
[0193] なお、 1ショット内では、クリップ AVストリーム 333のシステム時刻基準 STCの識別 情報 (STC— id)は変化することはなぐ到着時刻情報 ATSも図 29 (d)に示すように 連続している。この関係は、部分ストリーム a〜cに分割されても保持されるため、部分 ストリームの STC— idは一致し、連続する 2つの部分ストリームの境界の前後では、 A TSも連続的に変化している。部分ストリーム a〜cの再生中にファイルが切り替わった ときには、 ATSのクロックカウンタ 262 (図 6)がリセットされたり、それまでのカウント値 とは無関係な値が設定されることはない。クロックカウンタ 262 (図 6)は、設定されて いた基準時刻に基づくカウントを継続的に行ってカウント値を出力する。
[0194] 図 33 (c)は、 3つのメモリカード 112a〜112cを示す。各クリップ a〜cを構成するデ ータのファイルが各メモリカード 112a〜l 12cに書き込まれる。
[0195] 図 34は、クリップメタデータ 331に含まれる情報の内容を示す。クリップメタデータ 3 31は、構成データ("Structural")および記述データ("Descriptive")の 2種類に 分類される。
[0196] 構成データには、クリップ名、エッセンスリスト、リレーション情報等が記述される。ク リップ名は、そのファイルを特定するための情報であり、例えば周知の UMID (Uniq ue Material IDentifier)が記述される。 UMIDは、例えば、コンテンツが生成さ れた時刻とそれを生成した機器の MAC (Media AccessControl)アドレスを組み 合わせて生成される。さらに UMIDは、コンテンツが新たに生成されたか否かをも考 慮して生成される。すなわち、ー且 UMIDが付加され、その後に編集'加工等された コンテンツには、元のコンテンツの UMIDとは異なる値が付加される。よって UMID を利用すると世界中に存在するコンテンツに対して異なる値が定義されるため、コン テンッを一意に特定できる。
[0197] エッセンスリストには、映像および音声の復号化に必要な情報 (ビデオ情報および オーディオ情報)が記述されている。例えばビデオ情報には、ビデオデータのフォー マット、圧縮符号化方式、フレームレートなどが記述される。オーディオ情報には、ォ 一ディォデータのフォーマット、サンプリングレート等が記述される。本実施形態では 、圧縮符号ィ匕方式は MPEG— 2方式である。 [0198] リレーション情報は、図 33 (b)に示すような複数のクリップ a〜cが存在するときのタリ ップの間の関係を規定する。具体的には、リレーション情報は、複数クリップの各々に 対応するクリップ AVストリーム (部分ストリーム)の再生の先後関係または再生順序を 規定している。これらは、接続情報 340として管理される。接続情報 340は、そのショ ットの先頭のクリップを特定する情報、そのクリップの直前のクリップ名および直後のク リップ名を特定する情報がそれぞれ記述される。クリップ名を特定する情報は、例え ば、 UMIDおよびそのメモリカード 112固有のシリアル番号によって規定される。
[0199] 記述データには、アクセス情報、デバイス、撮影情報等が含まれて 、る。アクセス情 報には、そのクリップの最終更新者、 日時等が記述されている。デバイス情報には、 製造者名、記録した装置のシリアル番号、モデル番号等が記述されている。撮影情 報は、撮影者名、撮影開始日時、終了日時、位置などを含む。
[0200] なお、図 33に示す例では、各タイムマップ a〜cは同一の情報であるとしたが、同一 の情報でなくてもよい。以下に、想定される(1)〜 (4)のタイムマップの態様を説明す る。
[0201] (1)部分ストリームごとに 1つのタイムマップを設ける(タイムマップ Xは部分ストリーム Xのみの再生に用いられる)。このタイムマップによれば、指定された再生時刻(PTS) が最初にアクセスしたタイムマップに記述されていなければ、上述のリレーション情報 を用いて次のまたは前のクリップ等に移り、そのクリップにおいて再びタイムマップを 参照する必要がある。
[0202] (2)それまでに記録された全ての部分ストリームに対応するタイムマップを設ける(タ ィムマップ Xは最初の部分ストリーム 0から部分ストリーム Xまでの部分ストリームの再生 に用いられる)。このタイムマップによれば、指定された再生時刻(PTS)のピクチャデ ータがそれまでに生成された部分ストリームに含まれているときには、そのデータが 格納されたメモリカードやファイル名を、 1つのタイムマップ力も特定できる。ただし、 そのデータがそれまでの部分ストリームに含まれていないときには、リレーション情報 を用いて次のクリップに移り、そのクリップにおいて再びタイムマップを参照する必要 がある。
[0203] (3)上述の(2)のタイムマップに、さらに次に記録される部分ストリームやタイムマツ プ等を特定する情報 (例えば次の部分ストリームやタイムマップのファイル名)を追カロ 的に規定したタイムマップを設ける(タイムマップ Xは最初の部分ストリーム 0から部分 ストリーム Xまでの部分ストリームの再生に用いられる。さらにタイムマップ Xによれば、 次の部分ストリーム(x+ 1)のファイルにアクセスできる)。このタイムマップによれば、 上述の(2)の利点の他に、リレーション情報を介することなく次の部分ストリームフアイ ルゃタイムマップを直接特定できるため、アクセスを高速ィ匕できる。
[0204] (4)全ての部分ストリームに対応するタイムマップを設ける(タイムマップ Xは全ての 部分ストリームの再生に用いられる)。この形態は、図 33を参照しながら説明した上述 の態様と同じである。各メモリカードに格納されたタイムマップは互いに同一である。
[0205] 上述の状態フィールド 91 2を利用すれば、メモリカードに記録されたタイムマップ が上述の(1)〜 (4)のいずれの態様であるかを示すことができる。例えば状態フィー ルド 91 2には、(1)のタイムマップに対しては「00」、 (2)のタイムマップに対しては「 01」、 (3)のタイムマップに対しては「10」、 (4)のタイムマップに対しては「11」の各値 を記述すればよい。この状態フィールド 91—2の値に応じて、機器の CPUは、与えら れた再生時刻 (PTS)からどのように各ファイルを参照すればよ!ヽかの処理を切り替 えることができる。
[0206] 以上説明した本発明に係るデータ処理は、コンピュータが所定のプログラムを実行 することによって実現できることは言うまでもない。そのプログラムはフレキシブルディ スク、ハードディスク、光ディスク、その他のコンピュータに読み取り可能な情報記録 媒体に格納されることができる。
[0207] 本発明は、特定の実施形態について説明されてきたが、当業者にとっては他の多 くの変形例、修正、他の利用が明らかである。それゆえ、本発明は、ここでの特定の 開示に限定されず、添付の請求の範囲によってのみ限定され得る。
産業上の利用可能性
[0208] 本発明のデータ処理装置は、記録媒体とファイル、ファイルの中のストリームの包含 関係に関わらず統一的に記述できるテーブル (アクセスマップ)を生成する。このァク セスマップには、そのストリームのファイルを特定する情報、そのファイルが記録され る記録媒体の情報および Zまたはフォルダの情報等が格納される。この結果、デー タ処理装置は、アクセスマップによれば、ストリームの全部または一部の格納状況を、 ストリームを解析して把握する必要はない。そしてアクセスマップを利用すれば、ストリ ームの所望の再生位置にアクセスすることができる。

Claims

請求の範囲
[1] 映像のデータストリーム、および、前記データストリームに基づいて前記映像を再生 するための管理情報のそれぞれを 1以上の記録媒体に書き込むデータ処理装置で あって、
前記データストリームには、前記映像を構成する各ピクチャのピクチャデータ、およ び、前記各ピクチャの表示時刻を特定する時刻情報が対応付けられて格納されてお り、
1以上のピクチャに関し、前記時刻情報と前記データストリーム内の前記ピクチャデ ータの格納位置と、前記ピクチャデータが格納されるストリームファイルを特定するフ アイル情報とを対応付けたテーブルを、前記管理情報の一部として生成するプロセッ サと、
前記データストリームおよび前記管理情報を、 1以上のストリームファイル、および、 1以上の管理情報ファイルとして前記記録媒体に書き込むコントローラと
を備えたデータ処理装置。
[2] 前記コントローラは、複数のストリームファイルおよび 1つの管理情報ファイルを生成 する、請求項 1に記載のデータ処理装置。
[3] 前記データストリームは、単独で復号ィ匕が可能な基準ピクチヤの基準ピクチャデー タから開始される 1以上の再生単位を含み、
前記プロセッサは、前記再生単位の先頭の基準ピクチャデータに対し、前記テープ ルを生成する、請求項 2に記載のデータ処理装置。
[4] 前記プロセッサは、前記複数のストリームファイルの各々において最初に配置され た前記先頭の基準ピクチャデータに対し、前記テーブルを生成する、請求項 3に記 載のデータ処理装置。
[5] 前記データストリームは、連続して録画された前記映像に関し、共通の基準時刻に 基づ 、て生成された前記時刻情報を含み、
前記コントローラは、前記共通の基準時刻に基づいて生成された前記データストリ ームを分割して、前記複数のストリームファイルを生成する、請求項 2に記載のデータ 処理装置。
[6] 前記データストリームは、一定のデータ長を有する複数のパケットから構成されてお り、
前記プロセッサは、前記データストリーム内の前記複数のパケットの配置に基づい て、前記ピクチャデータの格納位置を特定する、請求項 1に記載のデータ処理装置。
[7] 前記コントローラは、 FAT32ファイルシステムが採用されている前記記録媒体に対 して、前記 1以上のストリームファイル、および、前記 1以上の管理情報ファイルを書き 込む、請求項 1に記載のデータ処理装置。
[8] アナログ信号に基づいて前記 1以上の再生単位を生成するエンコーダをさらに備え た、請求項 3に記載のデータ処理装置。
[9] アナログ信号に基づいて映像を連続して録画するときにおいて、前記共通の基準 時刻に基づいて前記データストリームを生成するエンコーダをさらに備えた、請求項
5に記載のデータ処理装置。
[10] 映像のデータストリームを格納した 1以上のストリームファイル、および、前記データ ストリームに基づいて前記映像を再生するための管理情報を格納した 1以上の管理 情報ファイルが記録されている記録媒体であって、
前記データストリームには、前記映像を構成する各ピクチャのピクチャデータ、およ び、前記各ピクチャの表示時刻を特定する時刻情報が対応付けられて格納されてお り、
前記管理情報には、 1以上のピクチャに関し、前記時刻情報と、前記データストリー ム内の前記ピクチャデータの格納位置と、前記ピクチャデータが格納されるストリーム ファイルを特定するファイル情報とを対応付けたテーブルが格納されて ヽる、記録媒 体。
PCT/JP2005/016815 2004-09-13 2005-09-13 データ処理装置 WO2006030767A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/574,821 US20080049574A1 (en) 2004-09-13 2005-09-13 Data Processor
JP2006535141A JPWO2006030767A1 (ja) 2004-09-13 2005-09-13 データ処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-265103 2004-09-13
JP2004265103 2004-09-13

Publications (1)

Publication Number Publication Date
WO2006030767A1 true WO2006030767A1 (ja) 2006-03-23

Family

ID=36060019

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016815 WO2006030767A1 (ja) 2004-09-13 2005-09-13 データ処理装置

Country Status (3)

Country Link
US (1) US20080049574A1 (ja)
JP (1) JPWO2006030767A1 (ja)
WO (1) WO2006030767A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135932A1 (ja) * 2006-05-18 2007-11-29 Sony Corporation 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
JP2008027474A (ja) * 2006-07-18 2008-02-07 Hitachi Ltd 映像記録方法及び装置
WO2008018345A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement d'informations, procédé de traitement d'informations et programme informatique associé
WO2008018311A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement de données, procédé de traitement de données, et programme informatique associé
WO2008018346A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement de l'information, procédé de traitement de l'information et programme informatique
WO2008018344A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement d'informations, procédé de traitement d'informations, et programme informatique associé
WO2008032495A1 (fr) * 2006-09-13 2008-03-20 Sony Corporation Dispositif de traitement de données, procédé de traitement de données, et programme informatique
JP2008090914A (ja) * 2006-09-29 2008-04-17 Sony Corp 記録再生装置及び記録再生方法
JP2010524274A (ja) * 2007-04-13 2010-07-15 トムソン ライセンシング 編集装置および編集方法
JP2010191489A (ja) * 2009-02-13 2010-09-02 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2013131287A (ja) * 2013-02-04 2013-07-04 Hitachi Ltd 映像記録装置及び映像記録方法
US8588042B2 (en) 2006-09-29 2013-11-19 Sony Corporation Recording-and-reproducing apparatus and content-managing method
US8606079B2 (en) 2006-07-31 2013-12-10 Sony Corporation Recording apparatus, recording method, reproduction apparatus, reproduction method, recording and reproduction apparatus, recording and reproduction method, image capturing and recording apparatus, and image capturing and recording method
JP2016042406A (ja) * 2015-11-11 2016-03-31 日立マクセル株式会社 映像記録装置
WO2018135259A1 (ja) * 2017-01-17 2018-07-26 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2018135258A1 (ja) * 2017-01-17 2018-07-26 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080056042A1 (en) * 2006-08-30 2008-03-06 Sun Microsystems, Inc. Storage capacity optimization in holographic storage media
JP5057820B2 (ja) * 2007-03-29 2012-10-24 株式会社東芝 デジタルストリームの記録方法、再生方法、記録装置、および再生装置
WO2009104284A1 (ja) * 2008-02-19 2009-08-27 富士通株式会社 ストリームデータ管理プログラム、方法、及びシステム
JP4924633B2 (ja) * 2009-02-27 2012-04-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8385716B2 (en) * 2009-12-08 2013-02-26 Panasonic Corporation Imaging apparatus
JP2011216013A (ja) * 2010-04-01 2011-10-27 Sony Corp オーサリング方法、オーサリング装置及びプログラム
EP2803185A1 (en) * 2012-01-09 2014-11-19 Thomson Licensing Managing time-shift data
KR20150106326A (ko) * 2012-01-09 2015-09-21 톰슨 라이센싱 서브-기록을 생성 및 관리

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08140043A (ja) * 1994-11-10 1996-05-31 Mitsubishi Electric Corp 画像信号記録方法および画像信号記録装置、画像信号再生方法および画像信号再生装置、ならびに画像信号記録ディスク媒体
JP2000013728A (ja) * 1997-09-17 2000-01-14 Matsushita Electric Ind Co Ltd 光ディスク記録装置、ファイル管理プログラムを記録したコンピュータ読み取り可能な記憶媒体および光ディスク
JP2001052448A (ja) * 1999-08-06 2001-02-23 Hitachi Ltd データ記録媒体およびデータ記録装置
JP2003022604A (ja) * 2001-07-06 2003-01-24 Toshiba Corp デジタル記録再生装置
JP2003228920A (ja) * 2002-01-31 2003-08-15 Toshiba Corp 番組配列情報を記憶する情報記憶媒体、情報記録装置、及び情報再生装置
JP2004248200A (ja) * 2003-02-17 2004-09-02 Sanyo Electric Co Ltd 映像記録装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2294173B (en) * 1994-10-11 1998-12-09 Mitsubishi Electric Corp Disk media, and method of and device for recording and playing back information on or from a disk media
US7103262B2 (en) * 1997-09-17 2006-09-05 Matsushita Electric Industrial Co., Ltd. Optical disc recording apparatus, computer-readable recording medium recording a file management program, and optical disc
US6118924A (en) * 1997-09-17 2000-09-12 Matsushita Electric Industrial Co., Ltd. Optical disc recording apparatus computer-readable recording medium recording a file management program, and optical disc
JP4328989B2 (ja) * 1999-11-24 2009-09-09 ソニー株式会社 再生装置、再生方法、並びに記録媒体
JP4756623B2 (ja) * 2001-11-30 2011-08-24 ソニー株式会社 情報記録装置および方法、プログラム格納媒体、並びにプログラム
KR20030087193A (ko) * 2002-05-07 2003-11-14 엘지전자 주식회사 멀티 채널 방송 스트림의 기록 관리방법
US7340157B2 (en) * 2002-11-20 2008-03-04 Apacer Technology Portable transcription device and method of the same priority
JP3931843B2 (ja) * 2003-06-13 2007-06-20 株式会社日立製作所 記録媒体および再生方法
US7945141B2 (en) * 2003-10-06 2011-05-17 Samsung Electronics Co., Ltd. Information storage medium including event occurrence information, and apparatus and method for reproducing the information storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08140043A (ja) * 1994-11-10 1996-05-31 Mitsubishi Electric Corp 画像信号記録方法および画像信号記録装置、画像信号再生方法および画像信号再生装置、ならびに画像信号記録ディスク媒体
JP2000013728A (ja) * 1997-09-17 2000-01-14 Matsushita Electric Ind Co Ltd 光ディスク記録装置、ファイル管理プログラムを記録したコンピュータ読み取り可能な記憶媒体および光ディスク
JP2001052448A (ja) * 1999-08-06 2001-02-23 Hitachi Ltd データ記録媒体およびデータ記録装置
JP2003022604A (ja) * 2001-07-06 2003-01-24 Toshiba Corp デジタル記録再生装置
JP2003228920A (ja) * 2002-01-31 2003-08-15 Toshiba Corp 番組配列情報を記憶する情報記憶媒体、情報記録装置、及び情報再生装置
JP2004248200A (ja) * 2003-02-17 2004-09-02 Sanyo Electric Co Ltd 映像記録装置

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995816B2 (en) 2006-05-18 2015-03-31 Sony Corporation Recording apparatus, recording method, and recording program, and image capturing apparatus, image capturing method and image capturing program
JP2007312071A (ja) * 2006-05-18 2007-11-29 Sony Corp 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
KR101379034B1 (ko) 2006-05-18 2014-04-10 소니 주식회사 기록 장치, 기록 방법 및 기록 프로그램과 촬상 장치, 촬상방법 및 촬상 프로그램
WO2007135932A1 (ja) * 2006-05-18 2007-11-29 Sony Corporation 記録装置、記録方法および記録プログラム、ならびに、撮像装置、撮像方法および撮像プログラム
CN101331764B (zh) * 2006-05-18 2010-12-22 索尼株式会社 记录装置、记录方法、记录程序、摄像装置、摄像方法和摄像程序
JP2008027474A (ja) * 2006-07-18 2008-02-07 Hitachi Ltd 映像記録方法及び装置
US8606079B2 (en) 2006-07-31 2013-12-10 Sony Corporation Recording apparatus, recording method, reproduction apparatus, reproduction method, recording and reproduction apparatus, recording and reproduction method, image capturing and recording apparatus, and image capturing and recording method
JP2008047963A (ja) * 2006-08-10 2008-02-28 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN101356807B (zh) * 2006-08-10 2010-10-06 索尼株式会社 信息处理设备、信息处理方法
JP2008047163A (ja) * 2006-08-10 2008-02-28 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8582951B2 (en) 2006-08-10 2013-11-12 Sony Corporation Information processing device, information processing method, and computer program
WO2008018345A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement d'informations, procédé de traitement d'informations et programme informatique associé
WO2008018311A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement de données, procédé de traitement de données, et programme informatique associé
JP2008047985A (ja) * 2006-08-10 2008-02-28 Sony Corp データ処理装置及びデータ処理方法、並びにコンピュータ・プログラム
US20090310930A1 (en) * 2006-08-10 2009-12-17 Sony Corporation Data processing apparatus, data processing method, and computer program
US8818165B2 (en) 2006-08-10 2014-08-26 Sony Corporation Data processing apparatus, data processing method, and computer program
KR101385268B1 (ko) 2006-08-10 2014-04-16 소니 주식회사 데이터처리장치 및 데이터처리방법과 컴퓨터·프로그램
JP2008047962A (ja) * 2006-08-10 2008-02-28 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2008018344A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement d'informations, procédé de traitement d'informations, et programme informatique associé
CN101356806B (zh) * 2006-08-10 2012-04-25 索尼株式会社 信息处理设备和信息处理方法
WO2008018346A1 (fr) * 2006-08-10 2008-02-14 Sony Corporation Dispositif de traitement de l'information, procédé de traitement de l'information et programme informatique
JP2008072312A (ja) * 2006-09-13 2008-03-27 Sony Corp データ処理装置及びデータ処理方法、並びにコンピュータ・プログラム
WO2008032495A1 (fr) * 2006-09-13 2008-03-20 Sony Corporation Dispositif de traitement de données, procédé de traitement de données, et programme informatique
US8229273B2 (en) 2006-09-29 2012-07-24 Sony Corporation Recording-and-reproducing apparatus and recording-and-reproducing method
JP2008090914A (ja) * 2006-09-29 2008-04-17 Sony Corp 記録再生装置及び記録再生方法
US8588042B2 (en) 2006-09-29 2013-11-19 Sony Corporation Recording-and-reproducing apparatus and content-managing method
TWI382410B (zh) * 2006-09-29 2013-01-11 Sony Corp 記錄及再生裝置和記錄及再生方法
KR101406332B1 (ko) * 2006-09-29 2014-06-20 소니 주식회사 기록 및 재생장치 및 기록 및 재생방법
JP2010524274A (ja) * 2007-04-13 2010-07-15 トムソン ライセンシング 編集装置および編集方法
US8898563B2 (en) 2007-04-13 2014-11-25 Gvbb Holdings S.A.R.L. Editing apparatus and an editing method
US9015583B2 (en) 2007-04-13 2015-04-21 Gvbb Holdings S.A.R.L. Editing apparatus and an editing method
JP2010191489A (ja) * 2009-02-13 2010-09-02 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
US8868627B2 (en) 2009-02-13 2014-10-21 Sony Corporation Information processing apparatus, information processing method, and program
JP2013131287A (ja) * 2013-02-04 2013-07-04 Hitachi Ltd 映像記録装置及び映像記録方法
JP2016042406A (ja) * 2015-11-11 2016-03-31 日立マクセル株式会社 映像記録装置
WO2018135259A1 (ja) * 2017-01-17 2018-07-26 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2018135258A1 (ja) * 2017-01-17 2018-07-26 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JPWO2018135259A1 (ja) * 2017-01-17 2019-11-07 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JPWO2018135258A1 (ja) * 2017-01-17 2019-11-07 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP7070432B2 (ja) 2017-01-17 2022-05-18 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP7070433B2 (ja) 2017-01-17 2022-05-18 ソニーグループ株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JPWO2006030767A1 (ja) 2008-05-15
US20080049574A1 (en) 2008-02-28

Similar Documents

Publication Publication Date Title
WO2006030767A1 (ja) データ処理装置
JP3631430B2 (ja) 自動チャプタ作成機能付き記録再生装置
JP4542546B2 (ja) データ処理装置
US7542663B2 (en) Optical disc recording apparatus, optical disc reproduction apparatus, and optical disc recording method that are all suitable for seamless reproduction
JP5314097B2 (ja) 記録装置および情報記録方法
WO2005117432A1 (ja) 番組録画装置および番組録画方法
JP2003006979A (ja) データ伝送装置および方法、データ処理装置および方法、記録媒体、並びにプログラム
US20020127001A1 (en) Recording/reproducing apparatus
JP4591405B2 (ja) 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JPWO2006121049A1 (ja) データ処理装置
US20030223140A1 (en) Recording device and recording method
JP2004118986A (ja) 情報記録装置および方法
JP2002152665A (ja) プレイリスト作成ガイド機能付き記録再生装置
JP2007129368A (ja) 情報記録装置およびその方法
JP2012074105A (ja) 記録装置/方法/媒体、再生装置/方法
JP2002170324A (ja) 内蔵記憶媒体付録再装置
US20030113097A1 (en) Editing apparatus and method
WO2003065715A1 (fr) Appareil, systeme et procede d'enregistrement/lecture de donnees audio/video, support enregistre par eux, appareil de reproduction de donnees audio/video, et structure de donnees
JP3607596B2 (ja) チャプタ作成ガイド機能付き記録再生装置
JP3917610B2 (ja) チャプタ作成ガイド機能付き記録再生装置
JP4071750B2 (ja) プレイリスト作成ガイド機能付き記録再生装置
JP2004364325A (ja) 自動チャプタサムネイル作成方法
JP2007095217A (ja) 記録再生装置
JP2008004247A (ja) 情報記録媒体、記録装置、および記録方法
JP2004236077A (ja) 自動チャプタ作成機能付き記録再生装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006535141

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11574821

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05783669

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5783669

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11574821

Country of ref document: US