WO2006033279A1 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
WO2006033279A1
WO2006033279A1 PCT/JP2005/017035 JP2005017035W WO2006033279A1 WO 2006033279 A1 WO2006033279 A1 WO 2006033279A1 JP 2005017035 W JP2005017035 W JP 2005017035W WO 2006033279 A1 WO2006033279 A1 WO 2006033279A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
stream
unit
data stream
time
Prior art date
Application number
PCT/JP2005/017035
Other languages
English (en)
French (fr)
Inventor
Hiroshi Yahata
Tomoyuki Okada
Masanori Itoh
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/575,407 priority Critical patent/US20080063387A1/en
Priority to JP2006536356A priority patent/JPWO2006033279A1/ja
Publication of WO2006033279A1 publication Critical patent/WO2006033279A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2508Magnetic discs
    • G11B2220/2516Hard disks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Definitions

  • the present invention relates to a technique for efficiently managing a data stream of content on a medium and facilitating reproduction and editing of the content.
  • optical disk recorders capable of writing and storing digital data of contents on media such as optical disks such as DVDs, magnetic disks such as hard disks, and semiconductor memories
  • Such content is, for example, video and audio shot by a broadcast program, a camcorder, or the like.
  • PCs content recording, playback, and editing functions have also been implemented in PCs, and PCs can also be included in the above digital devices.
  • media such as hard disks, optical disks, and semiconductor memories have been used for recording document data and the like. Therefore, such media employs a data management structure that can be linked with a PC, for example, a file system using FAT (File Allocation Table).
  • FAT32 file system which is currently widely used, can handle files with a maximum size of 4 gigabytes and can manage media with a maximum recordable capacity of 2 terabytes.
  • Patent Document 1 Japanese Patent Laid-Open No. 11-155130
  • An object of the present invention is to provide means for efficiently accessing a data stream when a content data stream is stored across a plurality of files.
  • the data processing device can write a data stream of content to a medium.
  • the data stream is composed of a plurality of pictures and has a playback unit that requires decoding from a reference picture.
  • the data processing device includes at least one of an encoder that generates the data stream and a reception unit that receives the data stream, and a media control unit that writes the data stream to the medium.
  • the media control unit is writing the data stream.
  • the media control unit generates management information that defines a corresponding playback unit attribute for each playback unit of the data stream, and the playback unit data includes the first stream file and the second stream data.
  • management information that defines a corresponding playback unit attribute for each playback unit of the data stream
  • the playback unit data includes the first stream file and the second stream data.
  • a file system in which a maximum file size is defined is constructed on the medium.
  • the media control unit may generate information indicating that the size is equal to or smaller than the maximum size as the predetermined value and stored across the size.
  • the data stream includes one or more data packets each having a fixed data size.
  • the media control unit may generate information indicating that a stream file size that is equal to or smaller than the maximum size and includes an integer number of packets is stored across the predetermined value as the predetermined value. ,.
  • the data processing device further includes a stream processing unit that counts time based on a reference time, generates a header storing time information indicating a time when the packet is received, and adds the header to the packet. Yes.
  • the encoder generates a data stream composed of a plurality of packets between the start and end of writing of the data stream related to one content, and the stream processing unit continues based on the reference time.
  • the time information may be generated by counting time.
  • the media control unit may generate management information defining a prior relationship regarding reproduction of the data stream in the first stream file and the data stream in the second stream file, and write the management information to the media.
  • the media control unit includes, as management information corresponding to the first data stream, first management information in which information specifying the second data stream reproduced next to the first data stream is described. As management information corresponding to the second data stream generated, Second management information describing information for identifying the first data stream to be reproduced before the second data stream may be generated.
  • a data processing device counts time based on a reference time, receives a data stream composed of a plurality of packets, and stores a header storing time information indicating the time when each packet is received.
  • a stream processing unit that generates and adds the header to each packet; and a media control unit that writes a data stream of each packet to which the header is added to the medium.
  • the stream processing unit continuously generates time information based on the reference time, and the media control unit When the size of the first stream file that is writing the data stream exceeds a predetermined value, writing to the second stream file different from the first stream file is continued.
  • the media control unit generates management information that defines a prior relationship regarding reproduction of the first data stream in the first stream file and the second data stream in the second stream file, and writes the management information to the media But you can.
  • the media control unit includes, as management information corresponding to the first data stream, first management information in which information specifying the second data stream reproduced next to the first data stream is described. Generating second management information describing information identifying the first data stream to be reproduced before the second data stream as management information corresponding to the second data stream; .
  • a chip circuit is mounted on a data processing device, and performs processing for writing a data stream of content to a medium.
  • the data stream includes a plurality of pictures and has a reproduction unit that requires decoding from a reference picture
  • the data processing device includes an encoder that generates the data stream and a reception unit that receives the data stream At least one of them.
  • the chip circuit determines that the write instruction and the data stream are output, the process of determining whether the size of the first stream file being written exceeds a predetermined value, and the predetermined value. If it is disconnected, write to a second stream file that is different from the first stream file.
  • a process for continuing, a process for generating information indicating whether or not the playback unit data is stored across the first stream file and the second stream file, and the information is stored in the medium. Execute the writing process.
  • a chip circuit according to the present invention is mounted on a data processing device, and performs processing for writing a data stream of content to a medium.
  • the chip circuit includes a process for writing the data stream to the medium as a first stream file, a process for determining whether or not the size of the first stream file being written exceeds a predetermined value, When it is determined that the predetermined value is exceeded, a process of continuing writing the data stream to a second stream file different from the first stream file is executed.
  • the chip circuit receives a process that counts time based on a reference time, and a header that stores the data stream including a plurality of buckets and stores time information indicating the reception time of each packet.
  • the process of generating and adding to each packet may be further executed, and the data stream with the header added may be written to the medium as a first stream file.
  • the chip circuit may further execute a process of receiving and encoding a video signal from the data processing device, and generating a data stream composed of the plurality of packets.
  • the chip circuit may further execute a process of reading the encoded data stream from the medium and a process of decoding the data stream.
  • the data processing apparatus can read the encoded content data stream from the media and reproduce the content.
  • the data stream is composed of a plurality of pictures and includes data of a reproduction unit that needs to be decoded from a reference picture, and time information indicating a reproduction time is added to each of the plurality of pictures. Yes.
  • at least one stream file storing the data stream is recorded, and information corresponding to each of the playback units is stored across a plurality of files. Information indicating whether or not it is present is written.
  • the data processing apparatus includes an instruction receiving unit that receives an instruction of a time to start reproduction, and a start picture that should start reproduction based on the instruction.
  • a media control unit that reads the data of the playback unit from the stream file, a decoder that starts decoding from the reference picture of the playback unit, and an end of decoding of the start picture And an output unit for starting output from the start picture.
  • the media control unit determines that the data of the playback unit is stored across a plurality of files based on the information corresponding to the playback unit, the media control unit converts the data of the playback unit to the plurality of files. You may read from a file.
  • the media control unit may read the reproduction unit data from a file in which reference picture data of the reproduction unit is stored.
  • the data stream is composed of a plurality of packets, and each of the plurality of packets is appended with a header storing time information defining the output time of each packet.
  • the data processing device may further include a stream processing unit that receives each packet to which the header is added and outputs each packet at a timing based on the time information.
  • a chip circuit according to the present invention is mounted on a data processing apparatus, reads a coded data stream of content from a medium, and performs processing for reproducing the content.
  • the data stream is composed of a plurality of pictures and includes data of a reproduction unit that requires decoding of a reference picture.
  • Time information indicating playback time is added to each of the plurality of pictures.
  • In the medium at least one stream file storing the data stream is recorded, and information corresponding to each of the playback units, and the data of the playback unit is stored across a plurality of files. The information indicating whether or not is written.
  • the data processing apparatus includes an instruction receiving unit that receives an instruction of a time to start reproduction.
  • the chip circuit based on the instruction, specifies a playback unit including a start picture to start playback and a data position of the start picture in the playback unit; Processing for outputting an instruction to read information corresponding to the recording unit from the medium, and determining whether the data of the playback unit is stored across a plurality of files based on the information. When it is determined that the data is not stored, a process for outputting an instruction to read the data for the reproduction unit from the stream file and a process for outputting the read data for the reproduction unit are executed.
  • the chip circuit may further execute a process of starting decoding from the reference picture of the reproduction unit and a process of starting output from the start picture after the decoding of the start picture.
  • the chip circuit determines that the data of the reproduction unit is stored across a plurality of files based on the information corresponding to the reproduction unit, the chip unit stores the data of the reproduction unit.
  • An instruction to read from the file may be output.
  • the chip circuit may output an instruction to read the reproduction unit data from a file in which the reproduction unit reference picture data is stored.
  • the data stream is composed of a plurality of packets, and each of the plurality of packets is appended with a header storing time information defining the output time of each packet.
  • the chip circuit may further execute a process of receiving each packet to which the header is added and outputting each packet at a timing based on the time information.
  • the data processing method is used to write a data stream of content to a medium.
  • the data stream is composed of a plurality of pictures, and has a playback unit including one or more decoding key units that require decoding from a reference picture.
  • the data processing method includes the steps of obtaining the data stream and writing the data stream to the medium.
  • the step of writing to the medium continues writing to a second stream file different from the first stream file when the size of the first stream file in which the data stream is being written exceeds a predetermined value, Information indicating that the data is stored across the first stream file and the second stream file is generated and written to the medium.
  • the invention's effect when a content data stream is stored across a plurality of files, information (for example, a flag) indicating that a playback unit composed of a plurality of pictures spans two files is stored. Generated. Since the playback unit needs to be decoded from the first picture, by referring to this information, the device can determine which file data should start decoding. Also, when playing back playback units across files, the packets are decoded according to the continuous reference time, so that the decoder can perform the decoding process appropriately.
  • information for example, a flag
  • FIG. 1 is a diagram showing a plurality of types of data processing devices that cooperate via removable media.
  • FIG. 2 is a diagram showing functional blocks of the camcorder 100.
  • FIG. 3 is a diagram showing a data structure of a transport stream (TS) 20.
  • FIG. 4 (a) shows the data structure of video TS packet 30, and (b) shows audio TS packet.
  • FIG. 5 (a) to (d) are diagrams showing the relationship of streams constructed when video pictures are reproduced from video TS packets.
  • FIG. 6 is a diagram showing a data structure of a clip AV stream 60.
  • FIG. 7 is a diagram showing a functional block configuration of a TS processing unit 204.
  • FIG. 8 (a) is a diagram showing the concept of one content in the present embodiment, (b) is a diagram showing the concept of a clip including content management information and stream data, and (c) is a diagram.
  • FIG. 3 is a diagram showing three removable HDDs 112.
  • FIG. 9 is a diagram showing a hierarchical directory structure in the removable HDD 112.
  • FIG. 10 is a diagram showing the contents of information included in clip metadata 94.
  • FIG. 11 is a diagram showing the relationship between key pictures and key picture units.
  • FIG. 12] (a) is a diagram showing a data structure of a clip timeline (ClipTimeLine) 95.
  • FIG. 13 (a) is a diagram showing the relationship between time entries and fields included in clip timeline 95, and (b) shows the relationship between KPU entries and fields included in clip timeline 95.
  • FIG. 14 is a diagram showing management information and clip AV stream related to one shot of content stored separately in two removable HDDs.
  • FIG. 15 is a diagram showing a procedure of content recording processing by the camcorder 100.
  • FIG. 16 is a diagram showing a procedure of media switching processing.
  • FIG. 17 is a diagram showing a procedure of content reproduction processing by the camcorder 100.
  • FIG. 18 (a) and (b) are diagrams showing the relationship between the management information and the clip AV stream before and after deleting the head portion of the TTS file by editing.
  • FIG. 19 is a diagram showing a procedure of content partial deletion processing by the camcorder 100. Explanation of symbols
  • FIG. 1 shows a plurality of types of data processing apparatuses that cooperate via a removable medium.
  • the data processing apparatus is described as a camcorder 100-1, a camera-equipped cellular phone 100-2, and PC 108.
  • the camcorder 100-1 and the mobile phone with camera 100-2 receive the video and audio captured by the user, encode them as digital data streams, and write the data streams to the removable media 112-1 and 112-2, respectively.
  • Data written to each removable medium is handled as a “file” on the file system built on the removable medium.
  • FIG. 1 shows that a plurality of files are stored on the removable medium 112-2.
  • Each removable medium 112-1 and 112-2 is removable from the data processing device, such as an optical disc such as a DVD or a BD (Blu-ray Disc), an ultra-small hard disk such as a micro drive, a semiconductor memory, or the like.
  • the PC 108 has a slot into which each removable medium 112 1 and 112-2 can be loaded. The PC 108 reads data from the loaded removable media 112-1, 112-2, performs playback processing and Execute editing processing.
  • the removable HDD 112 data management is performed by the FAT32 file system.
  • the maximum file size of a file is, for example, 4 gigabytes. Therefore, in the FAT32 file system, when the data size exceeds gigabytes, it is written in two or more files.
  • a removable HDD 112 having a capacity of 8 GB can store two 4 GB files.
  • a 16-gigabyte removable HDD 112 can store 4 gigabytes of files.
  • the unit to be divided and written may not be the maximum value of the file size, but may be a size not more than the maximum value of the file size.
  • the data processing apparatus that writes the content data stream to the removable medium is a camcorder.
  • the data processing apparatus for playing back and editing the data stream stored on the removable medium is a PC.
  • the removable medium 112-1 is an ultra-small removable hard disk.
  • the removable medium includes a mechanism (drive mechanism) for driving a hard disk to write and read data, such as a known microdrive.
  • removable media 112-1 is described as “removable HDD 112”.
  • the removable HDD 112 has a capacity of 4 gigabytes. As a result, content exceeding 4GB is written separately on 2 or more removable HDDs. However, even if the removable HDD has a capacity of 4 GB or more and content exceeding 4 GB is written to it, you can divide it into 2 or more files and write it to the same removable HDD.
  • the cluster size of the removable HDD 112 is, for example, 32 kilobytes.
  • a “cluster” is the smallest access unit for writing and reading data.
  • FIG. 2 shows a functional block configuration of the camcorder 100.
  • Camcorder 100 can be loaded with multiple removable HDDs 112a, 112b, ..., 112c at the same time.
  • the data stream (clip AV stream) related to the video and audio recorded by the user is written to the limo novole HDD 112a, 112b, ..., 112ci.
  • the camcorder 100 includes a CCD 201a, a microphone 201b, and a digital tuner 201c that receives a digital broadcast, an AD converter 202, an MPEG-2 encoder 203, a TS processing unit 204, a media control P unit 205, and an MPEG— 2 Decoder 206, graphic control P section 207, memory 208, f night crystal display (LCD) 209a and speaker 209b, CPU node 213, network control section 214, instruction receiving section 215, interface (I / F) part 216 and system control part 250 are included.
  • the CCD 201a and the microphone 201b receive video and audio analog signals, respectively.
  • the CCD 201a outputs the video as a digital signal.
  • the microphone 201b outputs an audio analog signal.
  • the AD converter 202 converts the input analog audio signal into a digital signal and supplies it to the MPEG-2 encoder 203.
  • the digital tuner 201c functions as a receiving unit that receives a digital signal including one or more programs from an antenna (not shown).
  • a transport stream transmitted as a digital signal contains a plurality of program packets.
  • the digital tuner 201c extracts and outputs a packet of a specific program (program of a recording target channel) from the received transport stream.
  • the output stream is also a transport stream, sometimes called a “partial transport stream” to distinguish it from the original stream.
  • the data structure of the transport stream will be described later with reference to FIGS.
  • the camcorder 100 includes the digital tuner 201c as a constituent element, but this is not an essential requirement.
  • the configuration of the camcorder 100 in FIG. 2 can be applied to the camera-equipped mobile phone 100-2 mentioned in FIG. 1, so it can be considered as a component of a camera-equipped cellular phone that can receive and view digital broadcasts. Good.
  • MPEG-2 encoder 203 Upon receiving an instruction to start recording, MPEG-2 encoder 203 (hereinafter referred to as “encoder 203”) compresses and encodes the supplied video and audio digital data based on the MPEG standard. .
  • the encoder 203 receives video data.
  • a transport stream (hereinafter also referred to as “TS”) is generated by compressing the MPEG-2 format and sent to the TS processing unit 204. This process is continued until the encoder 203 receives a recording end instruction.
  • the encoder 203 has a buffer (not shown) or the like that temporarily holds a reference picture or the like in order to perform bidirectional compression coding. It is not necessary to match the video and audio encoding formats. For example, video may be compressed and encoded in MPEG format, and audio may be compressed and encoded in AC-3 format.
  • the camcorder 100 generates and processes a TS.
  • TS the data structure of TS will be described with reference to FIGS.
  • FIG. 3 shows the data structure of transport stream (TS) 20.
  • the TS packet is, for example, a video TS packet (V—TSP) 30 in which compressed and encoded video data is stored, an audio TS packet (A—TSP) 31 in which encoded audio data is stored, and the like.
  • a packet (PAT-TSP) in which a program table (program 'association' table; PAT) is stored, a bucket (PMT-TSP) in which a program correspondence table (program map table; PMT) is stored, and a program Includes a packet (PCR—TSP) in which the clock 'reference (PCR) is stored.
  • the data amount of each TS packet is 188 bytes.
  • TS packets that describe the program structure of TS such as PAT-TSP and PMT-TSP are generally called PSI / SI packets.
  • FIG. 4 (a) shows the data structure of the video TS packet 30.
  • the video TS packet 30 generally has a 4-byte transport packet header 30a and a 184-byte transport packet payload 30b.
  • Video data 30b is stored in the payload 30b.
  • FIG. 4B shows the data structure of the audio TS packet 31.
  • the audio TS packet 31 generally has a 4-byte transport packet header 31a and a 184-byte transport packet payload 3 lb. Audio data 3 lb is stored in the transport packet payload 3 lb.
  • Data called adaptation field may be added to TS packet header, but it is used to align data to be stored in TS packet.
  • the payload (30b, 31b) of the TS packet is less than 184 nodes.
  • a TS packet is generally composed of a 4-byte transport bucket header and 184-byte elementary data.
  • the packet header describes a packet identifier (Packet IDentifier; PID) that identifies the type of the packet.
  • PID Packet IDentifier
  • Elementary data includes content data such as video data and audio data, control data for controlling playback, and the like. The type of data stored depends on the type of packet.
  • Figures 5 (a) to 5 (d) show the relationship of the streams that are constructed when playing video pictures from video TS packets.
  • the TS 40 includes video TS packets 40a to 40d.
  • TS40 may include other packets, only video TS packets are shown here.
  • Video TS packets are easily identified by the PID stored in header 40a-1.
  • a packetized elementary stream is composed of video data of each video TS packet such as video data 40a-2.
  • Figure 5 (b) shows the data structure of the packetary elementary stream (PES) 41.
  • the PES 41 is composed of a plurality of PES packets 41a, 41b and the like.
  • the PES packet 41a is composed of a PES header 41a-1 and a PES payload 41a-2, and these data are stored as video data of a video TS packet.
  • Each of the PES payloads 41a_2 includes data of one picture.
  • An elementary stream is composed of the PES payload 41a_2.
  • Figure 5 (c) shows the data structure of elementary stream (ES) 42.
  • the ES 42 has a plurality of sets of picture headers and picture data. Note that “picture” is generally used as a concept including both frames and fields.
  • the picture header 42a shown in FIG. 5 (c) describes a picture coding type that specifies the picture type of the picture data 42b arranged thereafter, and the picture header 42c specifies the picture type of the picture data 42d. Describes the picture coding type to be performed.
  • the types are I picture (Intra— coded picture), ⁇ picture (Predictive — coded iDicture), Baku Hakuya (BiairectionaLiy— predictive— codea pict ure) etc. If the type is an I picture, the picture coding type is determined to be "001b", for example.
  • the picture data 42b, 42d, and the like are data of one frame that can be constructed only by the data, or by the data and the data decoded before and / or after the data.
  • FIG. 5 (d) shows a picture 43a constructed from the picture data 42b and a picture 43b constructed from the picture data 42d.
  • camcorder 100 When playing back video based on TS, camcorder 100 acquires a video TS packet, acquires picture data according to the above-described processing, and acquires pictures constituting the video. As a result, the video can be reproduced on the LCD 209a.
  • the TS processing unit 204 receives a TS from the encoder 203 when recording a moving image, or receives a TS from the digital tuner 201c when recording a digital broadcast program, and generates a clip AV stream.
  • the clip AV stream is a data stream having a predetermined format for storage in the removable HDD 112a or the like.
  • the file extension of the clip AV stream stored in the removable HDD is given the extension TTS (meaning “Timed TS”).
  • the clip AV stream is realized as a TS to which arrival time information is added.
  • the TS processing unit 204 receives a clip AV stream read from the removable HDD 112a or the like from the media control unit 205 during content playback, generates a TS based on the clip AV stream, and generates an MPEG-2 decoder. Output to 206.
  • FIG. 6 shows the data structure of the clip AV stream 60.
  • the clip AV stream 60 is composed of a plurality of TTS packets 61.
  • the TTS socket 61 is composed of a 4-byte TTS header 61a and a 188-byte TS packet 61b. That is, the TTS bucket 61 is generated by adding the TTS header 61a to the TS packet 6 lb.
  • the TS packet 61b is the TS packet described in relation to FIGS. 3, 4 (a) and 4 (b), and the like.
  • the TTS header 61a includes a 2-bit reserved area 61a-1 and 30-bit arrival time information (Arriv al Time Stamp; ATS) 61a_2.
  • This arrival time information 61a_2 indicates the time at which the TS packet output from the encoder 203 arrives at the TS processing unit 204.
  • the TS processing unit 204 outputs a TS packet to the decoder 206 based on this time.
  • FIG. 7 shows a functional block configuration of the TS processing unit 204.
  • the TS processing unit 204 includes a TTS header attached calorie unit 261, a clock counter 262, a PLL circuit 263, a nother 264, and a TTS header removal unit 265.
  • the TTS header adding unit 261 receives the TS, adds a T TS header before the TS packet constituting the TS, and outputs it as a TTS packet.
  • the arrival time of the TS packet described in the arrival time information 61a-2 in the TTS header is specified based on the count value (count information) from the reference time given to the TTS header adding unit 261.
  • the clock counter 262 and the PLL circuit 263 generate information necessary for the TTS header adding unit 261 to specify the arrival time of the TS packet.
  • the PLL circuit 263 extracts a PCR packet (PCR—TSP in FIG. 2) included in the TS, and obtains a PCR (Program Clock Reference: reference time) indicating the reference time.
  • PCR Program Clock Reference: reference time
  • STC System Time Clock
  • STC System Time Clock
  • the system clock frequency of the system reference time STC is 27 MHz.
  • the PLL circuit 263 outputs a 27 MHz clock signal to the clock counter 262.
  • the clock counter 262 receives the clock signal and outputs the clock signal to the TTS header adding unit 261 as count information.
  • the notifier 264 has a write buffer 264a and a read buffer 264b.
  • the write buffer 264a sequentially holds the transmitted TTS packets, and outputs them to the media control unit 205 (to be described later) when the total data amount reaches a predetermined value (for example, the total capacity of the buffer).
  • a series of TTS packet sequences (data streams) output at this time is called a clip AV stream.
  • the Reno buffer 264b temporarily buffers the clip AV stream read from the removable HDD 112a or the like by the media control unit 205 and outputs the clip AV stream in units of TTS packets.
  • the TTS header removal unit 265 receives the TTS packet, converts the TTS packet into a TS packet by removing the TTS header, and outputs the TS packet. It should be noted that the TTS header removal unit 265 extracts the arrival time information ATS of the TS packet included in the TTS header, and based on the arrival time information ATS and the timing information provided from the clock counter 262, The TS packet is output at the timing (time interval) corresponding to the arrival time.
  • the removable HDD 112a and the like can be accessed randomly, and data is discontinuously arranged on the disk.
  • the TS processing unit 204 can output the TS packet at the same timing as the arrival timing of the TS packet at the time of recording regardless of the data storage position.
  • the TTS header removal unit 265 sends, for example, the arrival time specified in the first TTS packet to the clock counter 262 as an initial value in order to specify the reference time of the read TS.
  • the clock counter 262 can start counting from the initial value, and thus the subsequent count result can be received as timing information.
  • TS processing section 204 is provided, and a clip AV stream is generated by adding a TTS header to TS.
  • CBR Constant Bit Rate
  • the TS processor 204 is omitted because the TS packet decoder input time is a fixed interval. TS can also be written to the removable HDD112.
  • the media control unit 205 receives the clip AV stream from the TS processing unit 204, determines whether to output to any of the removable HDDs 112a, 112b, ..., 112c, and outputs it to the removable HDD .
  • the media control unit 205 monitors the recordable capacity of the removable HD D being written, and when the remaining recordable capacity falls below the specified value, changes the output destination to another removable HDD, and the clip AV stream Continue to output. At this time, the clip AV stream constituting one content is stored across the two removable HDDs 112.
  • the media control unit 205 generates a clip timeline table which is one of the main features of the present invention. Then the clip AV stream Describes the flag that indicates whether or not the raw key unit is stored across two files. The detailed operation of the media control unit 205 and the detailed data structure of the clip timeline table generated by the media control unit 205 will be described later.
  • the process of writing the clip AV stream to the removable HDD 112 is performed by the removable HDD 112 that has received the write instruction and the clip AV stream from the media control unit 205.
  • the process of reading the clip AV stream is performed by the removable HDD 112 that has received a read instruction from the media control unit 205.
  • the media control unit 205 writes and reads the clip AV stream.
  • the MPEG-2 decoder 206 deciphers the supplied TS and obtains compressed encoded data of video and audio from the TS packet. Then, the compressed and encoded data of the video is decompressed and converted into uncompressed data, and supplied to the graphic control unit 207. The decoder 206 decompresses the audio compression encoded data to generate an audio signal, and outputs the audio signal to the speaker 209b.
  • the decoder 206 is configured to meet the requirements of the system target decoder (T—STD) specified in the MPEG standard for TS.
  • the graphic control unit 207 is connected with a memory 208 for internal calculation, and can realize an on-screen display (OSD) function.
  • OSD on-screen display
  • the dynamic control unit 207 can output a video signal obtained by synthesizing various menu images and videos.
  • the liquid crystal display (LCD) 209a displays the video signal output from the graphic control unit 207 on the LCD.
  • the speaker 209b outputs an audio signal as sound. The content is played back via the LCD 209a and the speaker 209b and is subject to viewing.
  • the output destination of the video signal and the audio signal is not limited to the LCD 209a and the speaker 209b, respectively.
  • the video signal and the audio signal may be transmitted to a television or speaker separate from the camcorder 100 via an external output terminal (not shown).
  • the CPU bus 213 is a path for transmitting a signal in the camcorder 100, and is connected to each functional block as shown in the figure. In addition, the CPU bus 213 has system control described later. Each component of part 250 is also connected.
  • the network control unit 214 is an interface for connecting the camcorder 100 to the network 101 such as the Internet, and is, for example, a terminal and a controller compliant with the Ethernet (registered trademark) standard.
  • the network control unit 214 transmits and receives data via the network 101.
  • the network control unit 214 may transmit the captured AV stream generated and generated to the broadcast station via the network 101.
  • the network control unit 214 may receive the updated program via the network 101.
  • the instruction receiving unit 215 is an operation button provided on the main body of the camcorder 100.
  • the instruction receiving unit 215 receives instructions from the user, such as recording start / stop, playback start / stop, and the like.
  • the interface (I / F) unit 216 controls a connector for the camcorder 100 to communicate with other devices and its communication.
  • the I / F unit 216 includes, for example, a USB 2.0 standard terminal, an IE EE 1394 standard terminal, and a controller that enables data communication according to each standard, and can exchange data in a manner compliant with each standard.
  • the camcorder 100 is connected to the PC 108, another camcorder (not shown), a BDZDVD recorder, a PC, etc. via a USB 2.0 standard or IEEE1394 standard terminal.
  • the system control unit 250 controls the overall processing including the signal flow in the camcorder 100.
  • the system control unit 250 includes a program ROM 210, a CPU 211, and a RAM 212. Each is connected to the CPU bus 213.
  • the program ROM 210 stores a software program for controlling the camcorder 100.
  • the CPU 211 is a central control unit that controls the overall operation of the camcorder 100.
  • the CPU 211 reads out and executes the program to generate a control signal for realizing processing defined based on the program, and outputs the control signal to each component via the CPU bus 213.
  • the memory 212 has a work area for storing data necessary for the CPU 211 to execute the program.
  • the CPU 211 reads the program from the program ROM 210 to the random access memory (RAM) 212 using the CPU bus 213. And execute the program.
  • the computer program is recorded on a recording medium such as a CD-ROM and distributed on the market, or transmitted through an electric communication line such as the Internet.
  • a computer system configured using a PC, a camera, a microphone, or the like can be operated as a device having a function equivalent to that of the camcorder 100 according to the present embodiment.
  • a device is also called a data processing device.
  • FIG. 8 (a) shows the concept of one content in this embodiment. Record the content obtained during the period from the start to the end of the filming as one shot.
  • Figure 8 (b) shows the concept of a clip that includes content management information and stream data.
  • One shot that is, one content can be divided into a plurality of clips a to c and stored in each removable HDD 112a to 112c (may be completed with one clip).
  • One clip includes clip metadata 81, a time map 82, and a part (partial stream) of the clip AV stream 83.
  • the clip AV stream 83 is composed of partial streams 83a to 83c, and is included in each of the clips a to c.
  • FIG. 8 (b) the force in which three clips a to c are described. Since the configuration of each clip is the same, clip a will be described as an example here.
  • Clip a includes clip metadata a, time map a, and partial stream a.
  • the clip metadata a and the time map a are management information
  • the partial stream a is data that constitutes the clip AV stream 83.
  • the clip AV stream 83 can be stored in multiple TTS files when it exceeds the maximum FAT32 file size in principle.
  • the three partial streams 83a, 83b and 83c are stored in separate files.
  • the file size of each partial stream is the maximum file size (4 gigabytes) in the FAT32 file system, the recordable capacity of the removable HDDs 112a to c is lost and management information cannot be written to the removable HDD 112.
  • the file size of each partial stream is smaller than 4 gigabytes.
  • the TTS file is composed of an integer number of TTS packets, which is less than 4 gigabytes, which is the limit from the above file system, and may be an integer multiple of TTS packets (192 bytes).
  • the clip metadata a is described in the XML format, and information necessary for content reproduction, for example, a video Z audio format or the like is defined. Details of the clip metadata a will be described later with reference to FIG.
  • the time map a is a table that defines the relationship between the display time and the storage position (address) for each playback unit.
  • this time map is called a “clip timeline” (ClipTimeLine), and “CTL” is added to the extension of the file storing the clip timeline. Details of the clip timeline will be described later with reference to FIGS.
  • the partial stream a is composed of a plurality of TTS packets as shown in FIG.
  • the ATS clock counter 262 (Fig. 7) that determines the transfer timing of the TS packet is reset. Or a value that is unrelated to the previous count value will not be set.
  • the clock counter 262 (Fig. 7) continuously performs a power count based on the set reference time and outputs a count value. Accordingly, the arrival time information ATS in each TTS packet constituting the clip AV stream 83 is continuous at the boundary between two consecutive TTS files constituting one shot.
  • FIG. 8 (c) shows three removeables ⁇ 100112 & ⁇ 112 (:. Data files constituting each clip ac are written to each removable HDD 112a ⁇ l12c.
  • FIG. 9 shows a hierarchical directory structure in the removable HDD 112.
  • Content management information and clip AV stream files are stored in the content folder 91 in the root (ROOT) 90 of the top layer.
  • the database folder 92 directly under the content folder 91 stores an XML format file of clip metadata 94 as management information and a CTL format file of the clip timeline 95.
  • a TTS folder 93 immediately below the content folder 91 stores a TTS format file of a clip AV stream (TimedTs) 96.
  • the content folder 91 further stores a video folder (Video) for storing MXF-format video stream data and MXF-format audio stream data. Recording of existing camcorders, such as a single folder (Audio), an icon folder that stores thumbnail images in BMP format (Icon), and a voice folder (Voice) that stores voice memo data in WAVE format It can correspond to the format.
  • FIG. 10 shows the content of information included in the clip metadata 94.
  • Clip metadata 94 is classified into two types: configuration data (“Structural”) and description data (“Descriptive”).
  • the clip name is information for specifying the file, and for example, a well-known UMID (Unique Material IDentifier) is described.
  • UMID Unique Material IDentifier
  • the UMID is generated, for example, by combining the time when content is generated and the MAC (Media Access Control) address of the device that generated the content.
  • UMID is generated taking into account whether content has been newly generated. That is, a value that is different from the UMID of the original content is added to the content once the UMID is added and then edited and processed. Therefore, when UMID is used, different values are defined for content existing all over the world, so the content can be uniquely identified.
  • the video information describes the format of video data, the compression encoding method, the frame rate, and the like.
  • the audio information describes the audio data format, sampling rate, and the like.
  • the compression encoding method is the MPEG-2 method.
  • the relation information defines the relationship between clips when there are a plurality of clips 81a to 81c as shown in FIG. 8 (b).
  • each clip metadata 94 describes information specifying the first clip of the shot and information specifying the clip immediately before and after the clip.
  • the relation information is the relationship between the playback order and playback order of the clip AV stream (partial stream) corresponding to each of the plurality of clips. It can be said that
  • the information specifying the clip is defined by, for example, the UMID and the serial number unique to the removable HDD 112.
  • the description data includes access information, device, shooting information, reproduction information, and the like.
  • the access information describes the last updater, date, etc. of the clip.
  • the device information includes the manufacturer name, the serial number of the recorded device, the model number, and so on.
  • the shooting information includes a photographer name, shooting start date and time, end date and time, position, and the like.
  • the reproduction information is information for specifying a reproduction start time, a reproduction time length, and the like.
  • Clip timeline 95 introduces the concept of key pictures and key picture units and provides information about them. First, the key picture and key picture unit will be described with reference to FIG.
  • FIG. 11 shows the relationship between key pictures and key picture units.
  • a key picture unit (KPU) is a data playback unit defined for video.
  • the display of the key picture unit KPU starts from the key picture 44 and ends at the B picture 45. This includes the MPEG standard group-of-picture (GOP) power S 1 or higher.
  • the display of the next key picture unit KPU starts from the I picture 46 next to the B picture 45.
  • the video playback time of each key picture unit is 0.4 seconds or more and 1 second or less. However, the last key picture unit of one shot should be less than 1 second. This is because it may be less than 0.4 seconds depending on the shooting end timing.
  • the above does not apply to the GOP structure where playback is started from the B picture, which is supposed to start playback from the G picture first I picture. This is because the KPU period (KPUPeriod) indicates the playback time of all pictures stored in the KPU.
  • Key pictures 44 and 46 located at the head of the key picture unit are access units related to video including a sequence header code (sequence_header_code) and a gnole start code (group_start_code) in the MPEG standard.
  • a key picture unit can be an MPEG-2 compression-encoded I-picture image (frame image or a set of 2-field images), or compression-encoded I-field and P-field images. It is a statue.
  • the KPU period (KPU period) is defined using the PTS added to the TS.
  • the KPU period is the difference between the display time (PTS) of the first picture displayed in the next key picture unit KPU and the display time (PTS) of the first picture displayed in that KPU. is there.
  • the KPU period (N) is defined as PTS (N + 1)-PTS (N) where the time of key picture 44 is PTS (N) and the time of key picture 46 is PTS (N + 1). (When both key pictures are display start pictures).
  • the KPU period for a certain key picture unit KPU is determined after generation of the next key picture unit is started. Since the last KPU period may be required for a shot, it is possible to add the display time of the encoded picture. In that case, it is possible to determine the KPU period without waiting for the start of generation of the next KPU.
  • Fig. 12 (a) shows the data structure of Clip TimeLine 95.
  • the clip timeline 95 is written to each removable HD D112 as a file having the extension “CTL”.
  • the clip timeline 95 is a table that defines the relationship between the display time and the storage position (address) for each playback unit.
  • “Reproduction unit” corresponds to the above-mentioned key picture unit KPU.
  • the clip timeline 95 defines a plurality of fields.
  • clip timeline 95 includes TimeEntryNumber field 95a, KPUEntryNumber field 95b, ⁇ 11 13 ⁇ 41161 ⁇ ] 61 1116 ⁇ ££ 361: Fielded 95 (3, ClipTimeLineAddressOffset field 95d, ClipTimeLineDuration field 95e, StartSTC field 9 5f, TimeEntry Includes field 95g, KPUEntry field 95h, etc.
  • Each field is assigned a predetermined number of bytes, each of which has a specific meaning depending on its value.
  • the number of time entries is described in the TimeEntryNumber field 95a
  • the number of KPU entries is described in the KPUEntryNumber field 95b.
  • the data size of the Time Entry field 95g and the KPU Entry field 95h can vary depending on the number of time entries and the number of KPU entries described later.
  • Figure 12 (b) shows the data structure of the TimeEntry field 95g for one time entry.
  • the TimeEntry field 95g information indicating attributes related to the corresponding time entry is described in a plurality of fields (KPUEntryReferencelD field 97a, KPUEntryStart Address field 97b, and TimeEntryTimeOffset field 97c).
  • Fig. 12 (c) shows the data structure of the KPUEntry field 95h for 1KPU entry.
  • the KPUEntry field 95h information indicating attributes related to the corresponding key picture unit KPU is described in a plurality of fields (Overlapped KPUFlag field 98a, Key PictureSize field 98b, KPUPeriod field 98c, and KPUSize field 98d).
  • FIG. 13A shows the relationship between the time entry and the fields included in the clip timeline 95.
  • One scale on the horizontal axis in Fig. 13 (a) indicates one access unit time (Access Unit TiMe; AUTM). This corresponds to the display time of one picture.
  • the ClipTimeLineDuration field 95e of each clip described above is all included in the clip. It is obtained as the sum of the values in the KPU period field 98c of the key unit of KPU (Equation 2). As described above, since the KPU period (KPUperiod) is expressed using the AUTM value, the ClipTimeLineDuration field 95e is also expressed in AUTM.
  • ClipTimeLineDuration ⁇ KPUperiod
  • each KPU period field 98c corresponds to the sum of the video display times (AUTM values) of pictures included in the key picture unit KPU (number
  • KPUperiod Total video display time in KPU
  • the "time entry" (TimeEntry) is set every fixed time (for example, 5 seconds) and indicates a jump point on the time axis at which playback can be started from that position.
  • the time offset up to the first time entry # 0 is set in the ClipTimeLineTimeOffset field 95c .
  • information for identifying the key picture unit KPU to be played at the set time of each time entry is described in the KPUEntryReferencelD field 97a, and the time from the start of the key picture unit KPU to the set time of the time entry.
  • Information indicating the offset is described in the TimeEntryTimeOffset field 97c.
  • playback can be started from an arbitrary playback time by the following method.
  • the time is converted into a PTS value, which is time information according to the MPEG standard, using a known conversion process. Playback starts from the picture to which the PTS value is assigned.
  • the PTS value is described in the transport packet header 30a (Fig. 4 (a)) of the video TS packet (V-TSP) 30.
  • the playback start time (PTS) at the beginning of the partial stream in each clip may not be zero. Therefore, the 3 & 31 ⁇ field 95 of the clip timer 95 shows the playback time information (PTS) of the picture that is displayed first in the first KPU in the clip. . Based on the PTS value of the picture and the PTS value corresponding to the specified time, the PTS (AUTM) difference value up to the picture to be played back is obtained. In addition, it is expressed in 33 bits, for example, that it is preferable to match the data amount of the PTS value allocated to each picture with the data amount of the PTS value specified in the StartSTC field 95f.
  • FIG. 13 (b) shows the relationship between the KPU entry and the fields included in the clip timeline 95.
  • One scale on the horizontal axis in Fig. 13 (b) shows one data unit length (Timed TS Packet Byte Length; TPBL). This means that one data unit is equal to the amount of TTS packet data (192 bytes).
  • One KPU entry is provided for each key picture unit KPU.
  • the data size of each KPU is recorded in the KPUSize field 98d.
  • the KPU start address corresponding to each time entry is described in the KPUEntryStartAddress field 97b.
  • the data size of each key picture unit KPU is determined from the first TTS packet storing the data of the first picture in the KPU, for example, as shown in KPUsize #k in Fig. 13 (b).
  • the data size up to the TTS packet immediately before the TTS packet storing the first picture of the first KPU is expressed as one data unit length (TPBL).
  • a fragment (data offset) from the beginning of the file to the beginning of the key picture unit KPU # 0 is set in the ClipTimeLineAddressOffset field 95d.
  • the reason for providing this field is as follows. For example, when one-shot clip AV stream data is stored in multiple files, a part of the KPU at the end of the previous file may be stored at the beginning of the second and subsequent files.
  • Key picture unit Each picture in the KPU must be decoded from the key picture at the head of the KPU, so the data existing at the head of the file cannot be decoded alone. Therefore, it is necessary to skip such data as meaningless data (fragments). Therefore, it is possible to skip reading by using the offset value in the offset field 95d described above.
  • Overlapped KPUFlag field 98a and the like when one-shot clip AV stream data is divided into a plurality of files and stored will be described with reference to FIG.
  • management information related to the content of one shot and the clip AV stream are stored in two removable HDDs # 1 and # 2, and do not mention clip metadata. .
  • Fig. 14 shows management information and clip AV stream related to the content of one shot, which is stored separately in two removable HDDs.
  • Removable HDDs # 1 and # 2 store clip timeline files (00001. CTL and 00002. CTL) and clip AV stream files (00001. TTS and 00002. TTS), respectively.
  • KPU entry # (d— 1) on removable HDD # 1 is 00001.
  • all data of key unit KPU # (d-1) exists in 00001. TTS.
  • Ob is set in the Overiapped KPUFlag field 98a of KPU entry # (d-1).
  • the key picture unit KPU # d shown in Fig. 14 is partly (key picture unit KPU # dl) in the removable HDD # 1 00001. TTS and the other part (key picture unit KPU # d2) Is present in the removable HDD # 2 00002.
  • the reason that the key unit KPU #d is stored separately on the two removable HDDs is because, for example, the remaining capacity that can be recorded is less than the specified value during writing to the removable HDD # 1, and more data is written. This is because it became impossible.
  • lb is set in the Overlapped KPUFlag field 98a of KPU entry #d.
  • the playback time calculation process can be changed based on the value of the Overlapped KPUFlag field 98a.
  • a process (1) for calculating a playback time until a picture that is guaranteed to be played back and a process (2) for calculating a playback time until a picture that can be actually played back will be described below.
  • Process (1) is implemented in equipment for individual users
  • process (2) is implemented in equipment for business users.
  • the value of the OveriappedKPUFlag field 98a is "lb".
  • the sum of the KPU period (KPU period) from the beginning to KPU # (d_l) is used as the value of the clip playback time (ClipTimeLineDuration95e) in the removable HDD # 1.
  • the value of the KPU period (KPU period) of the key picture unit KPU #d in the above formula 2 is not counted as the playback time of the clip.
  • the playback time calculated by the process (1) may include an error strictly. It is assumed that the playback time presented by the device should include such an error, especially for business and special purpose devices. Therefore, when the value of the Overlapped KPUFlag field 98a is “lb”, the video playback time that can be continuously played back in frame / field units can be obtained by analyzing KPU # dl. By adding the playback time to the playback time obtained by processing (1), the clip playback time can be obtained very accurately.
  • This “incomplete key picture unit” refers to a key picture unit that does not have all picture data, and here corresponds to KPU # d that does not have KPU # d2. .
  • TTS file is KPU # (d—l), and the playback time from the first KPU to the last KPU # (d—l) The sum is the playback time of one shot. Therefore, it is possible to obtain the accurate reproduction time by uniformly applying the above formulas 1 to 3. Such rear part deletion can be performed in units of TTS packets (192 bytes) even on the FAT32 file system.
  • the key picture unit KPU # d2 is a fragment in the removable HDD # 2, and the video cannot be decoded only with the data. Therefore, the fragment (data offset) from the beginning of the clip AV stream file (00002. TTS) in the removable HDD # 2 to the beginning of the key Georgia KPU # 0 is set in the ClipTimeLineAddressOffset field 95d. Further, the time offset from the beginning of the key picture unit KPU # 0 to the time entry # 0 set first is set in the ClipTimeLineTimeOffset field 95c. Note that if the value of the ClipTimeLineAddressOffset field 95d is not 0, it means that the key unit KPU from the previous removable HDD is stored.
  • the 94 relation information it is possible to specify whether there is a previous clip. If the previous clip does not exist or cannot be accessed, rewind playback ends. If it is a clip in the middle of a shot and the previous clip is accessible, check whether the value of the ClipTimeLineAddressOffset field 95d is 0. If it is not 0, the last key of the previous removable HDD is checked. The value of the Overlapped KPUFlag field 98a of the KPU entry corresponding to the Kuchia unit KPU can be further checked to determine whether or not keyframe unit KPU straddling has occurred.
  • FIG. 15 shows the procedure of content recording processing by the camcorder 100.
  • step S151 an instruction to start photographing is received from the user force via the CPU 211i indication receiver of the camcorder 100.
  • step S152 based on the instruction from CPU 211, encoder 203 generates TS based on the input signal.
  • the instruction to start recording is received in step S151, and the TS packet of the recording target program is extracted using the digital tuner 201c in step S152.
  • step S153 the media control unit 205 sequentially writes the TS (clip AV stream) to which the TTS header has been added in the TS processing unit 204 to the removable HDD.
  • step S154 the media control unit 205 determines whether to newly create a clip (TTS file). Whether or not to create a new file can be arbitrarily determined depending on whether the size of the TTS file of the clip being recorded is larger than the specified value and the remaining capacity of the removable HDD. If a new clip is not created, the process proceeds to step S155, and if a new clip is generated, the process proceeds to step S156.
  • step S155 the TS processing unit 204 generates a key picture unit KPU. Create a KPU entry and a time entry. At this time, since all data of the key picture unit KPU is written into the TTS file of the clip, the media control unit 205 sets “Ob” in the Overlapped KPUFlag field in the KPU entry.
  • step S157 the media control unit 205 writes the time 'address conversion table (clip timeline ClipTimeLine) including the KPU entry and time entry to the removable media. Thereafter, in step S158, the CPU 211 determines whether or not the photographing is finished.
  • step S156 the TS processing unit 204 determines whether or not the key picture unit KPU is completed based on the last written data. If the key picture unit KPU is not completed, the remaining data of the key picture unit KPU will be stored in another removable HDD. For this reason, this kind of judgment is necessary to judge whether all data of the key picture unit KPU has been written in the removable HDD. If the key picture unit KPU is complete, the process proceeds to step S155; otherwise, the process proceeds to step S159.
  • step S159 the TS processing unit 204 performs clip switching processing.
  • the specific contents of this process are shown in Fig. 16.
  • FIG. 16 shows a procedure for clip switching processing.
  • the recording media of content clips
  • the recording media of content clips
  • the switching power content of the clip is the change of the recording medium of the content, but this is essentially the same as when recording to a new clip on the same recording medium.
  • the removable HDD on which content has been recorded is called the “first removable HDD”, and the removable HDD on which content is recorded next is called the “second removable HDD”.
  • step S161 the CPU 211 is generated on the second removable HDD. Determine the clip name of the clip.
  • step S162 the camcorder 100 generates TS until the key picture unit KPU that could not be completely recorded on the first removable HDD is completed.
  • the TS processing unit 204 adds a TTS header, and the media control unit 205 writes the clip AV stream to the second removable HDD.
  • step S163 the media control unit 205 generates a KPU entry and a time entry for the completed KPU. At this time, since the key picture unit KPU is written across the first removable HDD and the second removable HDD, the media control unit 205 sets “lb” in the Overlapped KPUFlag field in the KPU entry.
  • step S164 the media control unit 205 writes the time 'address conversion table (clip timeline ClipTimeLine) including the generated KPU entry and time entry to the first removable HDD.
  • step S165 the clip 'metadata (relation information, etc.) on the first removable HDD is updated. For example, the media control unit 205 writes a UMID or the like that identifies the clip on the second removable HDD as the next clip in the clip metadata of the clip on the first removable HDD. Also, the UMID that identifies the clip on the first removable HDD is written as the previous clip in the clip metadata of the clip on the second removable HDD.
  • step S1 66 the media control unit 205 sets the future content write destination to the second removable HDD, and the process ends.
  • FIG. 17 shows the procedure of content playback processing by the camcorder 100.
  • the CPU 211 of the camcorder 100 receives a playback start time instruction from the user via the instruction receiving unit 215.
  • step S172 the media control unit 205 reads the time / address conversion table (clip timeline ClipTimeLine), and the CPU 211 reads the picture of the playback start time. Identify key picture units (KPUs) that contain In step S 173, the CPU 211 identifies the KPU start position corresponding to the playback start time. This KPU start position represents the decoding start position (address) in the TTS file.
  • KPUs key picture units
  • KPU #k a certain KPU (referred to as KPU #k) is specified based on the value of the KPUEntryReferencelD field 97a of time entry #t. Then, the time difference from the time indicated by time entry #t to the start of playback of the first key picture of KPU #k is acquired based on the value of TimeEntryTimeOffset field 97c. As a result, it is determined how many AUTM after the first picture to be displayed in KPU # k the picture to be played back. Then, by adding the KPU period (KPUPeriod) for each KPU from KPU #k, the KPU that includes the picture to be played can be specified.
  • KPUPeriod KPU Period
  • the KPU corresponding to the playback start time is added to the KPU start address indicated by time entry #t.
  • the starting position can be specified.
  • the "KPU start address indicated by time entry #t" can be obtained by calculating the sum of the value of ClipTimeLineAddressOffset field 95d and the value of KP UEntryStartAddress field 97b of time entry #t.
  • step S 174 the media control unit 205 reads the flag in the KPUEntry of the key picture unit (KPU), and determines whether or not the value of the Overlapped KPUFlag field 98 a is “lb” in step S 175.
  • the value is "lb” it means that the key Egyptian KPU spans the first and second removable HDDs. Proceed to step S176.
  • the value is “Ob”, it means that the value does not straddle, and the process proceeds to step S177.
  • step S176 the media control unit 205 reads the KPU head picture data data stored in the first removable HDD, and when the TS processing unit 204 removes the TTS header, the decoder 206 starts decoding from the data. To do. At this time, depending on the specified picture, data may be stored in the second removable HDD instead of the first removable HDD that started reading S, and two taps (TTS) for correct decoding Decoding is performed from the top key picture of KPU that straddles (file).
  • TTS taps
  • step S177 the media control unit 205 reads data from the first picture data of the KPU, and when the TS processing unit 204 removes the TTS header, the decoder 206 starts decoding the data force. All picture data to be read is stored in the removable HDD.
  • step S178 after the decoding of the picture corresponding to the reproduction start time is completed, the graphic control unit 207 starts output from the picture.
  • the speaker 209b also starts its output. Thereafter, the content is played back until the end of the content or until playback is instructed, and then the process ends.
  • processing for editing content recorded on a removable HDD will be described with reference to FIGS. 18 and 19.
  • this processing may be executed in the PC 108 (FIG. 1) or the like loaded with a removable HDD in which content is recorded.
  • FIGS. 18 (a) and 18 (b) show the relationship between the management information and clip AV stream before and after deleting the top part of the TTS file by editing.
  • the range shown in Fig. 18 (a) is the target of D force force IJ removal. This range D includes the beginning of the TTS file.
  • the clip AV stream may be stored in multiple files. The following processing applies to deletion including the beginning of each TTS file.
  • Figure 18 (b) shows the management information (clip timeline) and clip A after deleting range D.
  • the relationship of V stream is shown.
  • not all of the range D is always deleted, but only the data amount n times (n: integer) of 96 kilobytes is deleted from the data amount falling within the range D.
  • n integer
  • p2_pl is (96 kilobytes) ⁇ ⁇ .
  • the end address ⁇ 4 of the range D described above indicates the editing position of the user. In other words, this end address ⁇ 4 indicates the starting point of the subsequent stream for the user.
  • the value of address ⁇ 4 is expressed as the value of (pi + D). Further, for example, it can be expressed by using reproduction start time information (for example, PTS) of a picture corresponding to the address. For example, when a user edits with the address p4 as the start point and the subsequent address as the end point, along with the playback start time information of the picture corresponding to the address p4 described above, the video playback time length from the p4 and the start time information The end point can be specified by the playback end time information of the video.
  • Information indicating the user's editing section (start point 'end point) is managed in Clip Metadata (94) or Clip Time Line (95) in FIG.
  • the data from p2 to p4 may remain in a reproducible state within the range D in which deletion is designated by the user.
  • the data from p2 to p4 has been deleted, and it feels strange when played back. Therefore, by holding a value of the address p4, etc., it can be video section from p2 to P 4 is or is reproduced, to reliably prevent the erroneous connexion recognized as the editing start position therebetween.
  • the value of address p4 or time information corresponding to the address is stored as reproduction information in the description data (descriptive) of clip metadata 94 shown in FIG.
  • “96 kilobytes” is the least common multiple of the cluster size (32 kilobytes) employed in the present embodiment and the packet size (192 bytes) of the TTS packet.
  • the reason for this processing is that data deletion processing for removable HDDs can be executed in units of access by setting it as an integer multiple of the cluster size, and data deletion is performed by setting it as an integer multiple of the packet size of the TTS packet. This is because the processing can be executed in units of TTS packets of the clip AV stream, so that the processing can be speeded up and simplified.
  • the deletion unit is determined based on 96 kilobytes, but this value can vary depending on the cluster size and the packet size of the clip AV stream used.
  • the values of the ClipTimeLineTimeOffset field 95c and the ClipTime LineAddressOffset field 95d are also changed. These values are 0 before deletion.
  • the amount of data up to the first appearance unit KPU is described in the ClipTimeLineAddressOffset field 95d.
  • the storage address of the key picture unit KPU that appears for the first time is p3
  • the value of (p3-p2) is described in the ClipTimeLineAddressOffset field 95d.
  • the ClipTimeLineTimeOffset field 95c the time difference from the playback time of the first key picture in the first key picture unit KPU to the first time entry is described in AUTM units. Note that the clip AV stream packets from addresses p2 to p3 are handled as fragments and are not subject to playback because there is no guarantee that they can be decoded independently.
  • FIG. 19 shows a procedure for content partial deletion processing by the camcorder 100.
  • the CPU 211 of the camcorder 100 receives the user force TTS file partial deletion instruction and the deletion range D specification via the instruction receiving unit 215.
  • the partial deletion instruction is an instruction to delete the head part and / or the tail part of the TTS file.
  • “front part deletion process” for deleting the head part and / or “rear part deletion process” for deleting the end part is performed.
  • step S192 it is determined whether or not forward part deletion processing is performed. If forward part deletion processing is performed, the process proceeds to step S193, and if not forward part deletion, the process proceeds to step S195.
  • the media control unit 205 deletes the data amount that is an integral multiple of 96 kilobytes from the beginning of the data amount D corresponding to the deletion range.
  • the media control unit 205 determines the time offset value (ClipTimeLineTime_ff set field 95 c value) and the first KPU entry for the first time entry in the time / address conversion table (clip time line). Correct the address offset value for (the value of ClipTimeLineAddressOffset field 95d). Thereafter, the process proceeds to step S195.
  • step S195 it is determined whether it is a backward partial deletion process. If the backward partial deletion process is performed, the process proceeds to step S196. If not, the process proceeds to step S197.
  • step S196 data is deleted in units of 192 bytes so that the end of the TTS file becomes a complete KPU out of the amount of data corresponding to the deletion range. This means that data with an integral multiple of 192 knots will be deleted. Thereafter, the process proceeds to step S197.
  • step S197 the number of time entries and the number of KPU entries changed by the partial deletion process are corrected. Specifically, in the time / address conversion table (ClipTimeLine), the KPUEntry entry that no longer accompanies the actual data and the TimeEntry entry that lost the KPUEntry entry that was referenced by KPUEntryReferencelD are deleted. Further, correction processing such as the value of the TimeEntryNumber field 95a and the value of the KPUEntryNumber field 95b is performed.
  • step S197 the process goes through step S197 also when neither the front part deletion process nor the rear part deletion process is performed. This assumes that correction processing is also performed, for example, when intermediate processing of a TTS file is deleted. However, the removal processing of the intermediate part is not particularly mentioned in this specification.
  • the partial deletion process is not limited to the top part of the TTS file, and a range including the end part of the TTS file may be deleted.
  • This processing is applied, for example, when deleting the above-mentioned incomplete key picture unit KPU (KPU # dl in FIG. 14). Since the incomplete key-picture unit KPU exists at the end of one clip, it corresponds to “the range including the last part of the TTS file”. The range to be deleted at this time is up to the end of the incomplete key-victim unit KPU's leading force TTS file. The cluster size need not be considered.
  • the last part of the TTS file is not limited to the incomplete key picture unit KPU, but can be determined arbitrarily by receiving a range specification from the user. It should be noted that the deletion process for the top part and the deletion process for the end part may be performed continuously, or only one process may be performed.
  • the medium for storing the data stream or the like is a removable HDD.
  • the medium may be a non-exchangeable medium, for example, an HDD built in the data processing apparatus.
  • the data structure of the time map (ClipTimeLine) is TimeEntry and KPUEntry.
  • a time map consisting of only one layer of KPUEntry is exactly the same.
  • the Overlapped KPUFlag field is provided, and the key picture unit KPU is described as indicating that it straddles multiple files based on the value. However, it can be expressed whether or not multiple files are straddled even if there is no data corresponding to the time map.
  • clip metadata (relation information, etc.), clip file name naming rules (file name number in ascending order, etc.), all data of one shot in the same folder (all TTS files that make up at least one shot) It is possible to indicate that the KPU is or may be straddled, for example, by storing (recorded on the same recording medium).
  • each functional block in FIG. 2 and the like is typically realized as a chip of an integrated circuit (Large Scale Integrated Circuit; LSI). These may be individually made into one chip, or they may be made into one chip to include some or all of them.
  • the system control unit 250 including the CPU 211 and the media control unit 205 are shown as separate functional blocks. These may be implemented as separate semiconductor chips, or may be realized by providing the function of the media control unit 205 to the system control unit 250 and physically using the same chip.
  • the functions of the media control unit 205 and the TS processing unit 204 may be integrated and realized as a single chip circuit, or further realized as a chip circuit 217 with the functions of the encoder 203 and the decoder 206.
  • LSI Large Scale Integrated Circuit
  • the system control unit 250 can realize the functions of the media control unit 205 described in the present specification by executing a computer program stored in the program ROM 210 or the like. At this time, the media control unit 205 has some functions of the system control unit 250. And realized.
  • LSI may be referred to as an IC, a system LSI, a super LSI, or an ultra LSI, depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable 'processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.
  • the present invention it is possible to obtain a data structure assuming that a content data stream is stored across a plurality of files for recording content. According to this data structure, the device can easily access and start playback of data in any file. By further editing the file using this data structure, the device can realize high-speed processing and light processing load.

Abstract

 コンテンツのデータストリームが複数ファイルに跨って格納されたときに、効率的にデータストリームへアクセスする手段を提供する。  本発明によるデータ処理装置は、コンテンツのデータストリームをメディアに書き込むことが可能である。このデータストリームは、複数のピクチャから構成され、かつ、基準ピクチャからのデコードを要する復号化単位を1つ複数含む再生単位を含んでいる。データ処理装置は、データストリームを生成するエンコーダおよびデータストリームを受信する受信部の少なくとも一方と、データストリームをメディアに書き込むメディア制御部とを備えている。メディア制御部は、データストリームを書き込み中のファイルのサイズが所定値を超えると、別のファイルに書き込みを継続し、再生単位のデータが複数のファイルに跨って格納されていることを示す情報を生成し、メディアに書き込む。                                                                         

Description

明 細 書
データ処理装置
技術分野
[0001] 本発明は、メディア上でコンテンツのデータストリームを効率的に管理し、そのコン テンッの再生および編集を容易にする技術に関する。 背景技術
[0002] 近年、 DVD等の光ディスク、ハードディスク等の磁気ディスク、半導体メモリ等のメ ディアにコンテンツのデジタルデータを書き込み、保存できるデジタル機器 (光デイス クレコーダ、カムコーダ等)の普及が進んでいる。このようなコンテンツは、例えば、放 送された番組やカムコーダ等によって撮影された映像および音声である。
[0003] 近年は PCにもコンテンツの記録、再生および編集機能が実装されており、 PCも上 述のデジタル機器に含めることができる。 PCでは、文書データ等を記録するために、 従来からハードディスク、光ディスク、半導体メモリ等のメディアが利用されている。し たがって、そのようなメディアでは、 PCと連携可能なデータ管理構造、例えば FAT ( File Allocation Table)を用いたファイルシステムが採用されている。現在多く利 用されている FAT32ファイルシステムでは、最大 4ギガバイトのサイズを有するフアイ ルを取り扱うことができ、また最大記録可能容量が 2テラバイトのメディアを管理するこ とがでさる。
[0004] メディアの最大記録可能容量の増加に伴い、記録されるコンテンツの再生時間が 長くなつている。光ディスク、ハードディスク、半導体メモリ等はいわゆるランダムァク セスが可能なメディアであるため、そのようなメディアに長時間のコンテンツのデータ ストリームを格納するときには、コンテンツの任意の位置から再生できると便利である 。例えば特許文献 1では、データストリームの先頭から一定の時間間隔ごとに、再生 時刻とその時刻に再生される AVデータの格納アドレスとの対応を規定したタイムマツ プ情報を生成している。ユーザ指定された開始時刻、終了時刻それぞれを、タイムマ ップ情報を参照して開始アドレス、終了アドレスに変換し、そのアドレスに格納されて レ、るデータを読み出すことにより、その時刻からコンテンツを再生することが可能にな つている。
特許文献 1 :特開平 11一 155130号公報
発明の開示
発明が解決しょうとする課題
[0005] ファイルサイズの最大値が規定されているファイルシステム(例えば FAT32フアイ ルシステム)を採用したメディアに長時間のコンテンツを記録すると、コンテンツのデ 一タストリームの管理構造が複雑化するという問題が生じる。すなわち、コンテンツの 記録開始から終了までが長時間にわたるとデータストリームのデータ量が多くなり、 1 ファイルのサイズが規定された最大値を超えることがある。すると、データストリームを 複数ファイルに分けて格納しなければならなレ、。これでは、コンテンツの任意の位置 力 再生するための管理構造が複雑になる。
[0006] この問題は特に、 MPEG規格等に採用されている順方向符号化方式および双方 向符号化方式を利用して映像データを圧縮符号化するときに顕著である。例えば、 MPEG規格の一連の映像データが 2つのファイルに跨って格納されたときを考えると 、所定の再生時刻の映像データが格納されたファイルと格納アドレスとが特定されて も、その映像を復号化するためには異なるファイルから映像データを読み出して復号 化しなければならないことがある。再生開始の都度、映像データを読み出してそのま ま再生が可能か否かを判断すると、不要なデータの読み出しに時間を要し、処理負 荷も大きくなる。
[0007] 本発明の目的は、コンテンツのデータストリームが複数ファイルに跨って格納された ときに、効率的にデータストリームへアクセスする手段を提供することである。
課題を解決するための手段
[0008] 本発明によるデータ処理装置は、コンテンツのデータストリームをメディアに書き込 むことが可能である。前記データストリームは、複数のピクチャから構成され、かつ、 基準ピクチヤからのデコードを要する再生単位を有してレ、る。前記データ処理装置は 、前記データストリームを生成するエンコーダおよび前記データストリームを受信する 受信部の少なくとも一方と、前記データストリームを前記メディアに書き込むメディア 制御部とを備えている。前記メディア制御部は、前記データストリームを書き込み中の 第 1ストリームファイルのサイズが所定値を超えると、前記第 1ストリームファイルと異な る第 2ストリームファイルに書き込みを継続し、前記再生単位のデータが前記第 1スト リームファイルおよび前記第 2ストリームファイルに跨って格納されていることを示す情 報を生成し、前記メディアに書き込む。
[0009] 前記メディア制御部は、前記データストリームの再生単位ごとに、対応する再生単 位の属性を規定した管理情報を生成し、前記再生単位のデータが前記第 1ストリー ムファイルおよび前記第 2ストリームファイルに跨って格納されてレ、るとき、跨ってレ、る ことを示す情報を前記第 1ストリームファイル内の最後の再生単位に対応する管理情 報として生成してもよい。
[0010] 前記メディアには、ファイルの最大サイズが規定されたファイルシステムが構築され ている。前記メディア制御部は、前記最大サイズ以下のサイズを前記所定値として、 前記跨って格納されてレ、ることを示す情報を生成してもよレ、。
[0011] 前記データストリームは、各々のデータサイズが固定された 1以上のデータパケット 力 構成されている。前記メディア制御部は、前記最大サイズ以下であって、かつ、 整数個のパケットを含むストリームファイルサイズを前記所定値として前記跨って格納 されてレ、ることを示す情報を生成してもよレ、。
[0012] 前記データ処理装置は、基準時刻に基づいて時間をカウントし、パケットを受け取 つた時刻を示す時刻情報を格納したヘッダを生成し、前記パケットに付加するストリ ーム処理部をさらに備えている。 1つのコンテンツに関する前記データストリームの書 き込み開始から終了までの間に、前記エンコーダは、複数のパケットから構成される データストリームを生成し、前記ストリーム処理部は、前記基準時刻に基づいて継続 的に時間をカウントして前記時刻情報を生成してもよい。
[0013] 前記メディア制御部は、前記第 1ストリームファイル内のデータストリームおよび前記 第 2ストリームファイル内のデータストリームの再生に関する先後関係を規定する管理 情報を生成して前記メディアに書き込んでもよい。
[0014] 前記メディア制御部は、前記第 1データストリームに対応する管理情報として、前記 第 1データストリームの次に再生される前記第 2データストリームを特定する情報を記 述した第 1管理情報を生成し、前記第 2データストリームに対応する管理情報として、 前記第 2データストリームの前に再生される前記第 1データストリームを特定する情報 を記述した第 2管理情報を生成してもよレ、。
[0015] 本発明によるデータ処理装置は、基準時刻に基づいて時間をカウントし、複数のパ ケットから構成されたデータストリームを受け取って各パケットの受け取った時刻を示 す時刻情報を格納したヘッダを生成し、前記ヘッダを前記各パケットに付加するストリ ーム処理部と、前記ヘッダが付加された各パケットのデータストリームを前記メディア に書き込むメディア制御部とを備えている。 1つのコンテンツに関する前記データスト リームの書き込み開始から終了までの間に、前記ストリーム処理部は、前記基準時刻 に基づいて継続的に時間をカウントして時刻情報を生成し、前記メディア制御部は、 前記データストリームを書き込み中の第 1ストリームファイルのサイズが所定値を超え ると、前記第 1ストリームファイルと異なる第 2ストリームファイルに書き込みを継続する
[0016] 前記メディア制御部は、前記第 1ストリームファイル内の第 1データストリームおよび 前記第 2ストリームファイル内の第 2データストリームの再生に関する先後関係を規定 する管理情報を生成して前記メディアに書き込んでもよい。
[0017] 前記メディア制御部は、前記第 1データストリームに対応する管理情報として、前記 第 1データストリームの次に再生される前記第 2データストリームを特定する情報を記 述した第 1管理情報を生成し、前記第 2データストリームに対応する管理情報として、 前記第 2データストリームの前に再生される前記第 1データストリームを特定する情報 を記述した第 2管理情報を生成してもよレ、。
[0018] 本発明によるチップ回路は、データ処理装置に実装されて、コンテンツのデータスト リームをメディアに書き込むための処理を行う。前記データストリームは、複数のピク チヤから構成され、かつ、基準ピクチヤからのデコードを要する再生単位を有し、前記 データ処理装置は、前記データストリームを生成するエンコーダおよび前記データス トリームを受信する受信部の少なくとも一方を備えている。前記チップ回路は、書き込 み指示および前記データストリームを出力する処理と、書き込み中の第 1ストリームフ アイルのサイズが所定値を超えるか否かを判断する処理と、前記所定値を超えると判 断したときは、前記第 1ストリームファイルと異なる第 2ストリームファイルに書き込みを 継続する処理と、前記再生単位のデータが前記第 1ストリームファイルおよび前記第 2ストリームファイルに跨って格納されてレ、るか否かを示す情報を生成する処理と、前 記情報を前記メディアに書き込む処理とを実行する。
[0019] 本発明によるチップ回路は、データ処理装置に実装されて、コンテンツのデータスト リームをメディアに書き込むための処理を行う。前記チップ回路は、前記データストリ 一ムを第 1ストリームファイルとして前記メディアに書き込む処理と、書き込み中の前 記第 1ストリームファイルのサイズが所定値を超えるか否力を判断する処理と、前記所 定値を超えると判断したときは、前記第 1ストリームファイルと異なる第 2ストリームファ ィルに前記データストリームの書き込みを継続する処理とを実行する。
[0020] 前記チップ回路は、基準時刻に基づいて時間をカウントする処理と、複数のバケツ トから構成された前記データストリームを受け取って、各パケットの受け取り時刻を示 す時刻情報を格納したヘッダを生成し、前記各パケットに付加する処理とをさらに実 行して、前記ヘッダが付加されたデータストリームを第 1ストリームファイルとして前記 メディアに書き込んでもよレ、。
[0021] 前記チップ回路は、前記データ処理装置から映像信号を受け取って符号化し、前 記複数のパケットから構成されたデータストリームを生成する処理をさらに実行しても よい。
[0022] 前記チップ回路は、符号化された前記データストリームを前記メディアから読み出 す処理と、前記データストリームを復号化する処理とをさらに実行してもよい。
[0023] 本発明によるデータ処理装置は、符号ィ匕されたコンテンツのデータストリームをメデ ィァから読み出して、前記コンテンツを再生することが可能である。前記データストリ ームは、複数のピクチャから構成され、かつ、基準ピクチヤからのデコードを要する再 生単位のデータを有し、前記複数のピクチャの各々には再生時刻を示す時刻情報 が付加されている。前記メディアには、前記データストリームを格納した少なくとも 1つ のストリームファイルが記録され、かつ、前記再生単位の各々に対応する情報であつ て、その再生単位のデータが複数のファイルに跨って格納されているか否かを示す 情報が書き込まれている。前記データ処理装置は、再生を開始すべき時刻の指示を 受け取る指示受信部と、前記指示に基づいて、再生を開始すべき開始ピクチャを含 む再生単位および前記再生単位における前記開始ピクチヤのデータ位置を特定す る処理部と、特定された前記再生単位に対応する情報を前記メディアから読み出し、 前記情報に基づいて前記再生単位のデータが複数のファイルに跨って格納されて いないと判断したときには、前記再生単位のデータをストリームファイルから読み出す メディア制御部と、前記再生単位の基準ピクチヤからデコードを開始するデコーダと、 前記開始ピクチヤのデコードの終了後に、前記開始ピクチヤから出力を開始する出 力部とを備えている。
[0024] 前記メディア制御部は、前記再生単位に対応する情報に基づいて前記再生単位 のデータが複数のファイルに跨って格納されていると判断したときには、前記再生単 位のデータを前記複数のファイルから読み出してもよい。
[0025] 前記メディア制御部は、前記再生単位の基準ピクチヤのデータが格納されたフアイ ルから前記再生単位のデータを読み出してもよい。
[0026] 前記データストリームは複数のパケットから構成され、前記複数のパケットの各々に は、各パケットの出力時刻を規定する時刻情報を格納したヘッダが付加されてレ、る。 前記データ処理装置は、前記ヘッダが付加された各パケットを受け取って、前記時 刻情報に基づくタイミングで前記各パケットを出力するストリーム処理部をさらに備え ていてもよい。
[0027] 本発明によるチップ回路は、データ処理装置に実装されて、符号化されたコンテン ッのデータストリームをメディアから読み出して、前記コンテンツを再生するための処 理を行う。前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチャ 力ものデコードを要する再生単位のデータを含んでレ、る。前記複数のピクチャの各々 には再生時刻を示す時刻情報が付加されている。前記メディアには、前記データスト リームを格納した少なくとも 1つのストリームファイルが記録され、かつ、前記再生単位 の各々に対応する情報であって、その再生単位のデータが複数のファイルに跨って 格納されているか否かを示す情報が書き込まれている。前記データ処理装置は、再 生を開始すべき時刻の指示を受け取る指示受信部を備えている。前記チップ回路は 、前記指示に基づいて、再生を開始すべき開始ピクチャを含む再生単位および前記 再生単位における前記開始ピクチヤのデータ位置を特定する処理と、特定された前 記再生単位に対応する情報を前記メディアから読み出す指示を出力する処理と、前 記情報に基づいて前記再生単位のデータが複数のファイルに跨って格納されている か否かを判断し、跨って格納されていないと判断したときには、前記再生単位のデー タをストリームファイルから読み出す指示を出力する処理と、読み出された前記再生 単位のデータを出力する処理とを実行する。
[0028] 前記チップ回路は、前記再生単位の基準ピクチヤからデコードを開始する処理と、 前記開始ピクチヤのデコードの終了後に、前記開始ピクチヤから出力を開始する処 理とをさらに実行してもよい。
[0029] 前記チップ回路は、前記再生単位に対応する情報に基づいて前記再生単位のデ ータが複数のファイルに跨って格納されていると判断したときには、前記再生単位の データを前記複数のファイルから読み出す指示を出力してもよい。
[0030] 前記チップ回路は、前記再生単位の基準ピクチヤのデータが格納されたファイルか ら前記再生単位のデータを読み出す指示を出力してもよい。
[0031] 前記データストリームは複数のパケットから構成され、前記複数のパケットの各々に は、各パケットの出力時刻を規定する時刻情報を格納したヘッダが付加されてレ、る。 前記チップ回路は、前記ヘッダが付加された各パケットを受け取って、前記時刻情報 に基づくタイミングで前記各パケットを出力する処理をさらに実行してもよい。
[0032] 本発明によるデータ処理方法は、コンテンツのデータストリームをメディアに書き込 むために使用される。前記データストリームは、複数のピクチャから構成され、かつ、 基準ピクチヤからのデコードを要する復号ィ匕単位を 1つまたは複数含む再生単位を 有している。前記データ処理方法は、前記データストリームを取得するステップと、前 記データストリームを前記メディアに書き込むステップとを包含する。前記メディアに 書き込むステップは、前記データストリームを書き込み中の第 1ストリームファイルのサ ィズが所定値を超えると、前記第 1ストリームファイルと異なる第 2ストリームファイルに 書き込みを継続し、前記再生単位のデータが前記第 1ストリームファイルおよび前記 第 2ストリームファイルに跨って格納されていることを示す情報を生成し、前記メディア に書き込む。
発明の効果 [0033] 本発明によれば、コンテンツのデータストリームが複数ファイルに跨って格納された ときに、複数のピクチャからなる再生単位が 2つのファイルに跨っていることを示す情 報 (例えばフラグ)が生成される。再生単位は先頭ピクチヤからのデコードを要するた め、この情報を参照することにより、機器は、いずれのファイルのデータからデコード を開始すべきか判断できる。また、ファイルを跨った再生単位を再生する場合にも連 続な基準時刻に従ってパケットがデコードされるため、デコーダが適切に復号処理を 行うことができる。
図面の簡単な説明
[0034] [図 1]リムーバブルメディアを介して連携する複数種類のデータ処理装置を示す図で ある。
[図 2]カムコーダ 100の機能ブロックの示す図である。
[図 3]トランスポートストリーム (TS) 20のデータ構造を示す図である。
[図 4] (a)はビデオ TSパケット 30のデータ構造を示し、 (b)は、オーディオ TSパケット
31のデータ構造を示す図である。
[図 5] (a)〜(d)は、ビデオ TSパケットからビデオピクチャを再生する際に構築される ストリームの関係を示す図である。
[図 6]クリップ AVストリーム 60のデータ構造を示す図である。
[図 7]TS処理部 204の機能ブロックの構成を示す図である。
[図 8] (a)は本実施形態における 1コンテンツの概念を示す図であり、 (b)はコンテンツ の管理情報とストリームのデータとを含むクリップの概念を示す図であり、 (c)は 3つの リムーバブル HDD112を示す図である。
[図 9]リムーバブル HDD112内の階層化されたディレクトリ構造を示す図である。
[図 10]クリップメタデータ 94に含まれる情報の内容を示す図である。
[図 11]キービクチャおよびキービクチャユニットの関係を示す図である。
[図 12] (a)は、クリップタイムライン (ClipTimeLine) 95のデータ構造を示す図であり
、 (b)は 1タイムエントリに関する TimeEntryフィールド 95gのデータ構造を示す図で あり、(c)は 1KPUエントリに関する KPUEntryフィールド 95hのデータ構造を示す 図である。 [図 13] (a)は、タイムエントリと、クリップタイムライン 95に含まれるフィールドとの関係 を示す図であり、(b)は KPUエントリと、クリップタイムライン 95に含まれるフィールドと の関係を示す図である。
[図 14]2つのリムーバブル HDDに分けて格納された、 1ショットのコンテンツに関する 管理情報とクリップ AVストリームとを示す図である。
[図 15]カムコーダ 100によるコンテンツの録画処理の手順を示す図である。
園 16]メディア切り替え処理の手順を示す図である。
[図 17]カムコーダ 100によるコンテンツの再生処理の手順を示す図である。
[図 18] (a)および (b)は、編集によって TTSファイルの先頭部分を削除する前後の管 理情報およびクリップ AVストリームの関係を示す図である。
[図 19]カムコーダ 100によるコンテンツの部分削除処理の手順を示す図である。 符号の説明
100 カムコーダ
108 PC
112 リムーバブル HDD
201a CCD
201b マイク
202 ADコンノ ータ
203 MPEG— 2エンコーダ
204 TS処理部
205 メディア制御部
206 MPEG— 2デコーダ
207 グラフィック制御部
208 メモリ
209a LCD
209b スピーカ
210 プログラム ROM 212 RAM
213 CPUバス
214 ネットワーク制御部
215 指示受信部
216 インターフェース(IZF)部
250 システム制御部
261 TTSヘッダ付加部
262 クロックカウンタ
263 PLL回路
264 バッファ
265 TTSヘッダ除去部
発明を実施するための最良の形態
[0036] 以下、添付の図面を参照して、本発明によるデータ処理装置の実施形態を説明す る。
[0037] 図 1は、リムーバブルメディアを介して連携する複数種類のデータ処理装置を示す 。図 1では、データ処理装置は、カムコーダ 100— 1、カメラ付き携帯電話 100— 2、 P C108として記載されている。カムコーダ 100— 1およびカメラ付き携帯電話 100— 2 は、ユーザが撮影した映像および音声を受け取ってデジタルデータストリームとして 符号化し、そのデータストリームを、それぞれリムーバブルメディア 112— 1および 11 2— 2に書き込む。各リムーバブルメディアに書き込まれたデータは、リムーバブルメ ディア上に構築されたファイルシステム上の「ファイル」として取り扱われる。例えば図 1では、リムーバブルメディア 112— 2に複数のファイルが格納されていることが示さ れている。
[0038] 各リムーバブルメディア 112— 1および 112— 2はデータ処理装置から取り外し可能 であり、例えば DVD、 BD (Blu-ray Disc)等の光ディスク、マイクロドライブ等の超 小型ハードディスク、半導体メモリ等である。 PC108は、各リムーバブルメディア 112 1および 112— 2を装填することが可能なスロットを備えている。 PC108は、装填さ れたリムーバブルメディア 112— 1、 112— 2からデータを読み出し、再生処理および 編集処理等を実行する。
[0039] リムーバブル HDD112では、 FAT32ファイルシステムによりデータ管理が行われ る。 FAT32ファイルシステムでは、 1ファイルのファイルサイズの最大値は、例えば 4 ギガバイトである。よって、 FAT32ファイルシステムではデータのサイズ力 ギガバイト を超えるときは 2以上のファイルに分けて書き込まれる。例えば、容量が 8ギガバイト のリムーバブル HDD112には 4ギガバイトのファイルが 2つ格納され得る。 16ギガバ イトのリムーバブル HDD112には 4ギガバイトのファイル力 つ格納され得る。なお、 分割して書き込まれる単位はファイルサイズの最大値でなくてもよぐファイルサイズ の最大値以下のサイズであればよい。
[0040] 以下の説明では、コンテンツのデータストリームをリムーバブルメディアに書き込む データ処理装置は、カムコーダであるとして説明する。また、リムーバブルメディアに 格納されたデータストリームを再生し編集するデータ処理装置は PCであるとして説明 する。
[0041] さらに、リムーバブルメディア 112— 1は超小型のリムーバブルハードディスクである とする。リムーバブルメディアは、周知のマイクロドライブ等のようにハードディスクを駆 動してデータの書き込みおよび読み出しを行うための機構(ドライブ機構)を含む。以 下では、リムーバブルメディア 112— 1を「リムーバブル HDD112」と記述する。説明 を簡便化するため、リムーバブル HDD112は 4ギガバイトの容量を持つとする。この 結果、 4ギガバイトを超えるコンテンツは、 2以上のリムーバブル HDDに分けて書き込 まれる。しかしながら、リムーバブル HDDが 4ギガバイト以上の容量を持ち、そこに 4 ギガバイトを超えるコンテンツが書き込まれる場合にも、 2以上のファイルに分割して 同じリムーバブル HDDに書き込めばよレ、。 1つのコンテンツが複数のファイルに分け て記録される本質的な点においては、いずれも同じである。単に記録するメディアが 同一であるか否かの違いにすぎなレ、。リムーバブル HDD112のクラスタサイズは、例 えば 32キロバイトである。 「クラスタ」とは、データの書き込みおよび読み出しを行う際 の最小のアクセス単位である。
[0042] 図 2は、カムコーダ 100の機能ブロックの構成を示す。カムコーダ 100には、複数の リムーバブル HDD112a、 112b, · · ·、 112cを同時に装填することが可能であり、ュ 一ザが撮影した映像および音声に関するコンテンツのデータストリーム(クリップ AVス トリーム)を、リムーノ ブノレ HDD112a、 112b, · · ·、 112ciこ jl匿 (こ書き込む。
[0043] カムコーダ 100は、 CCD201a、マイク 201bおよびデジタル放送を受信するデジタ ノレチューナ 201cと、 ADコンバータ 202と、 MPEG— 2エンコーダ 203と、 TS処理部 204と、メディア制稚 P部 205と、 MPEG— 2デコーダ 206と、グラフィック制稚 P部 207と 、メモリ 208と、 f夜晶表示装置(LCD) 209aおよびスピーカ 209bと、 CPUノ ス 213と 、ネットワーク制御部 214と、指示受信部 215と、インターフェース(I/F)部 216と、 システム制御部 250とを含む。
[0044] 以下、各構成要素の機能を説明する。 CCD201aおよびマイク 201bは、それぞれ 映像および音声のアナログ信号を受け取る。 CCD201aは、映像をデジタル信号とし て出力する。マイク 201bは、音声のアナログ信号を出力する。 ADコンバータ 202は 入力されたアナログ音声信号をデジタル信号に変換して MPEG— 2エンコーダ 203 に供給する。
[0045] デジタルチューナ 201cは、アンテナ(図示せず)から 1以上の番組が含まれるデジ タル信号を受け取る受信部として機能する。デジタル信号として伝送されるトランスポ 一トストリームには複数の番組のパケットが混在している。デジタルチューナ 201cは、 受信したトランスポートストリームから特定の番組 (録画対象のチャンネルの番組)の パケットを抜き出して出力する。出力されるストリームもまたトランスポートストリームで ある力 当初のストリームと区別するために「パーシャルトランスポートストリーム」と呼 ぶこともある。トランスポートストリームのデータ構造は、図 3〜図 5を参照しながら後述 する。
[0046] 本実施形態においては、カムコーダ 100はデジタルチューナ 201cを構成要素とし ているが、これは必須の要件ではない。図 2のカムコーダ 100の構成は、図 1におい て言及したカメラ付き携帯電話 100— 2等にも適用できるため、デジタル放送の受信 および視聴が可能なカメラ付き携帯電話等についての構成要素と考えればよい。
[0047] MPEG— 2エンコーダ 203 (以下「エンコーダ 203」と記述する)は、録画の開始指 示を受け取ると、供給された映像および音声の各デジタルデータを MPEG規格に基 づいて圧縮符号化する。本実施形態においては、エンコーダ 203は、映像データを MPEG— 2形式に圧縮符号ィ匕してトランスポートストリーム(以下「TS」とも記述する) を生成し、 TS処理部 204に送る。この処理は、エンコーダ 203が録画の終了指示を 受け取るまで継続される。エンコーダ 203は双方向圧縮符号ィ匕を行うために、参照ピ クチャ等を一時的に保持するバッファ(図示せず)等を有している。なお、映像および 音声の符号化形式を一致させる必要はなレ、。例えば、映像は MPEG形式で圧縮符 号化し、音声は AC— 3形式で圧縮符号化するとしてもよい。
[0048] 本実施形態では、カムコーダ 100は TSを生成し処理する。そこでまず、図 3〜図 5 を参照しながら、 TSのデータ構造を説明する。
[0049] 図 3は、トランスポートストリーム(TS) 20のデータ構造を示す。 TSパケットは、例え ば、圧縮符号化されたビデオデータが格納されたビデオ TSパケット (V— TSP) 30、 符号ィ匕されたオーディオデータが格納されたオーディオ TSパケット (A— TSP) 31の 他、番組表(プログラム 'アソシエーション 'テーブル; PAT)が格納されたパケット(P AT— TSP)、番組対応表(プログラム ·マップ ·テーブル; PMT)が格納されたバケツ ト(PMT— TSP)およびプログラム ·クロック 'リファレンス (PCR)が格納されたパケット (PCR— TSP)等を含む。各 TSパケットのデータ量は 188バイトである。また、 PAT — TSP、 PMT— TSP等の TSの番組構成を記述する TSパケットを一般に、 PSI/S Iパケットと呼ぶ。
[0050] 以下、本発明の処理に関連するビデオ TSパケットおよびオーディオ TSパケットを 説明する。図 4 (a)はビデオ TSパケット 30のデータ構造を示す。ビデオ TSパケット 3 0は、一般に 4バイトのトランスポートパケットヘッダ 30a、および、 184バイトのトランス ポートパケットペイロード 30bを有する。ペイロード 30bにはビデオデータ 30bが格納 されている。一方、図 4 (b)は、オーディオ TSパケット 31のデータ構造を示す。ォー ディォ TSパケット 31も同様に、一般に 4バイトのトランスポートパケットヘッダ 31a、お よび、 184バイトのトランスポートパケットペイロード 3 lbを有する。オーディオデータ 3 lbはトランスポートパケットペイロード 3 lbに格納されている。 TSパケットヘッダには ァダプテーシヨンフィールドと呼ばれるデータを追加してもよ TSパケットに格納す るデータをァライメントする場合などに利用される。この場合 TSパケットのペイロード( 30b、 31b)は 184ノくイト未満となる。 [0051] 上述の例力 理解されるように、一般に TSパケットは 4バイトのトランスポートバケツ トヘッダと、 184バイトのエレメンタリデータとから構成されている。パケットヘッダには 、そのパケットの種類を特定するパケット識別子(Packet IDentifier; PID)が記述 されている。例えば、ビデオ TSパケットの PIDは" 0x0020"であり、オーディオ TSパ ケットの PIDは" 0x0021"である。エレメンタリデータは、ビデオデータ、オーディオデ ータ等のコンテンツデータや、再生を制御するための制御データ等である。どのよう なデータが格納されているかは、パケットの種類に応じて異なる。
[0052] 以下、ビデオデータを例に挙げて、映像を構成するピクチャとの関係を説明する。
図 5 (a)〜(d)は、ビデオ TSパケットからビデオピクチャを再生する際に構築されるス トリームの関係を示す。図 5 (a)に示すように、 TS40は、ビデオ TSパケット 40a〜40d を含む。なお、 TS40には、他のパケットも含まれ得るが、ここではビデオ TSパケット のみを示している。ビデオ TSパケットは、ヘッダ 40a— 1に格納された PIDによって容 易に特定される。
[0053] ビデオデータ 40a— 2等の各ビデオ TSパケットのビデオデータから、パケット化エレ メンタリストリームが構成される。図 5 (b)は、パケットィ匕エレメンタリストリーム(PES) 41 のデータ構造を示す。 PES41は、複数の PESパケット 41a、 41b等から構成される。
PESパケット 41aは、 PESヘッダ 41a— 1および PESペイロード 41a— 2から構成され ており、これらのデータがビデオ TSパケットのビデオデータとして格納されている。
[0054] PESペイロード 41a_ 2は、それぞれが 1つのピクチヤのデータを含んでいる。 PES ペイロード 41a_ 2から、エレメンタリストリームが構成される。図 5 (c)は、エレメンタリ ストリーム(ES) 42のデータ構造を示す。 ES42は、ピクチャヘッダ、および、ピクチャ データの組を複数有している。なお、「ピクチャ」とは一般にフレームおよびフィールド のいずれも含む概念として用いられる。
[0055] 図 5 (c)に示すピクチャヘッダ 42aには、その後に配置されたピクチャデータ 42bの ピクチャ種別を特定するピクチャコーディングタイプが記述され、ピクチャヘッダ 42c にはピクチャデータ 42dのピクチャ種別を特定するピクチャコーディングタイプが記述 されている。種別とは、 Iピクチャ(Intra— coded picture) , Ρピクチャ(Predictive — coded iDicture)まに ίま Bヒクチヤ (BiairectionaLiy— predictive— codea pict ure)などを表す。種別が Iピクチャであれば、そのピクチャコーディングタイプは、例え ば" 001b"などと決められている。
[0056] ピクチャデータ 42b、 42d等は、そのデータのみによって、または、そのデータとそ の前および/または後に復号化されるデータとによって構築可能な 1枚分のフレーム のデータである。例えば図 5 (d)は、ピクチャデータ 42bから構築されるピクチャ 43a およびピクチャデータ 42dから構築されるピクチャ 43bを示す。
[0057] TSに基づいて映像を再生する際、カムコーダ 100はビデオ TSパケットを取得して 上述の処理にしたがってピクチャデータを取得し、映像を構成するピクチャを取得す る。これにより映像を LCD209a上に再生することができる。
[0058] 上述のエンコーダ 203は、映像コンテンツに関しては図 5 (d)、(c)、 (b)および(a) に示す順序で TSを生成するといえる。
[0059] 次に、カムコーダ 100の TS処理部 204 (図 2)を説明する。 TS処理部 204は、動画 の記録時にはエンコーダ 203から TSを受け取り、またはデジタル放送番組の録画時 にはデジタルチューナ 201cから TSを受け取って、クリップ AVストリームを生成する。 クリップ AVストリームとは、リムーバブル HDD112a等への格納のために所定の形式 を有するデータストリームである。本明細書では、リムーバブル HDDに格納されたク リップ AVストリームのファイルには拡張子 TTS ("Timed TS"を意味する)を付して いる。クリップ AVストリームは、到着時刻情報を付加した TSとして実現される。また、 TS処理部 204は、コンテンツの再生時には、リムーバブル HDD112a等から読み出 されたクリップ AVストリームをメディア制御部 205から受け取り、そのクリップ AVストリ ームに基づいて TSを生成して MPEG— 2デコーダ 206に出力する。
[0060] 以下では図 6を参照しながら、 TS処理部 204の処理に関連するクリップ AVストリー ムを説明する。図 6は、クリップ AVストリーム 60のデータ構造を示す。クリップ AVスト リーム 60は、複数の TTSパケット 61から構成される。 TTSノ ケット 61は、 4バイトの T TSヘッダ 61aと、 188バイトの TSパケット 61bと力ら構成される。すなわち TTSバケツ ト 61は、 TTSヘッダ 61aを TSパケット 6 lbに付加して生成される。なお TSパケット 61 bは、図 3、図 4 (a)および (b)等に関連して説明した TSパケットである。
[0061] TTSヘッダ 61aは、 2ビットの予約領域 61a— 1と、 30ビットの到着時刻情報(Arriv al Time Stamp ;ATS) 61a_ 2と力ら構成されている。この到着時刻情報 61a_ 2 は、エンコーダ 203から出力された TSパケットが TS処理部 204に到着した時刻を示 している。 TS処理部 204は、この時刻に基づいてデコーダ 206に TSパケットを出力 する。
[0062] 次に、上述のクリップ AVストリーム 60を生成する TS処理部 204の構成を説明する 。図 7は、 TS処理部 204の機能ブロックの構成を示す。 TS処理部 204は、 TTSへッ ダ付カロ部 261と、クロックカウンタ 262と、 PLL回路 263と、ノ ッファ 264と、 TTSへッ ダ除去部 265とを有する。
[0063] TTSヘッダ付加部 261は、 TSを受け取り、その TSを構成する TSパケットの前に T TSヘッダを付加し、 TTSパケットとして出力する。 TTSヘッダ中の到着時刻情報 61 a— 2に記述される TSパケットの到着時刻は、 TTSヘッダ付加部 261に与えられる基 準時刻からのカウント値 (カウント情報)に基づいて特定される。
[0064] クロックカウンタ 262および PLL回路 263は、 TTSヘッダ付加部 261が TSパケット の到着時刻を特定するために必要な情報を生成する。まず PLL回路 263は、 TSに 含まれる PCRパケット(図 2の PCR— TSP)を抽出して、基準時刻を示す PCR (Prog ram Clock Reference:プログラム時刻基準参照値)を取得する。 PCRの値と同じ 値がカムコーダ 100のシステム基準時刻 STC (System Time Clock)として設定 され、 STCが基準時刻とされる。システム基準時刻 STCのシステムクロックの周波数 は 27MHzである。 PLL回路 263は、 27MHzのクロック信号をクロックカウンタ 262に 出力する。クロックカウンタ 262はクロック信号を受け取り、そのクロック信号をカウント 情報として TTSヘッダ付加部 261に出力する。
[0065] ノ ッファ 264は、ライトバッファ 264aおよびリードバッファ 264bを有する。ライトバッ ファ 264aは、送られてきた TTSパケットを逐次保持し、合計のデータ量が所定値 (例 えばバッファの全容量)になったときに、後述のメディア制御部 205に出力する。この とき出力される一連の TTSパケット列(データストリーム)を、クリップ AVストリームと呼 ぶ。一方、リードノくッファ 264bは、メディア制御部 205によってリムーバブル HDD11 2a等から読み出されたクリップ AVストリームを一時的にバッファして、 TTSパケット単 位で出力する。 [0066] TTSヘッダ除去部 265は、 TTSパケットを受け取って、 TTSヘッダを除去すること により TTSパケットを TSパケットに変換し、 TSとして出力する。留意すべきは、 TTS ヘッダ除去部 265は、 TTSヘッダに含まれている TSパケットの到着時刻情報 ATSを 抽出して、到着時刻情報 ATSとクロックカウンタ 262から与えられるタイミング情報と に基づいて、元の到着時刻に対応するタイミング(時間間隔)で TSパケットを出力す ることである。リムーバブル HDD112a等はランダムアクセスが可能であり、データは 不連続にディスク上に配列される。よって、 TSパケットの到着時刻情報 ATSを利用 すれば、 TS処理部 204は、データの格納位置にかかわらず記録時の TSパケットの 到着タイミングと同じタイミングで TSパケットを出力することができる。なお TTSヘッダ 除去部 265は、読み出した TSの基準時刻を指定するために、例えば最初の TTSパ ケットにおいて指定されている到着時刻を初期値としてクロックカウンタ 262に送る。 これにより、クロックカウンタ 262においてその初期値からカウントを開始させることが でき、よってその後のカウント結果をタイミング情報として受け取ることができる。
[0067] カムコーダ 100では、 TS処理部 204を設けて、 TSに TTSヘッダを付加してクリップ AVストリームを生成するとした。し力し、符号化レートが固定されている CBR (Const ant Bit Rate)で符号ィ匕する場合には、 TSパケットのデコーダ入力時刻が固定間 隔であるため、 TS処理部 204を省略して TSをリムーバブル HDD112に書き込むこ ともできる。
[0068] 再び図 2を参照しながら、カムコーダ 100の各構成要素を説明する。
[0069] メディア制御部 205は、 TS処理部 204からクリップ AVストリームを受け取り、いずれ かのリムーバブル HDD112a、 112b, · · ·、 112cに出力するかを決定して、そのリム 一バブル HDDに出力する。メディア制御部 205は、書き込み中のリムーバブル HD Dの記録可能容量をモニタし、残された記録可能容量が所定値以下になったときに は出力先を他のリムーバブル HDDに変更し、クリップ AVストリームの出力を継続す る。このとき、 1つのコンテンツを構成するクリップ AVストリームが 2つのリムーバブル HDD112に跨って格納されることになる。
[0070] メディア制御部 205は、本発明の主要な特徴の 1つであるクリップタイムライン (Clip TimeLine)テーブルを生成する。そしてそのテーブルに、クリップ AVストリームの再 生単位であるキービクチャユニットが、 2つのファイルに跨って格納されているか否か を示すフラグを記述する。なお、メディア制御部 205のより詳細な動作、および、メデ ィァ制御部 205によって生成されるクリップタイムラインテーブルの詳細なデータ構造 は後述する。
[0071] なお、クリップ AVストリームをリムーバブル HDD112に書き込む処理は、メディア制 御部 205から書き込み指示およびクリップ AVストリームを受け取ったリムーバブル H DD112が行っている。また、クリップ AVストリームを読み出す処理は、メディア制御 部 205から読み出し指示を受けたリムーバブル HDD112が行っている。し力し、説 明の便宜のため、以下ではメディア制御部 205がクリップ AVストリームを書き込み、 読み出すとして説明する。
[0072] MPEG— 2デコーダ 206 (以下「デコーダ 206」と記述する)は、供給された TSを解 祈して、 TSパケットから映像および音声の圧縮符号化データを取得する。そして、映 像の圧縮符号化データを伸長して非圧縮データに変換し、グラフィック制御部 207に 供給する。またデコーダ 206は、音声の圧縮符号化データを伸長して音声信号を生 成し、音声信号をスピーカ 209bに出力する。デコーダ 206は、 TSに関して MPEG 規格で規定されているシステムターゲットデコーダ (T— STD)の要件を満たすように 構成されている。
[0073] グラフィック制御部 207には内部演算用のメモリ 208が接続されており、オン'スクリ ーン.ディスプレイ(〇n Screen Display; OSD)機能を実現できる。例えば、ダラ フィック制御部 207は種々のメニュー画像と映像とを合成した映像信号を出力するこ とができる。液晶表示装置 (LCD) 209aは、グラフィック制御部 207から出力された 映像信号を LCD上に表示する。スピーカ 209bは、音声信号を音として出力する。コ ンテンッは、 LCD209aおよびスピーカ 209bを介して再生され、視聴の対象となる。 なお、映像信号および音声信号の出力先は、それぞれ LCD209aおよびスピーカ 2 09bに限られない。例えば映像信号および音声信号は、外部出力端子(図示せず) を経てカムコーダ 100と別体のテレビやスピーカに伝送されてもよい。
[0074] CPUバス 213はカムコーダ 100内の信号を伝送する経路であり、図示されるように 各機能ブロックと接続されている。また、 CPUバス 213には、後述するシステム制御 部 250の各構成要素も接続されている。
[0075] ネットワーク制御部 214は、カムコーダ 100をインターネット等のネットワーク 101に 接続するためのインターフェイスであり、例えば、イーサネット (登録商標)規格に準拠 した端子およびコントローラである。ネットワーク制御部 214は、ネットワーク 101を介 してデータを授受する。例えば、ネットワーク制御部 214は、撮影され生成されたタリ ップ AVストリームをネットワーク 101を介して放送局に伝送してもよレ、。または、ネット ワーク制御部 214は、カムコーダ 100の動作を制御するためのソフトウェアプログラム が更新されたときは、更新されたプログラムをネットワーク 101を介して受け取ってもよ い。
[0076] 指示受信部 215は、カムコーダ 100の本体部に設けられた操作ボタンである。指示 受信部 215は、ユーザから、例えば録画の開始/停止、再生の開始/停止等の指 示を受け取る。
[0077] インターフェース(I/F)部 216は、カムコーダ 100が他の機器と通信するためのコ ネクタおよびその通信を制御する。 I/F部 216は、例えば USB2. 0規格の端子、 IE EE1394規格の端子および各規格によるデータ通信を可能とするコントローラを含 み、各規格に準拠した方式でデータを授受することができる。例えば、カムコーダ 10 0は、 USB2. 0規格または IEEE1394規格の端子を介して PC108や、他のカムコ ーダ(図示せず)、 BDZDVDレコーダ、 PC等と接続される。
[0078] システム制御部 250は、カムコーダ 100内の信号の流れを含む全体的な処理を制 御する。システム制御部 250は、プログラム ROM210と、 CPU211と、 RAM212とを 有している。それぞれは CPUバス 213に接続されている。プログラム ROM210には カムコーダ 100を制御するためのソフトウェアプログラムが格納されている。
[0079] CPU211は、カムコーダ 100の全体の動作を制御する中央制御ユニットである。 C PU211は、プログラムを読み出して実行することにより、プログラムに基づいて規定さ れる処理を実現するための制御信号を生成し、 CPUバス 213を介して各構成要素 に出力する。メモリ 212は、 CPU211がプログラムを実行するために必要なデータを 格納するためのワーク領域を有する。例えば、 CPU211は、 CPUバス 213を使用し てプログラム ROM210からプログラムをランダムアクセスメモリ(RAM) 212に読み出 し、そのプログラムを実行する。なお、コンピュータプログラムは、 CD— ROM等の記 録媒体に記録して市場に流通され、または、インターネット等の電気通信回線を通じ て伝送される。これにより、 PC、カメラ、マイク等を利用して構成されたコンピュータシ ステムを、本実施形態によるカムコーダ 100と同等の機能を有する機器として動作さ せることができる。本明細書では、そのような機器もまたデータ処理装置と呼ぶ。
[0080] 次に、図 8 (a)〜(c)を参照しながら、カムコーダ 100において撮影された、映像お よび音声に関するコンテンツのデータ管理構造を説明する。図 8 (a)は、本実施形態 における 1コンテンツの概念を示す。撮影の開始から終了までの期間に得られたコン テンッを、 1ショットとレヽう。図 8 (b)は、コンテンツの管理情報とストリームのデータとを 含むクリップの概念を示す。 1ショット、すなわち 1つのコンテンツは、複数のクリップ a 〜cに分けて各リムーバブル HDD112a〜112cに格納することができる(1つのクリツ プで完結してもよい)。 1つのクリップは、クリップメタデータ 81と、タイムマップ 82と、ク リップ AVストリーム 83の一部(部分ストリーム)とを含む。クリップ AVストリーム 83は、 部分ストリーム 83a〜83cから構成されており、クリップ a〜cのそれぞれに含まれる。 図 8 (b)には 3つのクリップ a〜cが記載されている力 各クリップの構成は共通してい るため、ここではクリップ aを例に挙げて説明する。
[0081] クリップ aは、クリップメタデータ aと、タイムマップ aと、部分ストリーム aとを含む。このう ち、クリップメタデータ aおよびタイムマップ aは管理情報であり、部分ストリーム aがタリ ップ AVストリーム 83を構成するデータである。クリップ AVストリーム 83は原則として 1 つのファイルに格納される力 FAT32のファイルサイズの最大値を超えるときには複 数の TTSファイルに格納される。図 8 (b)では、 3つの部分ストリーム 83a、 83bおよび 83cが別個のファイルに格納される。なお本実施形態では、各部分ストリームのフアイ ルサイズを FAT32ファイルシステムにおけるファイルサイズの最大値(4ギガバイト)と すると、リムーバブル HDD112a〜cの記録可能容量がなくなって管理情報をリムー バブル HDD112に書き込みできなくなるため、各部分ストリームのファイルサイズは 4 ギガバイトよりも小さくなることに留意されたレ、。さらに、 TTSファイルは整数個の TTS パケットから構成されるとし、上記ファイルシステムからの制限である 4ギガバイト未満 であり、かつ、 TTSパケット(192バイト)の整数倍としてもよい。 [0082] クリップメタデータ aは XML形式で記述されており、コンテンツの再生に必要な情報 、例えば映像 Z音声フォーマット等が規定される。クリップメタデータ aの詳細は、後に 図 10を参照しながら詳述する。
[0083] タイムマップ aは、再生単位ごとの、表示時刻とその格納位置(アドレス)との関係を 規定したテーブルである。本明細書では、このタイムマップを「クリップタイムライン」 ( ClipTimeLine)と呼び、クリップタイムラインが格納されたファイルの拡張子に" CTL "を付して図示している。クリップタイムラインの詳細は、後に図 12〜: 14を参照しなが ら詳述する。
[0084] 部分ストリーム aは、図 6に示すように複数の TTSパケットから構成される。
[0085] なお、 1ショットの間にクリップ AVストリーム 83が複数の部分ストリーム 83a〜83cの ファイルに格納されたときには、 TSパケットの転送タイミングを決定する ATSのクロッ クカウンタ 262 (図 7)がリセットされたり、それまでのカウント値とは無関係な値が設定 されることはなレ、。クロックカウンタ 262 (図 7)は、設定されていた基準時刻に基づく力 ゥントを継続的に行ってカウント値を出力する。したがって、クリップ AVストリーム 83を 構成する各 TTSパケット中の到着時刻情報 ATSは、 1つのショットを構成する連続す る 2つの TTSファイルの境界において連続している。
[0086] 図 8 (c)は、 3っのリムーバブノレ^100112&〜112(:を示す。各クリップ a〜cを構成 するデータのファイルが各リムーバブル HDD112a〜l 12cに書き込まれる。
[0087] 次に、リムーバブル HDD112内にファイルがどのように格納されるかを説明する。
図 9は、リムーバブル HDD112内の階層化されたディレクトリ構造を示す。コンテンツ の管理情報とクリップ AVストリームのファイルは、最上層のルート(ROOT) 90内のコ ンテンッ(Contents)フォルダ 91以下に格納される。より具体的には、コンテンツフォ ルダ 91直下のデータベース(Database)フォルダ 92には、管理情報であるクリップメ タデータ 94の XML形式ファイル、および、クリップタイムライン 95の CTL形式フアイ ルが格納される。一方、コンテンツフォルダ 91直下の TTSフォルダ 93には、クリップ AVストリーム(TimedTs) 96の TTS形式ファイルが格納される。
[0088] なお、コンテンツフォルダ 91には、さらに MXF形式の映像のストリームデータを格 納するビデオフォルダ (Video)、 MXF形式の音声のストリームデータを格納するォ 一ディオフオルダ(Audio)、 BMP形式のサムネイル画像を格納するアイコンフオル ダ(Icon)、 WAVE形式のボイスメモのデータを格納するボイスフォルダ(Voice)等 が設けられてもよぐ既存のカムコーダの記録フォーマット等に対応させることができ る。
[0089] 続いて、図 10〜: 14を参照しながら、クリップメタデータ 94およびクリップタイムライン
95に記述されたデータの内容を説明する。
[0090] 図 10は、クリップメタデータ 94に含まれる情報の内容を示す。クリップメタデータ 94 は、構成データ("Structural")および記述データ("Descriptive")の 2種類に分類 される。
[0091] 構成データには、クリップ名、エッセンスリスト、リレーション情報等が記述される。ク リップ名は、そのファイルを特定するための情報であり、例えば周知の UMID (Uniq ue Material IDentifier)が記述される。 UMIDは、例えば、コンテンツが生成さ れた時刻とそれを生成した機器の MAC (Media AccessControl)アドレスを組み 合わせて生成される。さらに UMIDは、コンテンツが新たに生成されたか否かをも考 慮して生成される。すなわち、一旦 UMIDが付加され、その後に編集'加工等された コンテンツには、元のコンテンツの UMIDとは異なる値が付加される。よって UMID を利用すると世界中に存在するコンテンツに対して異なる値が定義されるため、コン テンッを一意に特定できる。
[0092] エッセンスリストには、映像および音声の復号化に必要な情報(ビデオ情報および オーディオ情報)が記述されている。例えばビデオ情報には、ビデオデータのフォー マット、圧縮符号化方式、フレームレートなどが記述される。オーディオ情報には、ォ 一ディォデータのフォーマット、サンプリングレート等が記述される。本実施形態では 、圧縮符号化方式は MPEG— 2方式である。
[0093] リレーション情報は、図 8 (b)に示すような複数のクリップ 81a〜81cが存在するとき のクリップの間の関係を規定する。具体的には各クリップメタデータ 94には、そのショ ットの先頭のクリップを特定する情報、そのクリップの直前および直後のクリップを特 定する情報がそれぞれ記述される。すなわちリレーション情報は、複数クリップの各々 に対応するクリップ AVストリーム(部分ストリーム)の再生の先後関係または再生順序 を規定しているということができる。クリップを特定する情報は、例えば、 UMIDおよび そのリムーバブル HDD112固有のシリアル番号とによって規定される。
[0094] 記述データには、アクセス情報、デバイス、撮影情報、再生情報等が含まれている 。アクセス情報には、そのクリップの最終更新者、 日時等が記述されている。デバイス 情報には、製造者名、記録した装置のシリアル番号、モデル番号等が記述されてい る。撮影情報は、撮影者名、撮影開始日時、終了日時、位置などを含む。再生情報 は、再生開始時刻、再生時間長等を特定する情報である。
[0095] 次に、クリップタイムライン 95を説明する。クリップタイムライン 95では、キービクチャ およびキービクチャユニットという概念を導入して、それらに関する情報を規定してい る。そこでまず図 11を参照しながら、キービクチャおよびキービクチャユニットを説明 する。
[0096] 図 11は、キービクチャおよびキービクチャユニットの関係を示す。図 11では、 I、 B および Pの各ピクチャを表示される順序で記載している。キービクチャユニット(Key Picture Unit ;KPU)は、映像に関して規定されるデータ再生単位である。図 11で は、キービクチャユニット KPUの表示は、キービクチャ 44から開始され、 Bピクチャ 45 におレ、て終了する。この間には MPEG規格のグループ ·ォブ ·ピクチャ(GOP)力 S 1以 上含まれている。 Bピクチャ 45の次の Iピクチャ 46から、次のキービクチャユニット KP Uの表示が始まる。各キービクチャユニットの映像再生時間は、 0. 4秒以上、かつ、 1 秒以下である。ただし、 1ショットの最後のキービクチャユニットは 1秒以下であればよ レ、。撮影の終了タイミングによっては 0. 4秒に満たないこともあるからである。上記は G〇P先頭の Iピクチャから再生が開始されるとしている力 Bピクチャから再生が開始 される GOP構造の場合には、この限りではない。 KPU期間(KPUPeriod)は、その KPUに格納される全ピクチャの再生時間を示しているためである。
[0097] キービクチャユニットの先頭に位置するキービクチャ 44、 46は、 MPEG規格におけ るシーケンスヘッダコード (sequence _ header _ code)およびグノレープスタートコ一 ド(group_start_code)を含むビデオに関するアクセス単位である。例えば、キー ピクチャユニットは MPEG2圧縮符号化された Iピクチャの画像(フレーム画像または 1 組の 2フィールド画像)または、圧縮符号化された Iフィールドおよび Pフィールドの画 像である。
[0098] また本実施形態では、 TSに付加された PTSを用いて KPU期間(KPUperiod)を 定義している。 KPU期間は、次のキービクチャユニット KPUの中で最初に表示され るピクチャの表示時刻(PTS)と、その KPUの中で最初に表示されるピクチャの表示 時刻(PTS)との差分値である。図 11では、キービクチャ 44の時刻を PTS (N)とし、 キービクチャ 46の時刻を PTS (N + 1)としたとき、 KPU期間(N)は、 PTS (N+ 1) - PTS (N)として定義される(ともにキービクチャが表示開始ピクチヤとなっている場合) 。なお、 KPU期間の定義から明らかなように、ある KPU期間の値を決定するために は、次のキービクチャユニット KPUのピクチャが圧縮符号ィ匕され、最初に表示される ピクチャの再生時刻(PTS)が確定しなければならなレ、。よって、あるキービクチャュ ニット KPUに対する KPU期間は、次のキービクチャユニットの生成が開始された後 に定まる。なお、ショットで最後の KPU期間が必要な場合もあるため、符号化したピク チヤの表示時間を積算してレ、く方法も可能である。その場合には、次の KPUの生成 開始を待たずとも KPU期間を決定することが可能である。
[0099] 次に、図 12 (a)〜(c)を参照しながら、クリップタイムライン(ClipTimeLine)を説明 する。図 12 (a)は、クリップタイムライン (ClipTimeLine) 95のデータ構造を示す。ク リップタイムライン 95は、拡張子に" CTL"を有するファイルとして各リムーバブル HD D112に書き込まれる。
[0100] クリップタイムライン 95は、再生単位ごとの、表示時刻とその格納位置(アドレス)と の関係を規定したテーブルである。 「再生単位」は、上述のキービクチャユニット KPU に対応する。
[0101] クリップタイムライン 95には、複数のフィールドが規定されている。例えば、クリップタ ィムライン 95には、 TimeEntryNumberフィールド 95a、 KPUEntryNumberフィー ノレド 95b、〇11 1¾1161^] 61 1116〇££361:フィーノレド95(3、 ClipTimeLineAddressOff setフィーノレド 95d、 ClipTimeLineDurationフィールド 95e、 StartSTCフィールド 9 5f、 TimeEntryフィールド 95g、 KPUEntryフィールド 95h等を含む。各フィールド には所定のバイト数が割り当てられ、それぞれその値に応じた特定の意味を規定して いる。 [0102] 例えば、 TimeEntryNumberフィールド 95aにはタイムエントリの数が記述され、 K PUEntryNumberフィールド 95bには KPUエントリの数が記述される。ただし Time Entryフィールド 95gおよび KPUEntryフィールド 95hは、後述のタイムエントリの数 および KPUエントリの数に応じてデータサイズが変動し得る。
[0103] 図 12 (b)は 1タイムエントリに関する TimeEntryフィールド 95gのデータ構造を示 す。 TimeEntryフィーノレド 95gには、対応するタイムエントリに関する属性を示す情 報が複数のフィールド(KPUEntryReferencelDフィールド 97a、 KPUEntryStart Addressフィールド 97bおよび TimeEntryTimeOffsetフィールド 97c)に記述され ている。
[0104] また、図 12 (c)は 1KPUエントリに関する KPUEntryフィールド 95hのデータ構造 を示す。 KPUEntryフィールド 95hには、対応するキービクチャユニット KPUに関す る属性を示す情報が複数のフィールド(OverlappedKPUFlagフィールド 98a、 Key PictureSizeフィールド 98b、 KPUPeriodフィールド 98cおよび KPUSizeフィールド 98d)に記述されている。
[0105] ここで、図 13 (a)および (b)を参照しながら、クリップタイムライン 95に含まれる主要 なフィールドに規定されるデータの意味を説明する。
[0106] 図 13 (a)は、タイムエントリと、クリップタイムライン 95に含まれるフィールドとの関係 を示す。図 13 (a)の横軸の 1目盛りは 1アクセスユニット時間(Access Unit TiMe ; AUTM)を示している。これは 1ピクチャの表示時間に対応する。ここでいう「ピクチ ャ」とはどのようなビデオを対象とするかに応じて異なる。すなわち、「ピクチャ」は、プ ログレツシブビデオに対しては 1枚のプログレッシブ走査のフレーム画像に対応し、ィ ンターレースビデオに対してはインターレース走査のフィールド画像(1フィールド)に 対応する。例えば 24000Z1001秒間隔で表示されるプログレッシブビデオ(つまり 2 3. 97p)では、 1AUTMは 1Z (24000Z1001) 秒 = 1126125 clocks/27 MHzと表記される。
[0107] ここでまず、 1ショットに n個のクリップが含まれるとしたときの時間の関係を説明する 。まず各クリップの再生時間長は、それぞれの ClipTimeLineDurationフィールド 9 5eに記述される。この値は AUTMを利用して記述される。すべてのクリップについて の ClipTimeLineDurationフィールド 95eの値の和を計算すると、 1ショットの再生 時間長 (撮影時間長)が得られる (数 1)。この時間長もまた、 AUTMを利用して記述 される。
[0108] (数 1)
1ショットの再生時間長 =∑ ClipTimeLineDuration
[0109] 一方、図 13 (&)に示す10311 # 0から# (k+ 1)までが 1クリップに含まれるとすると、 上述の各クリップの ClipTimeLineDurationフィールド 95eは、そのクリップに含まれ る全てのキービクチャユニット KPUの KPU期間(KPUperiod)フィールド 98cの値の 総和として得られる(数 2)。上述のように、 KPU期間(KPUperiod)は AUTM値を 用いて表記されるため、 ClipTimeLineDurationフィールド 95eも AUTM表記であ る。
[0110] (数 2)
ClipTimeLineDuration =∑ KPUperiod
[0111] 各 KPU期間(KPUperiod)フィールド 98cの値は、上述のとおり、そのキービクチャ ユニット KPUに含まれるピクチャのビデオ表示時間(AUTM値)の和に対応する(数
3)。
[0112] (数 3)
KPUperiod = KPU内のビデオ総表示時間
[0113] 「タイムエントリ」 (TimeEntry)とは、一定の固定時間(例えば 5秒)ごとに設定され 、その位置から再生を開始することが可能な時間軸上の飛び込み点を示す。タイム エントリの設定に関連して、先頭のキービクチャユニット KPU # 0の再生開始時刻を 0としたとき、最初に設定されたタイムエントリ # 0までの時間オフセットが ClipTimeLi neTimeOffsetフィールド 95cに設定される。また、各タイムエントリの設定時刻に再 生されるキービクチャユニット KPUを識別する情報が KPUEntryReferencelDフィ 一ルド 97aに記述され、そのキービクチャユニット KPUの先頭からそのタイムエントリ の設定時刻までの時間オフセットを示す情報が TimeEntryTimeOffsetフィールド 9 7cに記述される。
[0114] 例えば、タイムエントリ # tが指定されると、 (ClipTimeLineTimeOffsetフィールド 95cの値) + (タイムエントリの間隔 't)を計算することにより、そのタイムエントリ # tが 設定された時刻、すなわち先頭キービクチャユニット KPU # 0の先頭からの経過時 間を得ることができる。
[0115] また、さらに以下の方法によって任意の再生時刻から再生を開始することもできる。
すなわち、ユーザから再生を開始したい時刻の指定を受け取ると、その時刻は、周知 の変換処理を利用して MPEG規格上の時間情報である PTS値に変換される。そし て、その PTS値が割り当てられたピクチャから、再生が開始される。なお PTS値は、 ビデオ TSパケット(V—TSP) 30のトランスポートパケットヘッダ 30a (図 4 (a) )内に記 述されている。
[0116] 本実施形態では、 1つのクリップ AVストリームが複数の部分ストリームに分けられて いるため、各クリップ内の部分ストリーム先頭の再生開始時刻(PTS)が 0でないことが ある。そこで、クリップタィムラィン95の3 & 31^フィールド95 図12 (&) )には、そ のクリップ内の先頭 KPUの中で最初に表示されるピクチャの再生時刻情報(PTS) が記述されている。そのピクチャの PTS値と指定された時刻に対応する PTS値とに 基づいて、再生開始すべきピクチャまでの PTS (AUTM)差分値が得られる。なお、 各ピクチャに割り振られている PTS値のデータ量と、 StartSTCフィールド 95fに規定 されている PTS値のデータ量とを一致させることが好ましぐ例えば 33ビットで表記さ れる。
[0117] 上述の差分値が ClipTimeLineDurationフィールド 95eの値よりも大きければ、再 生を開始すべきピクチャはそのクリップ内に存在せず、小さければそのクリップ内に 存在すると判断できる。後者のときは、さらにその PTS差分値に基づいて、どの程度 先の時刻かも容易に特定できる。
[0118] 図 13 (b)は、 KPUエントリと、クリップタイムライン 95に含まれるフィールドとの関係 を示す。図 13 (b)の横軸の 1目盛りは 1データユニット長(Timed TS Packet Byt e Length ;TPBL)を示している。これは 1データユニットが TTSパケットのデータ量 (192バイト)と等しいことを意味する。
[0119] 各 KPUエントリは、各キービクチャユニット KPUに対して 1つ設けられている。 KPU エントリの設定に関連して、各 KPUのデータサイズが KPUSizeフィールド 98dに記 述され、各タイムエントリごとに対応する KPUの開始アドレスが KPUEntryStartAd dressフィールド 97bに記述される。なお、各キービクチャユニット KPUのデータサイ ズは、例えば図 13 (b)の KPUsize # kに示すように、その KPUの中で最初のピクチ ャのデータを格納した最初の TTSパケットから、次の KPUの最初のピクチャを格納し た TTSパケット直前の TTSパケットまでのデータサイズを 1データユニット長(TPBL) で示して表される。
[0120] さらに KPUエントリには、ファイルの最初から、キービクチャユニット KPU # 0の先 頭までのフラグメント(データオフセット)が ClipTimeLineAddressOffsetフィールド 95dに設定されている。このフィールドを設ける理由は以下のとおりである。例えば 1 ショットのクリップ AVストリームのデータが複数のファイルに分けて格納されたとき、 2 番目以降のファイルの先頭には先のファイル最後尾の KPUの一部が格納されること がある。キービクチャユニット KPU内の各ピクチャは、 KPU先頭のキービクチャから 復号ィヒをしなければならないため、ファイルの先頭に存在するデータは単独で復号 ィ匕できない。よってそのようなデータは、意味のないデータ(フラグメント)として読み 飛ばすことが必要になる。そこで上述のオフセットフィールド 95dにそのオフセット値 を利用して、読み飛ばしを可能にしている。
[0121] ここで、図 14を参照しながら、 1ショットのクリップ AVストリームデータが複数のフアイ ルに分けて格納されたときの OverlappedKPUFlagフィールド 98a等を説明する。説 明の簡単のために、ここでは 1ショットのコンテンツに関する管理情報とクリップ AVスト リームとが、 2つのリムーバブル HDD # 1および # 2に格納されるとして説明し、また クリップメタデータには言及しない。
[0122] 図 14は、 2つのリムーバブル HDDに分けて格納された、 1ショットのコンテンツに関 する管理情報とクリップ AVストリームとを示す。リムーバブル HDD # 1および # 2に は、それぞれクリップタイムラインのファイル(00001. CTLおよび 00002. CTL)と、 クリップ AVストリームのファイル(00001. TTSおよび 00002. TTS)とが格納されて いる。
[0123] 以下では、 KPUエントリに注目する。まず、リムーバブル HDD # 1上の KPUェント リ # (d— 1)は、 00001. TTS内のクリップ AVストリームに規定されるキービクチャュ ニット KPU # (d_ l)に対応して設けられている。図 14に示すように、キービクチャュ ニット KPU # (d—1)のすベてのデータは、 00001. TTS内に存在している。その場 合には、 KPUエントリ # (d— 1)の OveriappedKPUFlagフィールド 98aには Obが設 定される。
[0124] 次に、 KPUエントリ # dおよび対応するキービクチャユニット KPU # dに着目する。
図 14に示すキービクチャユニット KPU # dは、その一部(キービクチャユニット KPU # dl)がリムーバブル HDD # 1の 00001. TTS内に存在し、他の一部 (キービクチ ャユニット KPU # d2)がリムーバブル HDD # 2の 00002. TTS内に存在してレ、る。 キービクチャユニット KPU # dが 2つのリムーバブル HDDに分けて格納されている理 由は、例えばリムーバブル HDD # 1への書き込み中に、記録可能な残り容量が所定 値以下になり、それ以上の書き込みが不可能になったためである。この場合には、 K PUエントリ # dの OverlappedKPUFlagフィールド 98aには lbが設定される。
[0125] なお、リムーバブル HDD # 2内の KPUエントリ # 0に対応するキービクチャユニット KPUは、そのすベてのデータがリムーバブル HDD内に格納されているから、その〇 verlappedKPUFlagフィールド 98aには Obが設定される。
[0126] 上述のように KPUエントリ内の OverlappedKPUFlagフィールド 98aの値を調べる ことにより、そのキービクチャユニット KPUがそのメディア内のファイルに格納されて レ、るか否かが判断できる。この利点は、例えば以下の処理において非常に効果的で ある。
[0127] 図 14に示すように、 KPU # dを構成するデータが複数の TTSファイル(00001. T TSおよび 00002. TTS)に跨って格納されているときにおいて、リムーバブル HDD # 2内のデータを全て削除する編集処理を想定する。この編集処理の結果、リムー バブル HDD # 1に格納されたデータのみに基づいて 1ショットの再生が行われる。
[0128] 編集処理によって 1ショットの再生時間が変化するため、正確な再生時間を算出す る必要がある。そこで、 OverlappedKPUFlagフィールド 98aの値に基づいて再生時 間の算出処理を変化させることができる。
[0129] 以下に、再生が保証されているピクチャまでの再生時間を算出する処理(1)と、現 実に再生可能なピクチャまでの再生時間を算出する処理(2)とを説明する。例えば、 処理(1)は個人ユーザ向けの機器に実装され、処理(2)は業務ユーザ向けの機器 に実装される。
[0130] まず、上述の処理(1)から説明する。編集処理が行われた後のリムーバブル HDD
# 1内の最後の KPU # dに関しては、 OveriappedKPUFlagフィールド 98aの値は" lb"である。このときは、先頭から KPU # (d_ l)までの KPU期間(KPUperiod)の 和を、リムーバブル HDD # 1内のクリップの再生時間(ClipTimeLineDuration95e )の値として採用する。換言すれば、上述の数 2においてキービクチャユニット KPU # dの KPU期間(KPUperiod)の値はクリップの再生時間として算入しなレ、。その理 由は、実際に再生可能な時間(最初の KPUから KPU # (d— 1)まで)と数 2に基づ いて算出した 1ショットの再生時間(最初の KPUから KPU # dまで)との間には、最後 の KPU # d相当の再生時間(0. 4秒以上 1秒未満)だけ誤差が発生し得るからであ る。この算出方法によれば、再生が保証されている映像の再生時間が把握できる。
[0131] 次に、上述の処理(2)を説明する。処理(1)においては、データが存在する KPU
# dlの再生時間は考慮されていない。し力し、 KPU # dl内のデータに基づいて再 生可能なピクチャが存在し得るため、処理(1)によって算出される再生時間は厳密に は誤差が含まれうる。機器から提示された再生時間がこのような誤差を含むことは、 特に業務用途や特殊用途の機器においてはあってはならないケースが想定される。 そこで、 OverlappedKPUFlagフィールド 98aの値が" lb"の時には、フレーム/フィ 一ルド単位で連続して再生できるビデオ再生時間を KPU # dlを解析して求めれば よい。その再生時間を処理(1)によって得られる再生時間に加算することによって、ク リップの再生時間を非常に正確に求めることができる。
[0132] なお、リムーバブル HDD # 1内の最後の KPUに対応する OverlappedKPUFlag フィールド 98aの値が" Ob"のときは、先頭から最後までの各キービクチャユニット KP Uの KPU期間(KPUperiod)の和をクリップの再生時間(ClipTimeLineDuration 95e)の値として採用すればよレ、。最後のキービクチャユニット KPU内の全てのピク チヤが再生可能であるため、その KPUの KPU期間(KPUperiod)をクリップの再生 時間(ClipTimeLineDuration95e)に算入すべきだからである。
[0133] 以上説明したように、 OverlappedKPUFlagフィールド 98aの値に応じてクリップの 再生時間(ClipTimeLineDuration95e)の算出する処理を変化させることにより、 常に正確な再生時間長を算出できる。
[0134] また、 OverlappedKPUFlagフィールド 98aの値を利用して不完全なキービクチャ ユニット KPUを削除するか否かを決定し、削除したときには残されたクリップについて クリップタイムラインを修正してもよレ、。この「不完全なキービクチャユニット」とは、全て のピクチャのデータが存在しなレ、キーピクチヤユニットをレ、い、ここでは KPU # d2が 存在しなレ、KPU # dに相当する。
[0135] 具体的に説明すると、 OverlappedKPUFlagフィールド 98aの値が" lb"のときに は、不完全なキービクチャユニット KPU # dlをキービクチャユニット KPUとして取り 扱わないように、 TTSファイルから削除し、リムーバブル HDD # 1内のクリップタイム ラインを修正すればよレ、。クリップタイムラインの修正は、キービクチャユニット KPUの 数(KPUEntryNumber95b)を減少させること、 KPU # dの KPUエントリを削除す ること、キービクチャユニット KPU # dl内のタイムエントリ(TimeEntry) 95gを肖 ij除 すること等を含む。修正後は、リムーバブル HDD # 1の 00001. TTSファイルの最 後のキービクチャユニットは KPU # (d—l)になり、最初の KPUから最後の KPU # ( d—l)までの再生時間の和が 1ショットの再生時間になる。よって、上述の数 1〜数 3 を画一的に適用して正確な再生時間を得ることができる。尚、このような後方部分削 除は FAT32ファイルシステム上においても、 TTSパケット(192バイト)単位で可能で ある。
[0136] なお、キービクチャユニット KPU # d2は、リムーバブノレ HDD # 2内ではフラグメント であり、そのデータのみではビデオは復号化できなレ、。よって、リムーバブル HDD # 2内のクリップ AVストリームファイル(00002. TTS)の最初から、キービクチャュニッ ト KPU # 0の先頭までのフラグメント(データオフセット)が ClipTimeLineAddressO ffsetフィールド 95dに設定される。さらに、そのキービクチャユニット KPU # 0の先頭 から、最初に設定されたタイムエントリ # 0までの時間オフセットが ClipTimeLineTi meOffsetフィールド 95cに設定される。なお、 ClipTimeLineAddressOffsetフィ 一ルド 95dの値が 0でないときは、前のリムーバブル HDDからのキービクチャユニット KPUが格納されていることを表すため、巻き戻し再生時にはまず、クリップメタデータ 94のリレーション情報を参照することで、直前のクリップがあるか否かを特定すること 力 Sできる。直前のクリップが存在しないまたは、アクセスできない場合には、巻き戻し 再生は終了する。ショットの途中のクリップであって、前のクリップがアクセス可能であ つた場合には、 ClipTimeLineAddressOffsetフィールド 95dの値が 0か否かを確 認し、 0でないときに前のリムーバブル HDDの最後のキービクチャユニット KPUに対 応する KPUエントリの OverlappedKPUFlagフィールド 98aの値をさらに確認して、 キービクチャユニット KPUの跨ぎが発生しているか否かを確実に判定することもでき る。
[0137] 次に、上述のデータ構造に基づいてコンテンツを録画し、そのデータ構造を利用し てコンテンツを再生するための処理を説明し、その後、そのようなコンテンツを編集す る際の処理を説明する。
[0138] まず図 15および図 16を参照しながら、コンテンツをリムーバブル HDDに録画する ときのカムコーダ 100の処理(録画処理)を説明する。
[0139] 図 15は、カムコーダ 100によるコンテンツの録画処理の手順を示す。まずステップ S151におレヽて、カムコーダ 100の CPU211 iま旨示受信咅 を介して、ユーザ力 ら撮影開始の指示を受け取る。そして、ステップ S152において、 CPU211からの指 示に基づいて、エンコーダ 203は入力信号に基づいて TSを生成する。なおデジタル 放送の録画時には、ステップ S151において録画開始の指示を受け取り、ステップ S 152においてデジタルチューナ 201cを用いて録画対象の番組の TSパケットを抽出 すると読み替えればよい。
[0140] ステップ S153では、メディア制御部 205は、 TS処理部 204において TTSヘッダが 付加された TS (クリップ AVストリーム)を、順次リムーバブル HDDに書き込む。そして メディア制御部 205は、ステップ S154において、クリップ (TTSファイル)を新規に作 成するか否力を判断する。新規に作成するか否かは、記録中のクリップの TTSフアイ ルのサイズが所定値よりも大きレ、か否かや、リムーバブル HDDの残容量に応じて任 意に決定できる。新規にクリップを作成しない場合はステップ S 155に進み、新規にク リップを生成するときはステップ S 156に進む。
[0141] ステップ S 155では、 TS処理部 204は、キービクチャユニット KPUが生成されるごと に、 KPUエントリおよびタイムエントリを生成する。このとき、キービクチャユニット KP Uのすベてのデータはそのクリップの TTSファイル内に書き込まれるため、メディア制 御部 205は KPUエントリ中の OverlappedKPUFlagフィールドに" Ob"を設定する。 そしてメディア制御部 205は、ステップ S157において KPUエントリおよびタイムェン トリを含む時間'アドレス変換テーブル(クリップタイムライン ClipTimeLine)をリムー バブルメディアに書き込む。その後、ステップ S158において、 CPU211は撮影終了 か否かを判断する。撮影は、例えば指示受信部 215を介して撮影終了指示を受信し たとき、次にデータを書き込むべきリムーバブル HDDが存在しないとき等に終了する 。撮影終了と判断されると録画処理は終了する。撮影が継続されるときには処理はス テツプ S152に戻り、それ以降の処理が繰り返される。
[0142] 一方ステップ S156では、 TS処理部 204は、最後に書き込まれたデータによってキ ーピクチャユニット KPUが完結したか否力を判断する。仮にキービクチャユニット KP Uが完結しなければ、そのキービクチャユニット KPUの残りのデータは他のリムーバ ブル HDDに格納されることになる。そのため、キービクチャユニット KPUのすベての データがそのリムーバブル HDD内に書き込まれたか否かを判断するために、このよ うな判断が必要になる。キービクチャユニット KPUが完結しているときには処理はス テツプ S155に進み、完結していないときには処理はステップ S159に進む。
[0143] ステップ S159では、 TS処理部 204によってクリップ切り替え処理が行われる。この 処理の具体的な内容を、図 16に示す。
[0144] 図 16は、クリップ切り替え処理の手順を示す。この処理は、コンテンツ(クリップ)の 録画先のメディアを、あるリムーバブル HDD力 他のリムーバブル HDDに切り替え たり、同一リムーバブル HDD上で新規クリップを生成する処理である。以下では説明 を簡略化するために、クリップの切り替え力 コンテンツの録画先メディアの変更であ るとして説明するが、同一記録媒体で新規クリップに記録する場合と本質的に同等で ある。また、便宜的にそれまでコンテンツが録画されていたリムーバブル HDDを「第 1 リムーバブル HDD」と呼び、次にコンテンツが録画されるリムーバブル HDDを「第 2リ ムーバブル HDD」と呼ぶ。
[0145] まずステップ S161において、 CPU211は、第 2リムーバブル HDD上に生成される クリップのクリップ名を決定する。次に、ステップ S162において、カムコーダ 100は第 1リムーバブル HDDに完全に記録できなかったキービクチャユニット KPUが完結す るまで TSを生成する。そして、 TS処理部 204は TTSヘッダを付加し、メディア制御 部 205はそのクリップ AVストリームを第 2リムーバブル HDDに書き込む。
[0146] 次にステップ S163において、メディア制御部 205は、完結した KPUの KPUェント リおよびタイムエントリを生成する。このとき、キービクチャユニット KPUは第 1リムーバ ブル HDDおよび第 2リムーバブル HDDに跨って書き込まれるため、メディア制御部 205は KPUエントリ中の OverlappedKPUFlagフィールドに" lb"を設定する。
[0147] ステップ S164において、メディア制御部 205は、生成した KPUエントリおよびタイ ムエントリを含む時間'アドレス変換テーブル(クリップタイムライン ClipTimeLine)を 、第 1リムーバブル HDDに書き込む。そして、ステップ S165において、第 1リムーバ ブル HDD上のクリップ 'メタデータ(リレーション情報等)を更新する。例えば、メディ ァ制御部 205は、第 1リムーバブル HDD上のクリップのクリップメタデータに、次のク リップとして第 2リムーバブル HDD上のクリップを特定する UMID等を書き込む。また 、第 2リムーバブル HDD上のクリップのクリップメタデータに、前のクリップとして第 1リ ムーバブル HDD上のクリップを特定する UMID等を書き込む。その後、ステップ S1 66において、メディア制御部 205は、今後のコンテンツの書き込み先を第 2リムーバ ブル HDDに設定し、処理が終了する。
[0148] 次に、図 17を参照しながら、カムコーダ 100がリムーバブル HDDからコンテンツを 再生する処理、より具体的には、指定された再生開始時刻に基づいて、その時刻に 対応する位置からコンテンツを再生する処理を説明する。なお、コンテンツの最初か ら再生するときの処理は、 KPUエントリ、タイムエントリ等を設けない従来の処理と同 じであるため、その説明は省略する。
[0149] 図 17は、カムコーダ 100によるコンテンツの再生処理の手順を示す。ステップ S17 1において、カムコーダ 100の CPU211は指示受信部 215を介して、ユーザから再 生開始時刻の指示を受け取る。
[0150] ステップ S172において、メディア制御部 205は時間.アドレス変換テーブル(クリツ プタイムライン ClipTimeLine)を読み出して、 CPU211が再生開始時刻のピクチャ を含むキービクチャユニット(KPU)を特定する。そして、ステップ S 173において、 C PU211は、再生開始時刻に対応する KPUの開始位置を特定する。この KPUの開 始位置は、 TTSファイル内の復号開始位置(アドレス)を表している。
[0151] これらの処理の一例は以下のとおりである。すなわち、 CPU211は、再生開始時刻 力 sタイムエントリ # tとタイムエントリ # (t+ Dの間の時刻であることを特定し、さらにタ ィムエントリ # tから起算して mアクセスユニット時間(AUTM)を 1単位として何単位 離れているかを特定する。
[0152] 具体的には、まずタイムエントリ # tの KPUEntryReferencelDフィールド 97aの値 に基づいて、ある KPU (KPU # kとする)が特定される。そして、タイムエントリ # tが 指し示す時刻から KPU # kの先頭キービクチャの再生が開始されるまでの時間差が TimeEntryTimeOffsetフィールド 97cの値に基づいて取得される。その結果、再 生開始すべきピクチャが KPU # kの中で最初に表示されるピクチャから何 AUTM後 か判明する。すると、 KPU # kから KPUごとに KPU期間(KPUPeriod)を加算して レ、くことで、再生開始すべきピクチャを含む KPUが特定できる。また、タイムエントリ # tが指し示す KPUの先頭アドレスに KPU # kから再生開始すべきピクチャを含む KP Uの直前の KPUまでの KPUSizeを加算していくことで、再生開始時刻に対応する K PUの開始位置を特定できる。なお、「タイムエントリ # tが指し示す KPUの先頭アドレ ス」は、 ClipTimeLineAddressOffsetフィールド 95dの値とタイムエントリ # tの KP UEntryStartAddressフィールド 97bの値との和を計算することによって取得できる
[0153] なお、上述の説明は、説明の簡略化のため ClosedGOP構造(GOP内の全てのピ クチャは G〇P内のピクチャを参照するのみ)を前提としている。し力しながら、 Closed G〇P構造が取れない場合や、保証できない場合には、特定された再生開始時刻を 含む KPUの一つ前の KPUから復号を開始してもよレ、。
[0154] 次のステップ S 174では、メディア制御部 205はそのキービクチャユニット(KPU)の KPUEntry中のフラグを読み出し、ステップ S175において OverlappedKPUFlag フィールド 98aの値が" lb"か否かを判断する。値が" lb"のときは、キービクチャュニ ット KPUが第 1および第 2リムーバブル HDDにまたがることを意味しており、処理は ステップ S176に進む。一方値が" Ob"のときは、跨らないことを意味しており、処理は ステップ S177に進む。
[0155] ステップ S176において、メディア制御部 205は第 1リムーバブル HDDに格納され た KPUの先頭ピクチャデータ力 データを読み出し、 TS処理部 204が TTSヘッダを 除去すると、デコーダ 206はそのデータからデコードを開始する。このとき、特定した ピクチャによっては、読み出しを開始した第 1リムーバブル HDDではなく第 2リムーバ ブル HDDにデータが格納されていることもある力 S、復号を正しく行うために 2つのタリ ップ(TTSファイル)を跨ぐ KPUの先頭キービクチャからデコードが行われる。
[0156] ステップ S177では、メディア制御部 205は KPUの先頭ピクチャデータからデータ を読み出し、 TS処理部 204が TTSヘッダを除去すると、デコーダ 206はそのデータ 力 デコードを開始する。読み出されるすべてのピクチャデータは、そのリムーバブル HDD内に格内されてレ、る。
[0157] その後、ステップ S178では、再生開始時刻に対応するピクチャのデコード終了後 に、グラフィック制御部 207はそのピクチヤから出力を開始する。対応する音声が存 在するときには、スピーカ 209bもまたその出力を開始する。その後は、コンテンツの 最後まで、または再生の終了指示があるまでコンテンツが再生され、その後処理は終 了する。
[0158] 次に、図 18および図 19を参照しながら、リムーバブル HDDに録画されたコンテン ッを編集する処理を説明する。この処理は、カムコーダ 100においても実行されると して説明する力 他には、コンテンツが録画されたリムーバブル HDDが装填された P C108 (図 1)等において実行されてもよい。
[0159] 図 18 (a)および (b)は、編集によって TTSファイルの先頭部分を削除する前後の管 理情報およびクリップ AVストリームの関係を示す。図 18 (a)に示される範囲 D力 肖 IJ 除の対象となる部分である。この範囲 Dは、 TTSファイルの先頭部分を含む。先頭部 分のアドレスを piとし、 pl + D = p4とする。これまで説明したように、クリップ AVストリ ームは複数のファイルに分けて格納されることがある力 以下の処理は、各 TTSファ ィルの先頭部分を含む削除に対して適用される。
[0160] 図 18 (b)は、範囲 Dを削除した後の管理情報(クリップタイムライン)およびクリップ A Vストリームの関係を示す。本実施形態では、範囲 Dのすベてを常に削除するのでは なぐ範囲 Dに収まるデータ量のうち、 96キロバイトの n倍(n :整数)のデータ量だけを 削除する。いま、削除後の先頭データ位置をアドレス P2とすると、(p2_pl)は、(96 キロバイト) ·ηである。また、 ρ2≤ρ4である。
[0161] 上述の範囲 Dの終端アドレス ρ4は、ユーザの編集位置を示している。換言すれば、 この終端アドレス ρ4はユーザにとっては後続のストリームの開始点を示している。アド レス ρ4の値は、 (pi + D)の値として表される。さらに、例えばそのアドレスに対応する ピクチャの再生開始時刻情報 (例えば PTS)を利用して表すこともできる。例えばュ 一ザがアドレス p4を始点とし、後続のアドレスを終点とする編集を行うときには、上述 のアドレス p4に対応するピクチャの再生開始時刻情報とともに、 p4からのビデオ再生 時間長や、開始時刻情報と同様のビデオの再生終了時刻情報によって、終点を特 定することができる。ユーザの編集区間を示す情報(開始点'終了点)は、図 9の Clip Metadata (94)、または、 Clip Time Line (95)において管理される。
[0162] アドレス p4の値またはそのアドレスに対応する時刻情報を保持することにより、ユー ザが指定した範囲 Dの後から再生、編集等を開始することができる。特に本実施形態 の処理によれば、ユーザが削除を指定した範囲 Dのうち、 p2から p4までのデータが 再生可能な状態で残されることがある。ユーザにとっては p2から p4のデータは削除さ れており、再生されると違和感を覚える。そこでアドレス p4の値等を保持しておくこと により、 p2から P4までの区間の映像が再生されたり、その間を編集開始位置として誤 つて認識することを確実に防止することができる。アドレス p4の値またはそのアドレス に対応する時刻情報は、図 10に示すクリップメタデータ 94の記述データ(descripti ve)中の再生情報として格納される。
[0163] 「96キロバイト」は、本実施形態において採用するクラスタサイズ(32キロバイト)と、 TTSパケットのパケットサイズ(192バイト)との最小公倍数である。このように処理す る理由は、クラスタサイズの整数倍とすることによつてリムーバブル HDDに対するデ ータ削除処理がアクセス単位で実行でき、また TTSパケットのパケットサイズの整数 倍とすることによってデータ削除処理がクリップ AVストリームの TTSパケット単位で実 行できるため、処理を高速化かつ簡易にできるからである。なお、本実施形態ではク ラスタサイズを 32キロバイトとしているため、 96キロバイトを基準として削除単位を決 定したが、この値はクラスタサイズや、採用するクリップ AVストリームのパケットサイズ に応じて変化し得る。
[0164] 削除処理では、さらに ClipTimeLineTimeOffsetフィールド 95cおよび ClipTime LineAddressOffsetフィールド 95dの値も変更される。これらの値は削除前は 0であ る。削除後は、まず ClipTimeLineAddressOffsetフィールド 95dに、初めて現れる キービクチャユニット KPUまでのデータ量が記述される。初めて現れるキービクチャ ユニット KPUの格納アドレスを p3とすると、 ClipTimeLineAddressOffsetフィール ド 95dは(p3— p2)の値が記述される。また、 ClipTimeLineTimeOffsetフィールド 95cに、最初のキービクチャユニット KPUの中で先頭のキービクチャの再生時刻から 最初のタイムエントリまでの時間差が AUTM単位で記述される。なお、アドレス p2力 ら p3までのクリップ AVストリームのパケットは、単独でデコードできるという保証がな いため、フラグメントとして扱われ、再生の対象とはされない。
[0165] 図 19は、カムコーダ 100によるコンテンツの部分削除処理の手順を示す。まずステ ップ S191において、カムコーダ 100の CPU211は指示受信部 215を介して、ユー ザ力 TTSファイルの部分削除指示、および、削除範囲 Dの指定を受け取る。部分 削除指示とは、 TTSファイルの先頭部分および/または末尾部分を削除する指示で ある。指示の内容に応じて、先頭部分を削除する「前方部分削除処理」および/また は末尾部分を削除する「後方部分削除処理」が行われる。
[0166] ステップ S192において、前方部分削除処理か否かが判定される。前方部分削除 処理を行う場合にはステップ S193に進み、前方部分削除でない場合にはステップ S 195に進む。ステップ S193では、メディア制御部 205は、削除範囲に相当するデー タ量 Dのうち、 96キロバイトの整数倍のデータ量を先頭から削除する。そしてステップ S 194において、メディア制御部 205は、時間.アドレス変換テーブル(クリップタイム ライン)中の、最初のタイムエントリに対する時間オフセットの値(ClipTimeLineTim e〇ff setフィールド 95cの値)と最初の KPUエントリに対するアドレスオフセット値(Cli pTimeLineAddressOffsetフィールド 95dの値)とを修正する。その後、処理はステ ップ S 195に進む。 [0167] ステップ S195では、後方部分削除処理か否かが判定される。後方部分削除処理 を行う場合にはステップ S196に進み、行わない場合にはステップ S197に進む。ス テツプ S196では、削除範囲に相当するデータ量のうち、 TTSファイルの最後が完全 な KPUとなるよう 192バイト単位でデータが削除される。これはすなわち、 192ノイト の整数倍のデータ量のデータが削除されることを意味する。その後処理はステップ S 197に進む。
[0168] ステップ S197では、部分削除処理によって変化したタイムエントリ数や KPUェント リ数等を修正する。具体的には、時間 ·アドレス変換テーブル(ClipTimeLine)中で 、実データを伴わなくなった KPUEntryエントリ、および KPUEntryReferencelD で参照してレ、た KPUEntryエントリを失った TimeEntryエントリが削除される。また、 TimeEntryNumberフィールド 95 aの値、 KPUEntryNumberフィールド 95bの値 等の修正処理が行われる。
[0169] なお、前方部分削除処理および後方部分削除処理のいずれもが行われない場合 にもステップ S197を経由する。これは、例えば TTSファイルの中間部分の削除処理 が行われた場合にも修正処理が行われることを想定している。ただし、中間部分の削 除処理は本明細書においては特に言及しない。
[0170] なお、上述のように部分削除処理は TTSファイルの先頭部分に限られず、 TTSフ アイルの末尾部分を含む範囲の削除処理をしてもよい。この処理は、例えば上述の 不完全なキービクチャユニット KPU (図 14の KPU # dl)を削除する際に適用される 。不完全なキービクチャユニット KPUは 1クリップの最後に存在しているため、「TTS ファイルの最後の部分を含む範囲」に相当する。このとき削除される範囲は、不完全 なキービクチャユニット KPUの先頭力 TTSファイルの最後までであり、例えば TTS パケットのパケットサイズ(192バイト)単位で削除する範囲を決定すればよい。クラス タサイズは特に考慮しなくてもよい。なお、 TTSファイルの最後の部分は不完全なキ ーピクチャユニット KPUに限られず、ユーザから範囲の指定を受けること等により、任 意に決定できる。なお、先頭部分の削除処理と末尾部分の削除処理とを連続して行 つてもょレ、し、一方の処理のみを行ってもよい。
[0171] 以上、本発明の実施形態を説明した。 [0172] 本実施形態では、データストリーム等を格納するメディアはリムーバブル HDDであ るとした。しかし、上述したファイルシステムによりファイルを管理するメディアであれば 、非可換メディア、例えばデータ処理装置に内蔵された HDDであってもよい。
[0173] タイムマップ(ClipTimeLine)のデータ構造は、 TimeEntryおよび KPUEntryの
2層を含むとした。しかし、再生時間と記録アドレスの変換が可能であればこれに限る 必要は一切なぐ KPUEntryの 1層のみからなるタイムマップであっても全く同様で ある。上述の説明では、 OverlappedKPUFlagフィールドを設け、その値に基づい てキービクチャユニット KPUが複数のファイルを跨っていることを示すとして説明した 。し力し、複数のファイルを跨っているか否かは、タイムマップに相当するデータが存 在しない場合であっても表すことができる。例えば、クリップメタデータ(リレーション情 報など)、クリップのファイル名の命名規則(ファイル名の番号が昇順など)、同一フォ ルダ内に 1ショットの全データ(少なくとも 1ショットを構成する全 TTSファイルの内、同 一記録媒体上に記録されたもの)を格納する等によって、 KPUが跨っている、または 、跨っている可能性があることを示してもよい。
[0174] なお、図 2等の各機能ブロックは典型的には集積回路(Large Scale Integrate d Circuit ; LSI)のチップとして実現される。これらは個別に 1チップ化されてもよい し、一部または全てを含むように 1チップ化されてもよレ、。例えば、図 2においては、 C PU211を含むシステム制御部 250とメディア制御部 205とは別個の機能ブロックとし て示されている。これらはそれぞれ別個の半導体チップとして実装されてもよいし、シ ステム制御部 250にメディア制御部 205の機能を与え、物理的に同一のチップによ つて実現してもよレ、。また、メディア制御部 205および TS処理部 204の機能を集積化 して、 1つのチップ回路として実現してもよいし、さらにエンコーダ 203およびデコーダ 206の機能を付カ卩したチップ回路 217として実現してもよレ、。ただし、例えば符号化 または復号ィ匕の対象となるデータを格納するメモリのみを集積化の対象から除外する ことにより、複数の符号ィヒ方式に容易に対応できる。
[0175] システム制御部 250は、プログラム ROM210等に格納されたコンピュータプログラ ムを実行することにより、本明細書に記載したメディア制御部 205の機能を実現する こと力 Sできる。このときは、メディア制御部 205はシステム制御部 250の一部の機能と して実現される。
[0176] なお、上述の「LSI」は、集積度の違いにより、 IC、システム LSI、スーパー LSI、ゥ ルトラ LSIと呼称されることもある。集積回路化の手法は LSIに限るものではなぐ専 用回路又は汎用プロセサで実現してもよい。 LSI製造後に、プログラムすることが可 能な FPGA (Field Programmable Gate Array)や、 LSI内部の回路セルの接 続や設定を再構成可能なリコンフィギユラブル'プロセッサーを利用してもよい。
[0177] さらには、半導体技術の進歩又は派生する別技術により LSIに置き換わる集積回 路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい 。例えば、ノくィォテクノロジーを利用したいわゆるバイオ素子として集積化を行っても よい。
産業上の利用可能性
[0178] 本発明によれば、コンテンツの録画のために、複数ファイルに跨ってコンテンツのデ 一タストリームが格納されることを想定したデータ構造を得ることができる。このデータ 構造によれば、機器はどのファイル内のデータであっても容易にアクセスし、再生を 開始することができる。またこのデータ構造を利用してさらにファイルの編集を行うこと により、機器は処理の高速化および処理負荷の軽減を実現できる。

Claims

請求の範囲
[1] コンテンツのデータストリームをメディアに書き込むことが可能なデータ処理装置で あって、前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチャか らのデコードを要する復号ィヒ単位を iつまたは複数含む再生単位を有しており、 前記データストリームを生成するエンコーダおよび前記データストリームを受信する 受信部の少なくとも一方と、
前記データストリームを前記メディアに書き込むメディア制御部とを備え、 前記メディア制御部は、前記データストリームを書き込み中の第 1ストリームファイル のサイズが所定値を超えると、前記第 1ストリームファイルと異なる第 2ストリームフアイ ルに書き込みを継続し、前記再生単位のデータが前記第 1ストリームファイルおよび 前記第 2ストリームファイルに跨って格納されていることを示す情報を生成し、前記メ ディアに書き込む、データ処理装置。
[2] 前記メディア制御部は、
前記データストリームの再生単位ごとに、対応する再生単位の属性を規定した管理 情報を生成し、
前記再生単位のデータが前記第 1ストリームファイルおよび前記第 2ストリームフアイ ルに跨って格納されているとき、跨っていることを示す情報を前記第 1ストリームフアイ ル内の最後の再生単位に対応する管理情報として生成する、請求項 1に記載のデ ータ処理装置。
[3] 前記メディアには、 1つのファイルの最大サイズが規定されたファイルシステムが構 築されており、
前記メディア制御部は、前記最大サイズ以下のサイズを前記所定値として、前記跨 つて格納されていることを示す情報を生成する、請求項 1に記載のデータ処理装置。
[4] 前記データストリームは、各々のデータサイズが固定された 1以上のデータパケット 力 構成されており、
前記メディア制御部は、前記最大サイズ以下であって、かつ、整数個のパケットを 含むストリームファイルサイズを前記所定値として前記跨って格納されていることを示 す情報を生成する、請求項 3に記載のデータ処理装置。
[5] 所定の基準時刻に基づいて時間をカウントし、パケットを受け取った時刻を示す時 刻情報を格納したヘッダを生成し、前記パケットに付加するストリーム処理部をさらに 備え、
1つのコンテンツに関する前記データストリームの書き込み開始から終了までの間 に、前記エンコーダおよび前記データストリームを受信する受信部の少なくとも一方 は、複数のパケットから構成されるデータストリームの生成および受信の一方を行レ、、 前記ストリーム処理部は、前記基準時刻に基づいて継続的に時間をカウントして前記 時刻情報を生成する、請求項 1に記載のデータ処理装置。
[6] 前記メディア制御部は、前記第 1ストリームファイル内のデータストリームおよび前記 第 2ストリームファイル内のデータストリームの再生に関する先後関係を規定する管理 情報を生成して前記メディアに書き込む、請求項 1に記載のデータ処理装置。
[7] 前記メディア制御部は、
前記第 1データストリームに対応する管理情報として、前記第 1データストリームの 次に再生される前記第 2データストリームを特定する情報を記述した第 1管理情報を 生成し、
前記第 2データストリームに対応する管理情報として、前記第 2データストリームの 前に再生される前記第 1データストリームを特定する情報を記述した第 2管理情報を 生成する、請求項 6に記載のデータ処理装置。
[8] 所定の基準時刻に基づいて時間をカウントし、複数のパケットから構成されたデー タストリームを受け取って各パケットの受け取った時刻を示す時刻情報を格納したへ ッダを生成し、前記ヘッダを前記各パケットに付加するストリーム処理部と、
前記ヘッダが付加された各パケットのデータストリームを前記メディアに書き込むメ ディア制御部とを備え、
1つのコンテンツに関する前記データストリームの書き込み開始から終了までの間 に、前記ストリーム処理部は、前記基準時刻に基づいて継続的に時間をカウントして 時刻情報を生成し、前記メディア制御部は、前記データストリームを書き込み中の第 1ストリームファイルのサイズが所定値を超えると、前記第 1ストリームファイルと異なる 第 2ストリームファイルに書き込みを継続する、データ処理装置。
[9] 前記メディア制御部は、前記第 1ストリームファイル内の第 1データストリームおよび 前記第 2ストリームファイル内の第 2データストリームの再生に関する先後関係を規定 する管理情報を生成して前記メディアに書き込む、請求項 8に記載のデータ処理装 置。
[10] 前記メディア制御部は、
前記第 1データストリームに対応する管理情報として、前記第 1データストリームの 次に再生される前記第 2データストリームを特定する情報を記述した第 1管理情報を 生成し、
前記第 2データストリームに対応する管理情報として、前記第 2データストリームの 前に再生される前記第 1データストリームを特定する情報を記述した第 2管理情報を 生成する、請求項 9に記載のデータ処理装置。
[11] データ処理装置に実装されて、コンテンツのデータストリームをメディアに書き込む ための処理を行うチップ回路であって、
前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチヤからの デコードを要する復号ィヒ単位を 1つまたは複数含む再生単位を有しており、 前記データ処理装置は、前記データストリームを生成するエンコーダおよび前記デ 一タストリームを受信する受信部の少なくとも一方を備えており、
書き込み指示および前記データストリームを出力する処理と、
書き込み中の第 1ストリームファイルのサイズが所定値を超えるか否力を判断する処 理と、
前記所定値を超えると判断したときは、前記第 1ストリームファイルと異なる第 2ストリ ームファイルに書き込みを継続する処理と、
前記再生単位のデータが前記第 1ストリームファイルおよび前記第 2ストリームフアイ ルに跨って格納されているか否力を示す情報を生成する処理と、
前記情報を前記メディアに書き込む処理と
を実行する、チップ回路。
[12] データ処理装置に実装されて、コンテンツのデータストリームをメディアに書き込む ための処理を行うチップ回路であって、 前記データストリームを第 1ストリームファイルとして前記メディアに書き込む処理と、 書き込み中の前記第 1ストリームファイルのサイズが所定値を超えるか否力を判断 する処理と、
前記所定値を超えると判断したときは、前記第 1ストリームファイルと異なる第 2ストリ ームファイルに前記データストリームの書き込みを継続する処理と
を実行する、チップ回路。
[13] 所定の基準時刻に基づいて時間をカウントする処理と、
複数のパケットから構成された前記データストリームを受け取って、各パケットの受 け取り時刻を示す時刻情報を格納したヘッダを生成し、前記各パケットに付加する処 理とをさらに実行して、
前記ヘッダが付加されたデータストリームを第 1ストリームファイルとして前記メディア に書き込む、請求項 12に記載のチップ回路。
[14] 前記データ処理装置から映像信号を受け取って符号化し、前記複数のパケットか ら構成されたデータストリームを生成する処理をさらに実行する、請求項 13に記載の チップ回路。
[15] 符号化された前記データストリームを前記メディアから読み出す処理と、
前記データストリームを復号化する処理と
をさらに実行する、請求項 14に記載のチップ回路。
[16] 符号ィ匕されたコンテンツのデータストリームをメディアから読み出して、前記コンテン ッを再生することが可能なデータ処理装置であって、
前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチヤからの デコードを要する復号化単位を 1つまたは複数含む再生単位のデータを有し、前記 複数のピクチャには再生時刻を示す時刻情報が付加され、
前記メディアには、前記データストリームを格納した少なくとも 1つのストリームフアイ ルが記録され、かつ、前記再生単位の各々に対応する情報であって、その再生単位 のデータが複数のファイルに跨って格納されているか否力を示す情報が書き込まれ ており、
再生を開始すべき時刻の指示を受け取る指示受信部と、 前記指示に基づいて、再生を開始すべき開始ピクチャを含む再生単位を特定する 処理部と、
特定された前記再生単位に対応する情報を読み出し、前記情報に基づいて前記 再生単位のデータが複数のファイルに跨って格納されていないと判断したときには、 前記再生単位のデータをストリームファイルから読み出すメディア制御部と、 前記再生単位の基準ピクチヤからデコードを開始するデコーダと、
前記開始ピクチヤから出力を開始する出力部と
を備えたデータ処理装置。
[17] 前記メディア制御部は、前記再生単位に対応する情報に基づいて前記再生単位 のデータが複数のファイルに跨って格納されていると判断したときには、前記再生単 位のデータを前記複数のファイルから読み出す、請求項 16に記載のデータ処理装 置。
[18] 前記メディア制御部は、前記再生単位の最初の基準ピクチヤのデータが格納され たファイルから前記再生単位のデータを読み出す、請求項 17に記載のデータ処理 装置。
[19] 前記データストリームは複数のパケットから構成され、前記複数のパケットの各々に は、各パケットの出力時刻を規定する時刻情報を格納したヘッダが付加されており、 前記ヘッダが付加された各パケットを受け取って、前記時刻情報に基づくタイミング で前記各パケットを出力するストリーム処理部をさらに備えた、請求項 18に記載のデ ータ処理装置。
[20] データ処理装置に実装されて、符号ィ匕されたコンテンツのデータストリームをメディ ァから読み出して、前記コンテンツを再生するための処理を行うチップ回路であって 前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチヤからの デコードを要する再生単位のデータを含み、前記複数のピクチャには再生時刻を示 す時刻情報が付加され、
前記メディアには、前記データストリームを格納した少なくとも 1つのストリームフアイ ルが記録され、かつ、前記再生単位の各々に対応する情報であって、その再生単位 のデータが複数のファイルに跨って格納されているか否力を示す情報が書き込まれ 前記データ処理装置は、再生を開始すべき時刻の指示を受け取る指示受信部を 備えており、
前記指示に基づいて、再生を開始すべき開始ピクチャを含む再生単位を特定する 処理と、
特定された前記再生単位に対応する情報を読み出す指示を出力する処理と、 前記情報に基づいて前記再生単位のデータが複数のファイルに跨って格納されて レ、るか否力を判断し、跨って格納されていないと判断したときには、前記再生単位の データをストリームファイルから読み出す指示を出力する処理と、
読み出された前記再生単位のデータを出力する処理と
を実行する、チップ回路。
[21] 前記再生単位の基準ピクチヤからデコードを開始する処理と、
前記開始ピクチヤのデコードの終了後に、前記開始ピクチヤから出力を開始する処 理とをさらに実行する、請求項 20に記載のチップ回路。
[22] 前記再生単位に対応する情報に基づいて前記再生単位のデータが複数のフアイ ルに跨って格納されていると判断したときには、前記再生単位のデータを前記複数 のファイルから読み出す指示を出力する、請求項 20に記載のチップ回路。
[23] 前記再生単位の基準ピクチヤのデータが格納されたファイルから前記再生単位の データを読み出す指示を出力する、請求項 22に記載のチップ回路。
[24] 前記データストリームは複数のパケットから構成され、前記複数のパケットの各々に は、各パケットの出力時刻を規定する時刻情報を格納したヘッダが付加されており、 前記ヘッダが付加された各パケットを受け取って、前記時刻情報に基づくタイミング で前記各パケットを出力する処理をさらに実行する、請求項 23に記載のチップ回路
[25] コンテンツのデータストリームをメディアに書き込むためのデータ処理方法であって 前記データストリームは、複数のピクチャから構成され、かつ、基準ピクチヤからの デコードを要する復号ィヒ単位を 1つまたは複数含む再生単位を有しており、 前記データストリームを取得するステップと、
前記データストリームを前記メディアに書き込むステップと
を包含し、前記メディアに書き込むステップは、前記データストリームを書き込み中 の第 1ストリームファイルのサイズが所定値を超えると、前記第 1ストリームファイルと異 なる第 2ストリームファイルに書き込みを継続し、前記再生単位のデータが前記第 1ス トリームファイルおよび前記第 2ストリームファイルに跨って格納されていることを示す 情報を生成し、前記メディアに書き込む、データ処理方法。
PCT/JP2005/017035 2004-09-24 2005-09-15 データ処理装置 WO2006033279A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/575,407 US20080063387A1 (en) 2004-09-24 2005-09-15 Data Processor
JP2006536356A JPWO2006033279A1 (ja) 2004-09-24 2005-09-15 データ処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-277595 2004-09-24
JP2004277595 2004-09-24

Publications (1)

Publication Number Publication Date
WO2006033279A1 true WO2006033279A1 (ja) 2006-03-30

Family

ID=36090040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/017035 WO2006033279A1 (ja) 2004-09-24 2005-09-15 データ処理装置

Country Status (3)

Country Link
US (1) US20080063387A1 (ja)
JP (1) JPWO2006033279A1 (ja)
WO (1) WO2006033279A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017328A (ja) * 2006-07-07 2008-01-24 Mitsubishi Electric Corp 録画機能付デジタル放送受信機
WO2008013308A1 (fr) * 2006-07-26 2008-01-31 Sony Corporation Dispositif d'enregistrement, procédé d'enregistrement, programme d'enregistrement, dispositif d'imagerie, procédé d'imagerie et programme d'imagerie
EP1906406A1 (en) 2006-09-29 2008-04-02 Sony Corporation Recording-and-reproducing apparatus and method
JP2008277905A (ja) * 2007-04-25 2008-11-13 Sony Corp 符号記録装置及び符号記録方法並びに符号送出装置及び符号送出方法
JP2009124735A (ja) * 2009-01-13 2009-06-04 Sony Corp 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法
US7916584B2 (en) 2006-09-29 2011-03-29 Sony Corporation Recording-and-reproducing apparatus and content-managing method
US8606079B2 (en) 2006-07-31 2013-12-10 Sony Corporation Recording apparatus, recording method, reproduction apparatus, reproduction method, recording and reproduction apparatus, recording and reproduction method, image capturing and recording apparatus, and image capturing and recording method
US8989170B2 (en) 2002-02-05 2015-03-24 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8238624B2 (en) 2007-01-30 2012-08-07 International Business Machines Corporation Hybrid medical image processing
JP2008250475A (ja) * 2007-03-29 2008-10-16 Brother Ind Ltd 情報処理装置、ネットワークシステム、およびプログラム
WO2008126157A1 (en) * 2007-04-13 2008-10-23 Thomson Licensing An editing apparatus and an editing method
US8462369B2 (en) 2007-04-23 2013-06-11 International Business Machines Corporation Hybrid image processing system for a single field of view having a plurality of inspection threads
US8326092B2 (en) 2007-04-23 2012-12-04 International Business Machines Corporation Heterogeneous image processing system
US8331737B2 (en) 2007-04-23 2012-12-11 International Business Machines Corporation Heterogeneous image processing system
US8675219B2 (en) 2007-10-24 2014-03-18 International Business Machines Corporation High bandwidth image processing with run time library function offload via task distribution to special purpose engines
US9135073B2 (en) 2007-11-15 2015-09-15 International Business Machines Corporation Server-processor hybrid system for processing data
US9332074B2 (en) 2007-12-06 2016-05-03 International Business Machines Corporation Memory to memory communication and storage for hybrid systems
US20090150556A1 (en) * 2007-12-06 2009-06-11 Kim Moon J Memory to storage communication for hybrid systems
US8229251B2 (en) 2008-02-08 2012-07-24 International Business Machines Corporation Pre-processing optimization of an image processing system
US8379963B2 (en) 2008-03-28 2013-02-19 International Business Machines Corporation Visual inspection system
US9525488B2 (en) 2010-05-02 2016-12-20 Corning Optical Communications LLC Digital data services and/or power distribution in optical fiber-based distributed communications systems providing digital data and radio frequency (RF) communications services, and related components and methods
US20110268446A1 (en) 2010-05-02 2011-11-03 Cune William P Providing digital data services in optical fiber-based distributed radio frequency (rf) communications systems, and related components and methods
JP5625512B2 (ja) * 2010-06-09 2014-11-19 ソニー株式会社 符号化装置、符号化方法、プログラム、および記録媒体
CN103119865A (zh) 2010-08-16 2013-05-22 康宁光缆系统有限责任公司 支持远程天线单元之间的数字数据信号传播的远程天线集群和相关系统、组件和方法
US9252874B2 (en) 2010-10-13 2016-02-02 Ccs Technology, Inc Power management for remote antenna units in distributed antenna systems
WO2012115843A1 (en) 2011-02-21 2012-08-30 Corning Cable Systems Llc Providing digital data services as electrical signals and radio-frequency (rf) communications over optical fiber in distributed communications systems, and related components and methods
US8495221B1 (en) * 2012-10-17 2013-07-23 Limelight Networks, Inc. Targeted and dynamic content-object storage based on inter-network performance metrics
US10118259B1 (en) 2012-12-11 2018-11-06 Ati Properties Llc Corrosion resistant bimetallic tube manufactured by a two-step process
US10659163B2 (en) 2014-09-25 2020-05-19 Corning Optical Communications LLC Supporting analog remote antenna units (RAUs) in digital distributed antenna systems (DASs) using analog RAU digital adaptors
WO2016071902A1 (en) 2014-11-03 2016-05-12 Corning Optical Communications Wireless Ltd. Multi-band monopole planar antennas configured to facilitate improved radio frequency (rf) isolation in multiple-input multiple-output (mimo) antenna arrangement
WO2016075696A1 (en) 2014-11-13 2016-05-19 Corning Optical Communications Wireless Ltd. Analog distributed antenna systems (dass) supporting distribution of digital communications signals interfaced from a digital signal source and analog radio frequency (rf) communications signals
WO2016098111A1 (en) 2014-12-18 2016-06-23 Corning Optical Communications Wireless Ltd. Digital- analog interface modules (da!ms) for flexibly.distributing digital and/or analog communications signals in wide-area analog distributed antenna systems (dass)
EP3235336A1 (en) 2014-12-18 2017-10-25 Corning Optical Communications Wireless Ltd. Digital interface modules (dims) for flexibly distributing digital and/or analog communications signals in wide-area analog distributed antenna systems (dass)
US11159833B2 (en) * 2018-11-23 2021-10-26 Sony Corporation Buffer management for storing files of a received packet stream

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032826A (ja) * 1996-07-18 1998-02-03 Oki Electric Ind Co Ltd 動画像処理装置
JPH11155130A (ja) * 1997-09-17 1999-06-08 Matsushita Electric Ind Co Ltd 光ディスク、録画装置、プログラム記憶媒体
JP2001052448A (ja) * 1999-08-06 2001-02-23 Hitachi Ltd データ記録媒体およびデータ記録装置
JP2001189913A (ja) * 1999-10-21 2001-07-10 Matsushita Electric Ind Co Ltd データ記録装置、媒体及び情報集合体
JP2003331525A (ja) * 2002-05-08 2003-11-21 Toshiba Corp 交替処理方法及び交替処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6078727A (en) * 1997-09-17 2000-06-20 Matsushita Electric Industrial Co., Ltd. Optical disc, recording apparatus, and computer-readable recording medium
EP1094463A2 (en) * 1999-10-21 2001-04-25 Matsushita Electric Industrial Co., Ltd. Data recording apparatus, medium and information package

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032826A (ja) * 1996-07-18 1998-02-03 Oki Electric Ind Co Ltd 動画像処理装置
JPH11155130A (ja) * 1997-09-17 1999-06-08 Matsushita Electric Ind Co Ltd 光ディスク、録画装置、プログラム記憶媒体
JP2001052448A (ja) * 1999-08-06 2001-02-23 Hitachi Ltd データ記録媒体およびデータ記録装置
JP2001189913A (ja) * 1999-10-21 2001-07-10 Matsushita Electric Ind Co Ltd データ記録装置、媒体及び情報集合体
JP2003331525A (ja) * 2002-05-08 2003-11-21 Toshiba Corp 交替処理方法及び交替処理装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11229010B2 (en) 2002-02-05 2022-01-18 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
US10397899B2 (en) 2002-02-05 2019-08-27 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
US9907052B2 (en) 2002-02-05 2018-02-27 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
US9215709B2 (en) 2002-02-05 2015-12-15 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
US9179461B2 (en) 2002-02-05 2015-11-03 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
US8989170B2 (en) 2002-02-05 2015-03-24 Sony Corporation Wireless communication system and wireless communication control method, wireless communication device and wireless communication method, and computer program
JP2008017328A (ja) * 2006-07-07 2008-01-24 Mitsubishi Electric Corp 録画機能付デジタル放送受信機
KR101365339B1 (ko) * 2006-07-26 2014-02-19 소니 주식회사 기록 장치, 기록 방법 및 기록 프로그램, 및, 촬상 장치,촬상 방법 및 촬상 프로그램
WO2008013308A1 (fr) * 2006-07-26 2008-01-31 Sony Corporation Dispositif d'enregistrement, procédé d'enregistrement, programme d'enregistrement, dispositif d'imagerie, procédé d'imagerie et programme d'imagerie
US8335426B2 (en) 2006-07-26 2012-12-18 Sony Corporation Recording apparatus, recording method, and recording program, and image capturing apparatus, image capturing method, and image capturing program
KR101369003B1 (ko) * 2006-07-31 2014-03-12 소니 주식회사 기록 장치, 기록 방법, 재생장치, 재생 방법, 기록재생장치, 기록 재생 방법, 촬상 기록 장치 및 촬상 기록방법
US8606079B2 (en) 2006-07-31 2013-12-10 Sony Corporation Recording apparatus, recording method, reproduction apparatus, reproduction method, recording and reproduction apparatus, recording and reproduction method, image capturing and recording apparatus, and image capturing and recording method
US8588042B2 (en) 2006-09-29 2013-11-19 Sony Corporation Recording-and-reproducing apparatus and content-managing method
TWI382410B (zh) * 2006-09-29 2013-01-11 Sony Corp 記錄及再生裝置和記錄及再生方法
US8229273B2 (en) 2006-09-29 2012-07-24 Sony Corporation Recording-and-reproducing apparatus and recording-and-reproducing method
US7916584B2 (en) 2006-09-29 2011-03-29 Sony Corporation Recording-and-reproducing apparatus and content-managing method
JP2008090914A (ja) * 2006-09-29 2008-04-17 Sony Corp 記録再生装置及び記録再生方法
EP1906406A1 (en) 2006-09-29 2008-04-02 Sony Corporation Recording-and-reproducing apparatus and method
JP2008277905A (ja) * 2007-04-25 2008-11-13 Sony Corp 符号記録装置及び符号記録方法並びに符号送出装置及び符号送出方法
JP2009124735A (ja) * 2009-01-13 2009-06-04 Sony Corp 記録装置、記録方法、再生装置、再生方法、記録再生装置、記録再生方法、撮像記録装置及び撮像記録方法

Also Published As

Publication number Publication date
US20080063387A1 (en) 2008-03-13
JPWO2006033279A1 (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
WO2006033279A1 (ja) データ処理装置
JP4299836B2 (ja) データ処理装置
CN100375190C (zh) Av数据记录装置及方法、用该av数据记录装置或方法记录的盘、av数据重放装置及方法
JP2008053763A (ja) Avデータ記録装置及び方法、avデータ再生装置及び方法、当該avデータ記録装置又は方法で記録された記録媒体
US20080049574A1 (en) Data Processor
US20080301380A1 (en) Data Processor
US8824864B2 (en) Data processor
JP2004088766A (ja) データ管理装置及びデータ管理システム
JPWO2005015907A1 (ja) データ処理装置
KR100939718B1 (ko) 개인 비디오 녹화 시스템 및 녹화 프로그램 편집 방법
JP4425138B2 (ja) 再生装置
JP4807250B2 (ja) 記録方法
WO2004057869A1 (ja) データストリームのフォーマット変換方法およびそのための記録方法
EP1768402A1 (en) Data processor
JP4426800B2 (ja) Avデータ記録再生装置及び方法、並びに当該avデータ記録再生装置又は方法で記録された記録媒体
JP3901555B2 (ja) Avデータ記録装置及び方法、当該avデータ記録装置又は方法で記録されたディスク、並びに当該ディスクを再生するavデータ再生装置及び方法又はavデータ記録再生装置及び方法
JP2003009085A (ja) デジタル信号記録装置および方法、デジタル信号再生装置および方法
US20060291811A1 (en) Moving picture distribution system
JP4481929B2 (ja) データストリームの記録方法および装置
US20070031125A1 (en) Data processing device and data processing method
JP5100852B2 (ja) デジタル信号記録再生装置および方法、デジタル信号再生装置および方法
JP2010028821A (ja) デジタル信号記録装置および方法、デジタル信号再生装置および方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006536356

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11575407

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05783273

Country of ref document: EP

Kind code of ref document: A1

WWP Wipo information: published in national office

Ref document number: 11575407

Country of ref document: US