WO2005002217A1 - 記録装置および方法、並びにプログラム - Google Patents

記録装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2005002217A1
WO2005002217A1 PCT/JP2004/008403 JP2004008403W WO2005002217A1 WO 2005002217 A1 WO2005002217 A1 WO 2005002217A1 JP 2004008403 W JP2004008403 W JP 2004008403W WO 2005002217 A1 WO2005002217 A1 WO 2005002217A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
file
audio
recording
resolution
Prior art date
Application number
PCT/JP2004/008403
Other languages
English (en)
French (fr)
Inventor
Takashi Furukawa
Hideki Ando
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP04745952A priority Critical patent/EP1530369A1/en
Priority to US10/525,635 priority patent/US20060127052A1/en
Publication of WO2005002217A1 publication Critical patent/WO2005002217A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs

Definitions

  • the present invention relates to a recording apparatus, a method, and a program, and more particularly, to a recording apparatus, a method, and a program for executing so-called post-recording processing.
  • the read sound or image While reading the recorded sound or image, the read sound or image is played back, and another sound or other image synchronized with the played sound or image is recorded. It is used in the field of video production such as movies and broadcasts.
  • the dubbing process may not be able to be executed due to the limitation of the recording or reading bit rate of the recording medium.
  • a storage unit for storing a video signal or an audio signal is required in some cases. Disclosure of the invention
  • the present invention has been made in view of such a situation, and the bit rate of reading from or recording on a recording medium is recorded on a recording medium.
  • Another object of the present invention is to enable post-recording processing to be performed even when the bit rate of data to be recorded is high. Furthermore, it is possible to execute post-recording processing without providing storage means.
  • the first recording device of the present invention is a reading control unit that controls reading of low-resolution data having the same content as at least one of first image data and first audio data recorded on a recording medium, Recording control means for controlling recording of second image data or second audio data synchronized with at least one of the first image data and the first audio data on a recording medium. .
  • the reading control means controls reading of low-resolution image data having the same content as the first image data and low-resolution data in which low-resolution audio data having the same content as the first audio data are multiplexed. You can do so.
  • the recording control means controls the recording so that the second image data is recorded in the first file in which the image data is arranged collectively, or the second audio data is arranged together with the audio data. Records can be controlled to be recorded in a second file that has been recorded.
  • the recording medium can be an optical disc.
  • the recording medium can be a semiconductor memory.
  • a first recording method includes a reading control step of controlling reading of low-resolution data having the same content as at least one of first image data and first audio data recorded on a recording medium.
  • the first program according to the present invention is a computer-readable storage medium having read control for controlling reading of low-resolution data having the same content as at least one of first image data and first audio data recorded on a recording medium. And a recording control step of controlling recording of the second image data or the second audio data in synchronization with at least one of the first image data and the first audio data on the recording medium. And features.
  • the second recording apparatus of the present invention includes: a read control unit that controls reading of the first image data and the low-resolution image data; and a control unit that controls recording of the second image data in synchronization with the first image data. And recording control means for performing the recording.
  • the read control means controls reading of low-resolution data in which low-resolution image data having the same content as the first image data and low-resolution audio data having the same content as the audio data are multiplexed. Can be.
  • the recording control means can control the recording so that the second image data is recorded in a file in which the image data is collectively arranged.
  • the recording medium can be an optical disc.
  • the recording medium can be a semiconductor memory.
  • a second recording method includes: a read control step of controlling reading of the first image data and the low-resolution image data; and controlling the recording of the second image data in synchronization with the first image data. Recording control step.
  • a second program includes: a read control step for controlling reading of the first image data and the low-resolution image data; and a second image synchronized with the first image data. And a recording control step of controlling data recording.
  • the third recording device of the present invention includes: a read control unit that controls reading of the first audio data and the low-resolution audio data; and a recording control unit that controls recording of the second audio data in synchronization with the first audio data. And recording control means for performing the recording.
  • the read control means controls reading of low-resolution data in which low-resolution audio data having the same content as the first audio data and low-resolution image data having the same content as the image data are multiplexed. Can be.
  • the recording control means can control the recording so that the second audio data is recorded in a file in which the audio data is collectively arranged.
  • the recording medium can be an optical disc.
  • the recording medium can be a semiconductor memory.
  • a third recording method includes: a read control step for controlling reading of the first audio data and the low-resolution audio data; and a control of recording of the second audio data in synchronization with the first audio data. Recording control step.
  • a third program includes: a read control step for controlling reading of the first audio data and the low-resolution audio data; and a second audio data synchronizing with the first audio data. And a recording control step of controlling recording.
  • low-resolution data having the same content as at least one of first image data and first audio data recorded on a recording medium is read out, Second image data or second audio data synchronized with at least one of the first image data and the first audio data is recorded on the recording medium.
  • reading of the first image data and the low-resolution image data is controlled, and the reading of the second image data is synchronized with the first image data. Recording is controlled.
  • reading of the first audio data and the low-resolution audio data is controlled, and the reading of the second audio data is synchronized with the first audio data. Recording is controlled.
  • the recording device may be an independent device or a block that performs a recording process of a recording / reproducing device.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of an AV network system to which the present invention is applied.
  • FIG. 2 is a diagram showing a standard AV multiplex format.
  • FIG. 3 is a diagram showing an AV independent format. 04 008403
  • FIG. 4 is a diagram showing an AV independent format.
  • FIG. 5 is a diagram showing an AV independent format.
  • FIG. 6 is a diagram showing an AV independent format.
  • FIG. 7 is a block diagram illustrating a configuration example of the format conversion unit.
  • FIG. 8 is a block diagram illustrating a configuration example of the standard / independent conversion unit.
  • FIG. 9 is a block diagram illustrating a configuration example of the video file generation unit.
  • FIG. 10 is a block diagram illustrating a configuration example of an audio file generation unit.
  • FIG. 11 is a flowchart illustrating the master file generation process.
  • FIG. 12 is a flowchart for explaining a metadata file generation process for each file.
  • FIG. 13 is a flowchart illustrating a metadata file generation process in units of frames.
  • FIG. 14 is a flowchart for explaining the audio file generation processing.
  • FIG. 15 is a flowchart illustrating the video file generation processing.
  • FIG. 16 is a flowchart illustrating the audio file generation processing.
  • FIG. 17 is a block diagram illustrating a configuration example of a disk drive device.
  • FIG. 18 is a block diagram illustrating a configuration example of a data conversion unit.
  • FIG. 19 is a diagram illustrating the structure of a low-resolution data file.
  • FIG. 20 is a diagram illustrating the structure of a low-resolution data file.
  • FIG. 21 is a diagram illustrating the structure of a system item.
  • FIG. 22 is a diagram showing the structure of the picture essence.
  • FIG. 23 is a diagram illustrating the data amount of a picture essence having a KLV structure.
  • FIG. 24 is a diagram showing a configuration of the sound essence.
  • FIG. 25 is a block diagram illustrating a configuration of the low-resolution data generation unit.
  • FIG. 26 is a block diagram illustrating the configuration of the video file processing unit.
  • FIG. 27 is a block diagram illustrating the configuration of the audio file processing unit.
  • FIG. 28 is a block diagram illustrating the configuration of the data synthesis unit.
  • FIG. 29 is a flowchart illustrating processing of a video file.
  • FIG. 30 is a flowchart illustrating processing of an audio file.
  • FIG. 31 is a flowchart illustrating processing of a metadata file.
  • FIG. 32 is a flowchart illustrating the low-resolution file synthesizing process.
  • FIG. 33 is a flowchart illustrating a recording process performed by the control unit.
  • FIG. 34 is a flowchart illustrating the audio data recording task.
  • FIG. 35 is a diagram showing changes in the total data amount L a of audio data and the total data amount L of image data.
  • FIG. 36 is a diagram illustrating a recording state of audio data and image data on the optical disc.
  • FIG. 37 is a flowchart illustrating the image data recording task.
  • FIG. 38 is a diagram showing changes in the total data amount La of audio data and the total data amount LV of image data.
  • FIG. 39 is a flowchart illustrating the low-resolution data recording task.
  • FIG. 40 is a flowchart illustrating the metadata recording task.
  • FIG. 41 is a diagram showing the total data amount of data stored in the memory.
  • FIG. 42 is a diagram showing the total data amount of data stored in the memory.
  • FIG. 43 is a diagram showing the total data amount of data stored in the memory.
  • FIG. 44 is a diagram showing the total data amount of data stored in the memory.
  • FIG. 45 is a diagram showing the total data amount of data stored in the memory.
  • FIG. 46 is a diagram showing a data recording state on the optical disc.
  • FIG. 47 is a diagram showing a data recording state on the optical disc.
  • FIG. 48 is a diagram illustrating data recorded on an optical disc.
  • FIG. 49 is a flowchart illustrating the recording process.
  • FIG. 50 is a block diagram illustrating a configuration example of the independent / standard conversion unit.
  • FIG. 51 is a block diagram illustrating a configuration example of a video file processing unit.
  • FIG. 52 is a block diagram illustrating a configuration example of an audio file processing unit.
  • FIG. 53 is a block diagram illustrating a configuration example of a data synthesis unit.
  • FIG. 54 is a flowchart illustrating the metadata file processing.
  • FIG. 55 is a flowchart for explaining the audio file processing.
  • FIG. 56 is a flowchart for explaining the video file processing.
  • FIG. 57 is a flowchart for explaining the audio file process.
  • FIG. 58 is a flowchart for explaining the combining process.
  • FIG. 59 is a diagram for explaining the after-recording process of the disk device.
  • FIG. 60 is a flowchart for explaining the post-recording process for recording audio data.
  • FIG. 61 is a flowchart for explaining the after-recording process for recording video data.
  • FIG. 62 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.
  • Fig. 1 shows an AV network system to which the present invention is applied (a system is a logical collection of multiple devices, regardless of whether or not the devices of each configuration are in the same housing). 1 illustrates a configuration example of an embodiment.
  • the disk unit 1 includes a disk drive unit 11, a format conversion unit 12, and a communication I / F 13, and receives an AV data file transmitted via the network 4, and stores the file on the optical disk 7. It records and reads the AV data file recorded on the optical disc 7 and transmits it via the network 4.
  • the optical disk 7 can be attached to and detached from the disk drive device 11.
  • the disk drive device 11 drives the optical disk 7 mounted on the disk drive device 11 to record (write) an AV independent format file, which will be described later, supplied from the format conversion unit 12 on the optical disk 7, and , An AV independent format file is read from the optical disc 7 and supplied to the format conversion unit 12.
  • the format conversion unit 12 converts the AV independent format file supplied from the disk drive device 11 into a standard AV multiplex format file, and supplies it to the communication I / F 13.
  • the format converter 12 converts the standard AV multiplex format file supplied from the communication I / F 13 into an AV independent format file and supplies the file to the disk drive device 11.
  • MXF Serial eXchange Format
  • MXF is a format that takes into account streaming, in addition to exchanging files between broadcasting devices of different models and manufacturers, for example.
  • Video data and audio data are multiplexed in fine units such as frames.
  • the communication I / F 13 is, for example, an IEEE (Institute of Electrical and Electronics Engineers) 1394 port, a USB (Universal Serial Bus) port, a NIC (Network Interface Card) for LAN (Local Area Network) connection. Or analog modem, TA (Terminal Adapter) and DSU (Digital Service Unit),
  • the communication I / F 13 transmits the standard AV multiplex format file supplied from the format conversion unit 12 via the network 4, and transmits the standard AV multiplex file transmitted via the network 4. It receives the format file and supplies it to the format converter 12.
  • ADSL Asymmetric Digital Subscriber Line
  • the communication I / F 13 receives the standard AV multiplex format file transmitted via the network 4 and supplies the file to the format conversion unit 12.
  • the format converter 12 converts the standard AV multiplex format file from the communication I / F 13 into an AV independent format file and supplies the file to the disk drive device 11.
  • disk drive device 1 1 records the file of the AV independent format from the format conversion unit 12 on the optical disk 7 mounted thereon.
  • the disk drive device 11 reads an AV independent format file from the optical disk 7 mounted on the disk device 11 and supplies the file to the format conversion unit 12.
  • the format conversion unit 12 converts an AV independent format file from the disk drive unit 11 into a standard AV multiplex format file and supplies the file to the communication I / F 13. Then, the communication I / F 13 transmits the standard AV multiplex format file from the format converter 12 via the network 4.
  • the file of the standard AV multiplex format is, for example, a file conforming to the MXF standard, and includes a header, a body, and a footer. Since a file in the standard AV multiplex format is a file conforming to the MXF standard, video data and audio data, which are AV data, are multiplexed on a frame by frame, for example. Are located.
  • the AV devices 5 and 6 connected to the network 4 are devices compliant with the MXF standard that can handle files compliant with the MXF standard.
  • a file in the standard AV multiplex format can be transmitted to the disk device 1 via the network 4.
  • the AV devices 5 and 6 can receive the standard AV multiplex format file transmitted from the disk device 1 via the network 4. That is, file exchange of standard AV multiplex format files can be performed between the disk device 1 and the AV devices 5 and 6 via the network 4. Further, the AV devices 5 and 6 can perform various processes such as streaming reproduction on the received standard AV multiplex format file.
  • devices conforming to the current MXF standard such as AV devices 5 and 6, are hereinafter referred to as standard devices as appropriate.
  • files in the AV independent format are Like the standard file, it consists of a header, body, and footer, but the format of the body is different from the standard AV multiplex format. That is, in the AV independent format file, the video data and the audio data are separate files.
  • a video file which is a video data file, has a header and footer in the same format as a standard AV multiplex format file, but the video data is collectively arranged in its body.
  • An audio file which is a file of audio data, also has a header and a footer in the same format as a file of the standard AV multiplex format, but the audio data is collectively arranged in the body.
  • a video file or an audio file in the AV independent format is transmitted from the disk device 1 to the AV device 5 or 6, the standard AV device 5 or 6 supports the AV independent format.
  • Video and audio data placed in the body of the AV-independent video file or audio file unless they have been used, but the AV-independent format video or audio file itself cannot be used. it can. That is, a video file and an audio file in the AV independent format are composed of a header, a pod, and a footer, similarly to the file of the standard AV multiplex format, and have the same header and footer as the file of the standard AV multiplex format.
  • video and audio files in AV independent format are equivalent to standard AV format files unless the “contents” of the body (data placed in the body) are referenced. (The file conforms to the standard AV format.) Therefore, even if the AV devices 5 and 6 which are standard devices do not support the AV independent format, video files and audio files in the AV independent format can be handled.
  • a file in the AV independent format is equivalent to a file in the standard AV multiplex format unless the "content" of the body is referred to.
  • a file in the AV independent format is a standard AV multiplex file. It can be said that it is compatible with the format file.
  • the optical disk 7 can be attached to and detached from the disk device 2.
  • the disk device 2 is, for example, a standard device, like the AV devices 5 and 6, and reads a video file and an audio file in an AV independent format from the optical disk 7 mounted thereon, and supplies them to the editing device 3. That is, as described above, a video file and an audio file in the AV independent format are equivalent to a file in the standard AV multiplex format unless the "contents" of the body are referred to. A video file and an audio file in the AV independent format can be read from the optical disc 7. '
  • the editing device 3 is a device which can handle files in the AV independent format and which supports the AV independent format.
  • the editing device 3 is used for AV independent format video files and audio files supplied from the disk device 2. It performs vertical editing and supplies the resulting video file and audio file in AV independent format to the disk device 2.
  • the disk device 2 records the video file and the audio file of the AV independent format supplied from the editing device 3 on the optical disk 7 mounted thereon.
  • a video file and an audio file in the AV independent format are equivalent to a file in the standard AV multiplex format unless the "contents" of the body are referred to.
  • the optical disc 7 can record video files and audio files in the AV independent format.
  • video data and audio data are multiplexed and arranged in, for example, one frame unit
  • a video file in an AV-independent format Since data and audio data are arranged together, editing such as AV independent editing can be performed easily.
  • the file of the AV independent format has the same format header and footer as the file of the standard AV multiplex format, it is compatible with the file of the standard AV multiplex format unless referring to the “contents” of the body. This allows it to be handled by standard equipment.
  • FIG. 2 shows an example of a standard AV multiplex format.
  • the video data and audio data arranged in the body are video data coded by the Moving Picture Experts Group (MPEG) IMX method called D10 and the AES (Audio Engineering Society) 3) It shows the standard AV multiplex format when each of the uncompressed audio data is adopted.
  • MPEG Moving Picture Experts Group
  • AES Anaudio Engineering Society
  • video data and audio data in various formats such as DV (Digital Video) can be arranged in the pod.
  • DV Digital Video
  • a file in the standard AV multiplex format has a header (File
  • the header from the beginning, Heddano Teishiyon'no ⁇ 0 click (Header Partition Pack) N header metadata (Header Metadata), index tape Honoré (Index Table) are sequentially arranged.
  • the header partition pack data for specifying the header, the format of the data placed in the body, and information indicating the file format are placed.
  • the header metadata for example, metadata on a file basis such as a file creation date and information on data arranged in the body are arranged.
  • index table a table indicating the position of an edit unit described later, which is arranged on the body, is arranged.
  • the metadata includes a time code attached to each frame of the video file, a UMID (Unique Material Identifier), and a GPS (Global Position Information) indicating a position at which an image is captured by a video camera.
  • Information of the Positioning System the date and time (year, month, day, hour, minute, second) when the image was taken, ARIB (Association of
  • ARIB metadata is metadata standardized by ARIB and superimposed on standard communication interfaces such as SDI (Serial Digital Interface).
  • the setting / control information of the video camera includes, for example, IRIS (iris) control values, white balance / black balance modes, and lens information regarding lens zoom and focus.
  • the index table is optional, and may or may not be included in the header.
  • data of various options other than the index table can be arranged.
  • information indicating a file format arranged in the header partition pack information indicating a standard AV multiplex format is adopted in a file in a standard AV multiplex format, but information independent of an AV in a file in an AV independent format is used. Information indicating the format is adopted. However, the format of the header partition pack itself is the same in the standard AV multiplex format and the AV independent format.
  • the footer is composed of a footer partition pack, and data for specifying the footer is arranged in the footer partition pack.
  • the body is composed of one or more Edit Units.
  • An edit unit is a unit of one frame, in which AV data for one frame and others are arranged.
  • the edit unit consists of a system item (Sytera Item), a picture item (Picture Item), and a sound item (Sound Item).
  • Sytera Item a system item
  • Picture Item a picture item
  • Sound Item a sound item
  • Metadata for frames of video data to be placed in the subsequent picture item is placed.
  • the metadata in units of frames includes, for example, a time code.
  • One frame of video data is arranged in the picture item.
  • the above-described D10 format video data is arranged.
  • the picture item contains one frame of video data
  • KLV-coded It is KLV-coded and arranged in KLV (Key, Length, Value) structure.
  • the KLV structure starts with the key, key, length, value
  • (Value) is arranged sequentially, and a 16-byte label compliant with the SMPTE 298M standard, which indicates what data is arranged in the value, is arranged in the key. .
  • the length the data length of the data allocated in the value is allocated. Actual data, that is, here, one frame of video data is placed in the result.
  • the picture item has a fixed data length based on the KAG (KLV Alignment Grid). Then, to make the picture item have a fixed length, a filler as data for stuffing is formed into a KLV structure, and is arranged after the video data of the picture item.
  • KAG KLV Alignment Grid
  • the fixed length based on the KAG which is the data length of the picture item
  • the KAG which is the data length of the picture item
  • the so-called affinity between the optical disc 7 and the picture item is improved, so that the speed of reading and writing the picture item from / to the optical disc 7 can be increased.
  • the system items described above, as well as the sound items and audio items described below, have a KLV structure and have a fixed data length based on the KAG. Has become.
  • the sound item contains the frame of the video data placed in the picture item.
  • One frame of audio data in the system is arranged in the KLV structure as in the case of the picture item described above.
  • a plurality of, for example, eight channels of audio data are multiplexed and arranged.
  • the value of the KLV structure starts with the element header EH (Element Header), audio sample count, etc.
  • ASC Audio Sample Count
  • SVF Stream Valid Flags
  • multiplexed 8-channel audio data are sequentially arranged.
  • the 8-channel audio data is such that the audio data samples are arranged in the following order: the first sample of the audio data of each of the 8 channels in one frame, the second sample, and so on. Are multiplexed.
  • the numbers in parentheses indicate the number of audio data samples.
  • Stream Nord Flag SVF is an 8-bit (1 byte) flag. Each bit indicates whether the audio data of the channel corresponding to that bit is valid or invalid. That is, each bit of the stream valid flag SVF is set to, for example, 1 when the audio data of the channel corresponding to the bit is valid, and set to, for example, 0 when the audio data of the channel is invalid.
  • the required user data is placed in the remote item. Therefore, the order item is an area where the user can place any data.
  • a sound item in which one audio data is arranged and an audio item in which user data is arranged are multiplexed in units of one frame.
  • audio data of eight channels is multiplexed in units of one sample. It has been
  • AV multiplex format can be said to be suitable for streaming.
  • the standard AV format is suitable for streaming because video data and audio data are multiplexed in frame units.
  • metadata for each file is also scattered in the edit unit system items, and is difficult to handle when editing.
  • AES3 format which can be used in the standard AV format, at least 4 bytes are allocated to one sample of audio data, and the overall size of the file becomes large.
  • FIG. 3 shows an example of the AV independent format.
  • video data, audio data, metadata in file units, and user data that are multiplexed in the standard AV multiplex format are files that are all placed together.
  • a video file is constructed by adding a header and hooks of the same format as the standard AV multiplex format to the body.
  • the size of the entire pod is also an integral multiple of the sector length of the optical disc 7. It has become.
  • the pod of the video file in M-independent format has a size that allows for sector alignment.
  • the size of the entire body of the video file is an integral multiple of the ECC block length of the optical disc 7.
  • the last filer of the body is designed so that the size of the entire body of the video disk is an integral multiple of the ECC (Error Correction Code) block length of the optical disk 7. Its size has been adjusted.
  • the ECC block is a unit for performing ECC processing, which is a unit for reading and writing on the optical disc 7.
  • the sector is an example of a physical unit area of the optical disk 7
  • the ECC block is an example of a unit for reading and writing the optical disk 7.
  • the physical unit area of the optical disc 7 can be, for example, a plurality of fixed numbers of sectors.
  • the unit for reading and writing the optical disk 7 can be, for example, a fixed number of physical unit areas.
  • the ECC processing is performed, for example, by a signal processing unit 115 described later in units of ECC blocks.
  • An ECC block can consist of one or more sectors.
  • one sector as a physical unit area of the optical disk 7 and one ECC block as a unit for reading and writing composed of one or more sectors.
  • the index table is shown in the header of the standard AV multiplex format file, but in MXF, as described above, the index table is optional, and in the video file in Fig. 3, ( The same applies to audio files described later), but no index table is used.
  • the AV independent format separates the multiplexed eight-channel audio data, which is arranged in the sound item in the standard AV multiplex format, into audio data for each channel, from AES 3 format to WAVE format.
  • the result is placed in the body of the file for each channel in the KLV structure, and a header and footer in the same format as the standard AV multiplex format are added to the body to form an audio file.
  • the audio file of each channel is independently configured for eight channels of audio data.
  • the audio data of that channel is converted to VE format and the KLV structure is put together in the body, and the body has a header and footer in the same format as the standard AV multiplex format. Is added.
  • a KLV structure in which WAVE format audio data of a certain channel is put together is arranged.
  • the length is not always an integral multiple of the ECC block length of the optical disc 7. Therefore, a KLV-structured filler is placed after the KLV-structured audio data in the body of an AV-independent format audio file, and a filler is placed after the header and footer.
  • the metadata in the file unit arranged in the header metadata is arranged in a file unit.
  • an audio file in which the audio items in which the user data is arranged in the standard AV multiplex format is arranged collectively.
  • video files and 8 channels An audio file, a metadata file in units of files / files, a metadata file in units of frames, and a master file in which pointers to each of the audio files are described.
  • the master file is described in, for example, XML (Extensible Markup Language), and includes a video file, audio files for each of the eight channels, metadata file for each file, and metadata file for each frame.
  • XML Extensible Markup Language
  • the file name of each file is described as a pointer to each file.
  • the master file can refer to the video file, the audio files for each of the eight channels, the metadata file for each file, the metadata file for each frame, and the audio file.
  • an auxiliary file can be an optional file.
  • the metadata file for each file, the metadata file for each frame, and the auxiliary file do not have a header and footer in the same format as the standard AV multiplex format.
  • the metadata file, frame-by-frame metadata file, and auxiliary file can also be configured by adding a header and footer in the same format as the standard AV multiplex format.
  • a minimum set of metadata for each file is arranged in the header metadata constituting the header of the video file and the audio file in the AV independent format.
  • the AV independent format there is a file-by-file metadata file in which the metadata in the file unit arranged in the header metadata in the standard AV multiplex format is collectively arranged, and is arranged in the metadata file. It is redundant to place the metadata of each file in the header metadata that constitutes the header of the video file / audio and the audio file / ray, and the size of the entire file in the AV independent format is redundant. Will be great. 4 008403
  • the header metadata is an essential item in the header, and if the header is configured without any header metadata, the header will have the same format as the standard AV multiplex format. Will be lost.
  • the MXF there are various items in the file-based metadata to be placed in the header metadata, and some items are required and some are optional.
  • the header metadata that constitutes the header of the video file and the audio file in the AV independent format is used. Indicates the minimum set of file-based metadata, that is, only the metadata of items that must be placed in the header metadata in the MXF.
  • the video data is arranged together in the video file, and the audio data of each channel is arranged together in the audio file of the channel, so that the video data and the audio data are combined. Edits such as AV independent editing, in which each is edited separately, can be easily performed.
  • the audio data is in the WAVE format
  • the data amount can be reduced as compared to the case where the AES3 format audio data is adopted as in the standard AV independent format.
  • the storage capacity required for the recording should be reduced as compared with recording a file in the standard AV multiplex format. Can be.
  • the video and audio files in the AV independent format are composed of a header, a body, and a footer from the beginning in the same manner as the files in the standard AV multiplex format, and the header and the footer are arranged in the standard AV multiplex format. Since it is of the same format, the video and audio files of the AV independent format are recorded on the removable optical disk 7 in the disk device 1.
  • the optical disk 7 is mounted on the disk device 2, if the disk device 2 is a standard device (a device capable of processing MXF files), the optical disk 7 can be used to output video files and AV-independent formats. Audio files can be read.
  • the metadata for each file and the metadata for each frame are separately grouped, and each is a single file, which facilitates a search process using the metadata. .
  • FIGS. 4 and 5 are diagrams illustrating the data amount of a video file in the AV independent format.
  • a filler is placed after the header of the video file in the AV independent format, and the size of the entire header is set to an integral multiple of the ECC block length of the optical disc 7.
  • the video file is written to the optical disk 7 such that the boundaries of the video file header coincide with the boundaries of the ECC block of the optical disk 7. '
  • a filler is placed after the footer of the video file, and the size of the entire footer is set to an integral multiple of the ECC block length of the optical disc 7.
  • the video file is written to the optical disc 7 such that the footer boundary of the video file coincides with the ECC block boundary of the optical disc 7.
  • the size of the entire body of the video file is set to an integral multiple of the ECC block length of the optical disk 7, and the video file is written to the optical disk 7 so that the boundary of the body matches the boundary of the ECC block of the optical disk 7. . Further, each picture item of the body and the filler behind it are integral multiples of the sector length of the optical disc 7. The video file is written to the optical disc 7 such that the front boundary of the picture item coincides with the sector boundary, and the rear boundary of the filer attached to the picture item coincides with the sector boundary.
  • the size of the last filler of the body is adjusted so that the size of the whole body is an integral multiple of the ECC block length of the optical disc 7. If a video file is written to optical disc 7, the last picture of the body The rear boundary of the filler attached to the key item coincides with the boundary of the ECC block.
  • FIG. 6 is a diagram illustrating the data amount of an audio file in the AV independent format.
  • the filer has the size so that the key and length of the audio file header and the body of the KLV-structured audio data are an integral multiple of the ECC block length of the optical disk 7. Is adjusted.
  • the audio file is written on the optical disk 7 such that the front boundary of the header of the audio file matches the boundary of the ECC block on the optical disk 7.
  • the audio file is written on the optical disc 7 such that the boundary on the rear side of the length matches the boundary of the ECC block on the optical disc 7.
  • the size of the audio data value of the KLV structure of the body and the size of the filler of the KLV structure added to the body are set to an integral multiple of the ECC block length of the optical disk 7.
  • the audio file is written to the optical disc 7 such that the rear boundary of the body matches the boundary of the ECC block of the optical disc 7.
  • a filler is placed after the footer of the audio file, and the size of the entire footer is set to an integral multiple of the ECC block length of the optical disc 7.
  • the audio file is written on the optical disc 7 such that the boundary before and after the footer of the audio file matches the boundary of the ECC block of the optical disc 7.
  • FIG. 7 illustrates a configuration example of the format conversion unit 12 included in the disk device 1 of FIG.
  • the format conversion unit 12 includes a standard independent conversion unit 21 and an independent / standard conversion unit 22.
  • the standard / independent conversion unit 21 converts the standard AV multiplex format file of FIG. 2 supplied from the communication I / F 13 into the AV independent format file of FIG. 3 and supplies it to the disk drive unit 11 I do.
  • the independent Z-standard converter 22 converts the AV independent format file shown in Fig. 3 supplied from the disk drive 11 into a standard AV multiplex format file shown in Fig. 2, and converts it into the communication I / F 13. Supply.
  • FIG. 8 shows a configuration example of the standard / independent conversion unit 21 of FIG.
  • the buffer 31 is supplied with a standard AV multiplex format file from the communication I / F 13.
  • the buffer 31 temporarily stores the standard AV multiplex format file supplied thereto.
  • the master file generation unit 32 When the standard AV multiplex format file is stored in the buffer 31, the master file generation unit 32 generates an AV independent format master file for the standard AV multiplex format file, and supplies the master file to the buffer 44. .
  • the header acquisition unit 33 acquires the header by extracting the header from the standard AV multiplex format file stored in the buffer 31, and supplies the header to the header metadata extraction unit 35.
  • the pod obtaining unit 34 obtains the body by extracting the body from the standard AV multiplex format file stored in the buffer 31, and obtains the body by the system item processing unit 36 and the auxiliary item extracting unit 38. , The picture 'item extraction unit 40 and the sound item extraction unit 42.
  • the header metadata extraction unit 35 extracts header metadata from the header supplied from the header acquisition unit 33, and converts the metadata for each file arranged in the header metadata into a metadata file generation unit 37.
  • the system item processing unit 36 extracts a system item in which the metadata of each frame is arranged from each edit unit of the body supplied from the body acquisition unit 34, and sends the extracted system item to the metadata generation unit 37.
  • the metadata file generation unit 37 generates a file-based metadata file in which the file-based metadata supplied from the header metadata extraction unit 35 is arranged, and the system file processing unit 36 A metadata file is generated for each frame in which the supplied system items of each edit are arranged (sequentially), and the metadata file for each file and each frame is supplied to the buffer 44.
  • the audio item extraction unit 38 extracts an image in which user data in frames is arranged from each edit unit of the body supplied from the body acquisition unit 34.
  • the unique items are extracted and supplied to the original file generating unit 39.
  • the audio file generation unit 39 generates an audio file in which the audio item of each edit supplied from the audio item extraction unit 38 is arranged and supplied to the buffer 44. I do.
  • the picture item extraction unit 40 extracts a picture item in which video data in units of frames is arranged from each edit edit of the body supplied from the body acquisition unit 34, and supplies the picture item to the video file generation unit 41. .
  • the video file generation section 41 collectively arranges the picture items of each edit sent from the picture item extraction section 40 in a body, and furthermore, in the body, has the same format as the standard AV multiplex format file. Generates a video file with a header and footer and supplies it to buffer 44.
  • the sound item extraction unit 42 extracts a sound item in which audio data of each frame is arranged from each edit edit of the body supplied from the body acquisition unit 34, and supplies the sound item to the audio file generation unit 43. I do.
  • the audio file generation unit 43 collectively arranges the audio data of each channel arranged in the sound item of each edit supplied from the sound item extraction unit 42 for each channel, and arranges the data in the body. Further, an audio file for each channel is added to the body with a header and a footer of the same format as the file of the standard AV multiplex format, and supplied to the buffer 44.
  • the buffers 4 4 store the master file supplied from the master file generating unit 32, the metadata file for each file and the frame supplied from the metadata file generating unit 37, and the source file generating unit 3. 9 temporarily stores the audio file supplied from the video file generator 41, the video file supplied from the video file generator 41, and the audio file for each channel supplied from the audio file generator 43. Is supplied to the disk drive device 11 as an AV independent format file.
  • FIG. 9 shows a configuration example of the video file generation unit 41 of FIG.
  • the picture item of each edit unit supplied from the picture item extracting unit 40 is supplied to the combining unit 51.
  • the combining unit 51 sequentially combines (concatenates) the picture items of the respective edits supplied thereto and supplies them to the footer generating unit 52.
  • the footer generation unit 52 is a footer having the same format as the standard AV multiplex format file, which is added from the combination of the picture items of each edit unit and supplied to the body as a body, supplied from the combining unit 51. Generate The footer generator 52 supplies the footer and the body to the header generator 53.
  • the header generation unit 53 generates a header to be added to the footer and body supplied from the footer generation unit 52.
  • the header generator 53 supplies the header, body, and footer to the filer generator 54.
  • the filler generation unit 54 generates a filer to be added to the header and a filer to be added to the footer. Further, the filler generation unit 54 generates the last filler of the body.
  • the KLV encoder 55 of the filler generation unit 54 encodes the last filler of the body into a KLV structure.
  • the filler generation unit 54 constructs and outputs an AV independent format video file including a header, a body, and a footer to which a filler has been added.
  • the data amount of the header, body, or footer can be reduced to an integral multiple of the ECC block length of the optical disc 7. Adjusted. By doing so, when a video file is written to the optical disc 7, a header, a body, or a footer is prevented from being recorded in a part of the ECC block, and reading and writing of the video file can be performed more efficiently.
  • each of the header, pod, and footer is an integral multiple of the ECC block length of the optical disc 7 if the boundaries of the header, body, and footer are recorded so as to match the boundaries of the ECC block, only the header is recorded.
  • Body only, or footer only when writing to or reading from the least number of ECC blocks or reading from the least number of ECC blocks, the header, body, Alternatively, the footer can be written or read. That is, the process of reading and writing a video file from / to the optical disk 7 can be performed more efficiently.
  • FIG. 10 shows a configuration example of the audio file generation unit 43 of FIG.
  • the sound item of each edit unit supplied from the sound item extraction unit 42 is supplied to the KLV decoder 61.
  • the KLV decoder 61 decomposes the KLV structure of the audio data arranged in the sound item of each edit, and obtains the resulting audio data in which eight channels are multiplexed (hereinafter referred to as multiplexed audio data as appropriate). )
  • the channel separation unit 62 separates the audio data of each channel from the multiplexed audio data of each sound item supplied from the KLV decoder 61, and separates the audio data of each channel for each channel.
  • the data is supplied to the data converter 63 in a lump. '
  • the data conversion unit 63 converts the encoding method of the audio data of each channel supplied from the channel separation unit 62. That is, in the standard AV multiplex format, audio data is encoded in the AES3 format, but in the AV independent format, audio data is encoded in the WAVE format. For this reason, the data conversion unit 63 converts the audio data (AES3 audio data) encoded by the AES3 system supplied from the channel separation unit 62 into audio data (WAVE encoded by the WAVE system). Format audio data).
  • the data converter 63 converts AES 3 audio data into WAVE audio data.
  • the data converter 63 converts audio data other than WAVE audio data. It is possible to convert to That is, the conversion of the audio data in the data conversion unit 63 is performed for the purpose of suppressing the data amount of the audio data of the AES3 system, and if the encoding system can achieve the purpose, In the data converter 63, Any coding method may be adopted.
  • the audio file generation unit 43 can be configured without the data conversion unit 63.
  • the audio data for each channel of the WAVE system obtained by the data converter 63 is supplied to the KLV encoder 64.
  • the 10-encoder 64 performs KLV coding on each of the audio data supplied for each channel from the data conversion unit 63 into a KLV structure, and supplies the KLV structure to the header generation unit 65.
  • the header generation unit 65 generates, as a body, the audio data of each channel supplied from the KLV encoder 64 as a body, generates a header in the same format as the standard AV multiplex format file to be added to the body of each channel, and generates the body. And the header are supplied to the footer generator 66.
  • the footer generator 66 generates a footer to be added to the body and having the same format as a file in the standard AV multiplex format.
  • the footer generation unit 66 supplies the header, the footer, and the body to the filer generation unit 67.
  • the filler generation unit 67 generates a filer to be added to the header, a filer to be added to the body, and a filer to be added to the footer.
  • the filler generation unit 67 determines that the data amount of the header added to the header and the KLV encoder 64 is an integral multiple of the data amount of the ECC block. Then, a filler is generated, and the generated filler is added after the header. Further, as shown in FIG. 6, the filler generation unit 67 generates a filler so that the data amount of the hook becomes an integral multiple of the data amount of the ECC block, and the generated filler is footered. Append after.
  • the KLV encoder 68 of the filler generation unit 67 encodes a filer to be added to the body into a KLV structure. As shown in FIG. 6, the filler generation unit 67 generates the filler encoded in the KLV structure so that the data amount of the audio data becomes an integral multiple of the data amount of the ECC block, and generates the filler. The added filler is added after the audio data. Note that the KLV encoder 64 and the header generation unit 65 constitute a head data generation unit 71.
  • the key and the length added to the header and the KLV encoder 64 in the audio file can be obtained.
  • the data amount of the audio data and the footer is adjusted to an integral multiple of the ECC block length of the optical disk 7.
  • the key and length, audio data, and footer added to the header and the KLV encoder 64 are each an integral multiple of the ECC block length of the optical disk 7, the key and length added to the header and the KLV encoder 64 are If the boundaries of the, audio data, or footer are recorded so that they match the boundaries of the ECC block, only the key and length added to the header and KLV encoder 64, only the audio data, or only the footer are written.
  • the key and length, audio data, or footer added to the header and KLV encoder 64 Write power ⁇ or can be read It made. That is, the process of reading and writing an audio file to and from the optical disk 7 can be performed more efficiently.
  • the standard / independent conversion unit 21 in FIG. 8 generates a master file as a file in the AV independent format, and generates a metadata file for each of the file unit and the file unit.
  • a data file generation process, an audio file generation process for generating an audio file, a video file generation process for generating a video file, and an audio file generation process for generating an audio file are performed. Therefore, referring to the flowcharts of FIGS. 11 to 13, a master file generation process, a metadata file generation process, an auxiliary file generation process, a video file generation process, and an audio file generation process performed by the standard / independent conversion unit 21 are described. The processing will be described.
  • step S1 the master file generation unit 3
  • step 2 the file names of the metadata file, the audio file, the video file, and the audio file of each channel are generated for each file and each frame, and the process proceeds to step S2.
  • step S2 the master file generation unit 32 generates a master file described in XML, stores the link to the file of each file name generated in step S1 in the buffer 44, and stores it in the buffer 44.
  • the master file generation processing ends.
  • a file-based metadata file generation process for generating a file-based metadata file will be described with reference to the flowchart in FIG.
  • step S11 when a file in the standard AV format is supplied and stored in the buffer 31 (FIG. 8), a metadata file generation process for each file is started, and first, in step S11, The header obtaining unit 33 obtains a header from the standard AV format file stored in the buffer 31, supplies the header to the header metadata extracting unit 35, and proceeds to step S12.
  • step S12 the header metadata extraction unit 35 extracts the header metadata from the header supplied from the header acquisition unit 33, and generates metadata for each file placed in the header metadata in a metadata file.
  • step S13 the metadata file generation unit 37 generates a file-based metadata file in which the file-based metadata supplied from the header metadata extraction unit 35 is arranged, and supplies the metadata file to the buffer 44. And store the metadata T JP2004 / 008403
  • the data file generation process ends.
  • step S21 a metadata file generation process for each frame is started, and first, in step S21, The body obtaining unit 34 obtains the body from the standard AV multiplex format file stored in the buffer 31 and supplies it to the system item processing unit 36, and proceeds to step S22.
  • step S22 the system item processing unit 36 extracts a system item in which frame-based metadata is arranged from each edit unit of the body supplied from the body acquisition unit 34, and generates a metadata file. Supply to part 37 and go to step S23.
  • step S23 the metadata file generation unit 37 adds a filler to the system item of each edit unit supplied from the system item processing unit 36, and proceeds to step S24.
  • step S24 the metadata file generation unit 37 combines the filler-added system items to form the body of the frame-based metadata file arranged collectively for the system items of each edit. Is generated, the generated body is supplied to the buffer 44, and the process proceeds to step S25.
  • step S25 the notifier 44 outputs the pod of the metadata file, and proceeds to step S26.
  • step S26 the metadata file generation unit 37 generates a footer, and proceeds to step S27.
  • step S27 the metadata file generation unit 37 generates a footer filer, supplies the footer with the filler added to the buffer 44, and proceeds to step S28.
  • step S28 the buffer 44 outputs the footer, and proceeds to step S29.
  • step S29 the metadata file generation unit 37 generates a header, and proceeds to step S30.
  • step S27 the metadata file generation unit 3 7 generates a filler for the header, supplies the header with the filler added to the buffer 44, and proceeds to step S31.
  • step S31 the buffer 44 outputs the header, and ends the metadata file generation processing in frame units.
  • step S41 the body file is generated.
  • the obtaining unit 34 obtains the body from the standard AV multiplex format file stored in the buffer 31 and supplies it to the auxiliary item extracting unit 38, and the process proceeds to step S42.
  • step S42 the auxiliary item extraction unit 38 extracts an auxiliary item from each edit of the body supplied from the body acquisition unit 34, and supplies it to the auxiliary file generation unit 39.
  • step S43 the audio file generation unit 39 combines the audio items of each edit unit supplied from the audio item extraction unit 38 to form a model for each of the edit units.
  • An audio file is generated by arranging the audio items collectively, supplied to the buffer 44 and stored therein, and the audio file generation process ends.
  • a video file generation process for generating a video end file will be described with reference to the flowchart in FIG.
  • step S51 the body obtaining unit 34 Acquires the body from the standard AV multiplex format file stored in the buffer 31, supplies the body to the picture item extraction unit 40, and proceeds to step S52.
  • step S 5 2 picture item extracting unit 4 0 extracts each edit unit Karapi puncturing items of the body supplied from the body acquiring unit 3 4 is supplied to the video file generating unit 4 1, Step S 5 Proceed to 3.
  • step S53 the video file generation unit 41 (FIG.
  • the combining unit 51 combines the picture items of each of the edits supplied from the picture item extracting unit 40 to generate a body in which the picture items of each of the edits are collectively arranged. Proceed to 5 4.
  • the video file generation unit 41 determines whether or not the combined picture item is the last picture item. If it is determined that the combined picture item is not the last picture item, the process proceeds to step S55. The process proceeds to output the generated body to the buffer 44, returns to step S52, and repeats the above processing. In this case, the footer generator 52, the header generator 53, and the filer generator 54 pass the body as it is.
  • step S54 If it is determined in step S54 that the item is the last picture item, the process proceeds to step S56, where the video file generation unit 41 (FIG. 9) converts the filler generation unit 54 into a KLV structure. At this time, a filer of the last picture item whose data amount is adjusted so that the data amount of the body becomes an integral multiple of the ECC block is generated, and the process proceeds to step S57.
  • step S57 the KLV encoder 55 converts the filler of the last picture item into a KLV structure, and proceeds to step S58.
  • step S58 the video file generation unit 41 outputs the filler converted into the KLV structure as a body and outputs the body, and the process proceeds to step S59.
  • step S59 the footer generator 52 generates a two-footer, and the process proceeds to step S60.
  • step S60 the filler generation unit 54 generates a footer filter whose data amount is adjusted so that the data amount of the footer is an integral multiple of the ECC block, and proceeds to step S61.
  • step S61 the video file generation unit 41 outputs a footer, and proceeds to step S62.
  • step S62 the header generation unit 53 generates a header, and proceeds to step S63.
  • step S63 the filler generation unit 54 generates a header filler whose data amount is adjusted so that the data amount of the header is an integral multiple of the ECC block, and proceeds to step S64.
  • step S64 the video file generation unit 41 outputs the header, and ends the video file generation processing. In this way, the header is generated after the body and footer, so once processing of headers containing data that cannot be determined unless the body is determined, such as the playback time of video data or time code (TC), is performed once. It can be generated by.
  • TC time code
  • the header is generated first, the data such as the playback time of the video data or the time code (TC) is not determined until the generation of the body is completed, so it cannot be written, and when the generation of the body ends.
  • recording a video file on a recording medium such as an optical disc 7
  • extra processing for seeking the header may occur, or the data amount of the header may not be determined, so the recording of the header may not be possible. It becomes difficult to secure a necessary area, and sometimes the header is recorded on the optical disc 7 at a position distant from the body and the footer. '
  • the header is generated after the body and footer, it is possible to eliminate such duplication and generate a header containing data that cannot be determined unless the body is determined in one process. Further, when recording a video file on a recording medium such as the optical disk 7, the header can be reliably recorded following the body and the footer. -Next, the audio file generation processing for generating an audio file will be described with reference to the flowchart in FIG.
  • step S71 the body acquisition unit is started.
  • step 34 the body is obtained from the standard AV multiplex format file stored in the buffer 31 and supplied to the sound item extracting section 42, and the flow advances to step S72.
  • step S72 the sound item extraction unit 42 extracts a sound item from each of the body edits supplied from the body acquisition unit 34, supplies the sound item to the audio file generation unit 43, and Proceed to step S73.
  • step S73 the audio file generating unit 43 (FIG.
  • step S74 decomposes the KLV structure of the audio data arranged in the sound item of each edit unit in the KLV decoder 61, and obtains the resulting 8
  • the channel-multiplexed audio data (multiplexed audio data) is supplied to the channel separation unit 62, and the flow advances to step S74.
  • step S74 the channel separation unit 62 separates the AES3 format audio data of each channel from the multiplexed audio data for each sound item supplied from the KLV decoder 61, and AESI3 format audio data is collectively arranged for each channel and supplied to the data converter 63. Then, the process proceeds to step S75, where the data conversion unit 63 converts the AES3 format audio data of each channel supplied from the channel separation unit 62 into WAVE format audio data. And proceed to step S76.
  • step S76 the one encoder 64 performs the KLV coding on each of the WAVE-format audio data supplied from the data conversion unit 63 and compiled for each channel into a KLV structure. Accordingly, the KLV encoder 64 generates a body of each channel in which the audio data of the WAVE format of each channel is collectively arranged, and the process proceeds to step S77.
  • step S77 the filler generation unit 67, when the KLV structure is used, adjusts the data amount of the audio data so that the data amount becomes an integral multiple of the ECC block. Is generated, and the process proceeds to step S78.
  • step S78 each of the fillers in the body of each channel is KLV-coded into a KLV structure, and the process proceeds to step S79.
  • step S79 the audio file generation unit 43 outputs the body of each channel, and proceeds to step S80. When outputting the body of each channel, the value of audio data and the filler of KLV structure are output, and the key and length of audio data are not output.
  • step S80 the footer generator 66 generates a footer for each channel, Proceed to step S81.
  • step S81 the filler generation unit 67 generates a footer filer for each channel in which the data amount of the footer is adjusted so that the data amount of the footer is an integral multiple of the ECC block. Proceed to 2.
  • step S82 the video file generator 41 outputs the footer of each channel, and the flow advances to step S83.
  • step S83 the header generation unit 65 generates a header for each channel, and proceeds to step S84.
  • step S84 the filler generation unit 54 generates the header and filler of each channel whose data amount has been adjusted so that the key and length data amounts of the audio data are integer multiples of the ECC block.
  • step S85 the video file generator 41 outputs the header of each channel, and ends the audio file generation process.
  • step S85 the key and length of the audio data are output together with the header of each channel. '
  • the header is generated after the body and footer, so once processing of headers containing data that cannot be determined if the body is not fixed, such as the playback time of time data or time code (TC), is performed once. It can be generated by.
  • TC time code
  • FIG. 17 shows a configuration example of an embodiment of the disk drive device 11. Based on the spindle motor drive signal from the servo control section 114, the spindle motor 111 moves the optical disk 7 to CLV (Constant Linear Velocity) or
  • the pickup unit 112 controls the output of the laser beam based on the recording signal supplied from the signal processing unit 115, and records the recording signal on the optical disk 7.
  • the pickup unit 112 also focuses and irradiates the optical disc 7 with the laser light, generates a current signal by photoelectrically converting the reflected light from the optical disc 7, and generates an RF (Radio Frequency) key.
  • RF Radio Frequency
  • the RF amplifier 113 generates a focus error signal, a tracking error signal, and a reproduction signal based on the current signal from the pickup unit 112, and outputs the tracking error signal and the focus error signal to the servo control unit 110. 14 and the reproduction signal to the signal processing section 115.
  • the servo control section 114 controls the focus servo operation and the tracking servo operation. Specifically, the servo control unit 114 generates a focus servo signal and a tracking servo signal based on the focus error signal and the tracking error signal from the RF amplifier 113, respectively, and the actuator of the pickup unit 112. (Not shown). Further, the servo control unit 114 generates a spindle motor drive signal for driving the spindle motor 111, and controls a spindle servo operation for rotating the optical disk 7 at a predetermined rotation speed. '
  • the servo control unit 114 performs thread control for moving the pickup unit 112 in the radial direction of the optical disk 7 to change the irradiation position of the laser beam.
  • the signal reading position of the optical disk 7 is set by the control unit 119, and the position of the pickup unit 112 is controlled so that the signal can be read from the set reading position. .
  • the signal processing unit 115 modulates the recording data input from the memory controller 116 to generate a recording signal, and supplies the recording signal to the pickup unit 112.
  • the signal processing unit 115 also demodulates the reproduction signal from the RF amplifier 113 to generate reproduction data, and supplies the reproduction data to the memory controller 116.
  • the memory controller 116 stores the recording data from the data converter 118 as appropriate in the memory 117, reads it out, and supplies it to the signal processor 115, as described later.
  • the memory controller 116 also stores the reproduced data from the signal processing unit 115 in the memory 117 as appropriate, reads it out, and supplies it to the data conversion unit 118.
  • the data conversion unit 118 generates a low-resolution data file, which is a data in which the data amount of the data included in the AV independent format file is reduced, from the AV independent format file supplied from the format conversion unit 12. Then, the file of the low-resolution data is supplied to the memory controller 116 together with the file of the AV independent format.
  • the data conversion section 118 also supplies the format conversion section 12 with the reproduction data supplied from the memory controller 116.
  • the control unit 119 controls the servo control unit 114, the signal processing unit 115, the memory controller 116, and the data conversion unit 118 based on operation signals from the operation unit 120. Execute the recording / reproducing process.
  • the operation unit 120 is operated by a user, for example, and supplies an operation signal corresponding to the operation to the control unit 119.
  • the data supplied from the format conversion unit 12 is transmitted to the data conversion unit 1.
  • the memory controller 1 16 the signal processing section 1 15, and the pickup section 1 12 are supplied to the optical disc 7 for recording.
  • the optical disc 7 picks up the pickup unit 112, the RF amplifier 113, the signal processing unit 115, and the memory controller 111.
  • the data is read out and reproduced via 6 and the data conversion section 118 and supplied to the format conversion section 12.
  • FIG. 18 shows a configuration example of the data conversion unit 118 of FIG.
  • an AV independent format file consisting of a video file, an audio file, and a metadata file to be recorded from the format conversion unit 12 is supplied to the data amount detection unit 141.
  • the data amount detection unit 14 1 converts the video file, audio file, and metadata file supplied from the format conversion unit 12 into a memory JP2004 / 008403
  • the data amount detection unit 141 detects, for example, a data amount for a predetermined reproduction time for each of the video file and the audio file supplied from the format conversion unit 12, and supplies the data amount to the memory controller 116. I do.
  • the low-resolution data generation unit 142 generates a low-resolution data series, which is data obtained by reducing the amount of data supplied thereto, and supplies the low-resolution data series to the memory controller 116.
  • the low-resolution data generating section 142 outputs low-resolution data in a file format.
  • the low-resolution data generation unit 142 detects, for example, the data amount of the low-resolution file for a predetermined reproduction time, and supplies the low-resolution file to the memory controller 116.
  • the low-resolution data in the file format is also referred to as a low-resolution data file.
  • the video file and the audio file supplied to the memory controller 116 are supplied to the optical disk 7 for recording as described above.
  • the data series of the video file and the audio file supplied from the format conversion unit 12 and the data series of the low-resolution data output by the low-resolution data generation unit 142 are the data series of the same contents of image and sound.
  • the video file and the audio file supplied from the format converter 12 are to be originally provided to the user, so to speak, and therefore, supplied from the format converter 12.
  • the video file and the audio file will be referred to as main line data as appropriate.
  • the low-resolution data is image and audio data having the same contents as the main line data, but the data amount is small. Therefore, when performing reproduction for a certain reproduction time, the low-resolution data can be read out from the optical disk 7 in a shorter time than the main line data.
  • the data rate of the present Itoizumi data can be, for example, about 25 Mbps (Mega bit per second).
  • the data rate of the low resolution data For example, about 3 Mbps can be adopted.
  • the data conversion unit 118 of FIG. 16 uses the memory controller 1 16 as well as the data series of main data (video file and audio file) as well as the data series of metadata and low-resolution data. Supplied to Then, the main line data, the metadata, and the low resolution data supplied to the memory controller 116 are supplied to the optical disk 7 for recording.
  • a video file, an audio file, a metadata file, and a low-resolution data file are read from the optical disk 7 and supplied to the format conversion unit 12.
  • header metadata in the footer is optional.
  • the header partition pack, header metadata, index table, and footer partition pack in the low-resolution data file are the same as in the case of a standard AV multiplex format file, and a description thereof will be omitted.
  • the size of the header of the low resolution data file is an integral multiple of the ECC block length of the optical disc 7.
  • a set of body partition pack and essence container arranged in the body of the low resolution data file is an integral multiple of the ECC block length of the optical disc 7.
  • the size of the footer of the low-resolution data file is an integral multiple of the ECC block length of the optical disc 7.
  • FIG. 20 is a diagram showing a configuration of a body partition pack and an essence container arranged in the body of the low-resolution data file.
  • the essence container stores a system item, a picture-essence (video data) of the MPEG4 elementary stream system, and a sound essence (sound data).
  • a file item is arranged between the system item and the picture essence.
  • the body partition pack, system item, figure item, and picture essence are integral multiples of the ECC block length of the optical disc 7. '
  • the sound essence is divided into four parts, each with a filler.
  • the data amount of one set of divided sound essences and the filer attached thereto is 1/2 of the ECC block length of the optical disk 7. That is, the data amount of the two divided sound essences and fillers is equal to the ECC block length of the optical disc 7. Therefore, the total amount of sound essence and the data amount of the filer attached to it in one essence container is twice the ECC block length of the optical disc 7.
  • FIG. 21 is a diagram showing a configuration of a header system item and a fill item.
  • System items store Package Metadata.
  • the fill item consists of a filler having a KLV structure.
  • FIG. 22 is a diagram showing the structure of the picture essence.
  • the picture essence is MPEG4 elementary stream image data having a KLV structure. That is, in the case of image data having a total number of scanning lines / frame rate of 525/60 (59.94), an image that is a progressive scan image with a frame rate of 24 (23.97) In the case of data, or image data that is a progressive scan image with a frame rate of 60 (59.94), six GOVs (Group of Video Objects) are placed in the picture essence of one edit unit . On the other hand, in the case of image data in which the total number of scanning lines / frame rate is 625/50, five GOVs are arranged in the picture essence of one edit unit. One GOV is preceded by an intra-frame coded I-VOP (Intra Video Object Plane), followed by a predetermined number of P-V0P (Predicted Video Object Plane) is placed.
  • I-VOP Intra Video Object Plane
  • P-V0P
  • FIG. 23 is a diagram illustrating the data amount of a picture essence having a KLV structure.
  • the value data amount is 384000 bytes (octets), that is, the data amount of one GOV is 6400 It becomes bytes. In this case, one GOV stores an image of 10 frames. '
  • the value data amount is 384000 bytes, that is, the data amount of one GOV is 6400 bytes. In this case, one GOV stores images of 8 frames.
  • the value data amount is 384000 bytes, that is, the data amount of one GOV is 6400 bytes. In this case, one GOV stores an image of 20 frames.
  • the data amount of the value is 384000 bytes, that is, the data amount of one GOV is 76800 bytes. In this case, one GOV stores an image of 10 frames.
  • FIG. 24 is a diagram showing a configuration of the sound essence.
  • the sound essence of the low resolution data file is based on ITU-T (International This data is based on the G.711 standard (Telecommunication Union, Telecommunication Standardization Sector).
  • the sound essence is divided into four parts, each of which has a KLV structure.
  • Each of the divided data having a KLV structure is provided with a filler having a KLV structure.
  • two-channel samples are alternately arranged.
  • sound essence for a picture essence with a total number of scanning lines / frame rate of 525/60 in the case of a sound essence for a picture essence that is a progressive scan image with a frame rate of 24 (23.97)
  • 16016 samples are placed in one of the four divided sound essences.
  • '16000 samples are placed in one of the four divided sound essences.
  • FIG. 25 is a block diagram showing the configuration of the low-resolution data generation unit 142. As shown in FIG.
  • the buffer 16 1 stores AV independent format files (master files, metadata files in units of files, metadata files in units of frames, audio files, video files, etc.) supplied from the format converter 12. Temporary storage of the audio files for each of the channels.
  • AV independent format files master files, metadata files in units of files, metadata files in units of frames, audio files, video files, etc.
  • the file acquisition unit 162 refers to the master file stored in the buffer 161, and generates a metadata file for each file, a metadata file for each frame, an audio file, a video file, a video file, and an 8 channel file. Recognizes the file name of each audio file and, based on the file name, creates a file-by-file metadata file, frame-by-frame metadata file, audio file, video file, and audio file for each of the eight channels. It is obtained from the format conversion unit 12 via the filer 16 1. Further, the file acquiring unit 102 acquires the acquired metadata file for each file and the metadata for each frame. Three
  • the data file is supplied to the metadata file processing unit 163, the video file is supplied to the video file processing unit 164, and the audio file of each of the eight channels is supplied to the audio file processing unit 165.
  • the metadata file processing unit 163 extracts the file-by-file metadata from the file-by-file metadata file supplied from the file acquisition unit 162, and extracts the frame-by-frame
  • the system item in which the metadata is arranged is extracted and supplied to the data synthesizing unit 166.
  • the video file processing unit 164 extracts a picture item from the video file supplied from the file acquisition unit 162, generates a picture essence of a low-resolution data file from the extracted picture item, and synthesizes the data. Supply to Part 1 6 6.
  • the audio file processing unit 165 extracts audio data of each channel from the audio files of each of the eight channels supplied from the file acquisition unit 162, and converts low bit rate audio data from the extracted picture items.
  • the audio data of each channel is generated and multiplexed to form a sound essence, which is supplied to the data synthesizing unit 166.
  • the data synthesizing unit 166 includes metadata and system items in file units supplied from the metadata file processing unit 163, picture essence supplied from the video file processing unit 164, and audio file processing. Using the sound essence supplied from the unit 165, a low-resolution data file is constructed and supplied to the buffer 167.
  • the buffer 167 temporarily stores the low-resolution data file supplied from the data synthesizing unit 166, and supplies the file to the memory controller 116.
  • FIG. 26 is a block diagram illustrating the configuration of the video file processing unit 164.
  • Decomposing section 1 8 1 decomposes the video file supplied from the file acquisition unit 1-6 2 picture relevant catcher item, supplies the picture item is decomposed into the data conversion unit 1 8 2.
  • the data conversion section 182 converts the decomposed picture items into MPEG4 format pictures. 2004/008403
  • the data is converted to image data and supplied to the KLV encoder 183.
  • the KLV encoder 183 encodes the picture essence supplied from the data conversion section 182 into a KLV structure, and supplies the picture essence having the KLV structure to the data synthesis section 166.
  • FIG. 27 is a block diagram illustrating the configuration of the audio file processing unit 165.
  • the KLV decoder 201 decomposes the KLV structure of the body of the audio file of each channel supplied from the file acquisition unit 162, and converts the resulting VE format audio data of each channel into the data conversion unit 2 0 to 2
  • the data converter 202 converts the audio data of each channel in WAVE format supplied from the KLV decoders 2 and 01 into two-channel audio data in ITU-T G.71 1 format, and multiplexes the channels.
  • the channel multiplexing unit 203 multiplexes the two-channel audio data supplied from the data conversion unit 202 in sample units, and supplies the resulting multiplexed audio data to the KLV encoder 204. I do.
  • the KLV encoder 204 divides the audio data supplied from the channel multiplexing unit 203 into four parts, performs KLV coding on the KLV structure for each of the divided audio data, and sends the divided data to the filler generation unit 205. Supply.
  • the filler generation unit 205 generates a filler for each audio data having the KLV structure, adds the filler to the audio data, and supplies the audio data to the KLV encoder 206.
  • the KLV encoder 206 performs KLV coding on the filer added to the audio data into a KLV structure, and outputs a sound essence to which a filler having a KLV structure is added.
  • FIG. 28 is a block diagram illustrating a configuration of the data synthesizing unit 166.
  • the multiplexing unit 222 is supplied from the system item supplied from the metadata file processing unit 163, the video essence supplied from the video file processing unit 164, and the audio file processing unit 165.
  • the generated sound essence is multiplexed, a body part is added, a body is generated, and the generated body is supplied to the footer generating unit 222.
  • the footer generator 2 2 2 generates the footer and attaches the footer to the body.
  • the body and footer are supplied to the header generation unit 222.
  • the header generation unit 223 generates a header, adds the header to the body and the footer, and supplies the body, the footer, and the header to the filer generation unit 224.
  • the filler generation unit 222 generates a filer to be added to the header, adds the generated filler to the header, and outputs a low-resolution file to which the filler has been added.
  • FIG. 29 is a flowchart illustrating processing of a video file.
  • the file acquisition unit 162 acquires the body of the video file from the format conversion unit 12 via the buffer 161, and proceeds to step S102.
  • the decomposing unit 181 decomposes the video file supplied from the file acquisition unit 162 into picture items, and proceeds to step S103.
  • the data conversion unit 182 converts the decomposed picture item into MPEG4 image data, and proceeds to step S104.
  • the KLV encoder 183 performs KLV encoding of the picture item supplied from the data conversion unit 182 into a KLV structure, and the processing of the video file ends as a picture essence.
  • FIG. 30 is a flowchart for explaining processing of an audio file.
  • the file acquisition unit 162 acquires the body of the audio file from the format conversion unit 12 via the buffer 161, and proceeds to step S122.
  • the 10 ⁇ decoder 201 decomposes the KLV structure of the body of the audio file of each channel supplied from the file acquisition section 162, and proceeds to step S123.
  • step S123 the WAVE format audio data supplied from the data conversion unit 202 KLV decoder 201 is converted into ITU-T G.711 format 2-channel audio data. Then, go to step S 1 2 4.
  • step S124 the channel multiplexing unit 203 multiplexes the two-channel audio data supplied from the data conversion unit 2 ⁇ 2 on a sample basis, and proceeds to step S125.
  • step S125 KLV encoder 204 performs channel multiplexing PC Ran 08403
  • the audio data supplied from the unit 203 is divided into four parts, and the divided audio data is KLN-coded into a KLV structure for each divided audio data, and the flow advances to step S126.
  • the filler generation unit 205 generates a filler for each audio data having the KLV structure, adds the filler to the audio data, and proceeds to step S127.
  • the KLV encoder 206 performs KLV coding on the filer added to the audio data into a KLV structure, and ends the processing of the audio file as a sound essence.
  • FIG. 31 is a flowchart illustrating processing of a metadata file.
  • the file acquisition unit 16 2 acquires the body of the metadata file from the format conversion unit 12 via the buffer 16 1, and sets it as a system item. 4 Proceed to 2.
  • a metadata file processing unit 163 is generated, and the process proceeds to step S143.
  • the metadata file processing unit 1663 performs KLV coding on the filer added to the system item into a KLV structure, and outputs the system item with the file item added as the fill item. Then, the processing of the metadata file ends.
  • FIG. 32 is a flowchart for explaining the processing of the low-resolution data file synthesis.
  • the multiplexing unit 221 transmits the system item supplied from the metadata file processing unit 163, the video essence supplied from the video file processing unit 164, and the audio file processing unit 1
  • the sound essence supplied from 65 is multiplexed to generate an essence container, and the flow advances to step S162.
  • the multiplexing unit 221 adds ⁇ departition to the essence container to generate a body, and proceeds to step S166.
  • the data synthesizing unit 166 outputs the body, and proceeds to step S166.
  • the footer generation unit 222 generates a footer, and the process proceeds to step S165.
  • step S166 the data synthesizing unit 166 outputs a footer, and the process proceeds to step S166.
  • the header generation unit 223 generates a header, and the process proceeds to step S167.
  • the filler generation unit 224 generates a filer to be added to the header, and proceeds to step S168.
  • the data synthesizing unit 166 outputs the header to which the filler has been added, and the low-resolution data file synthesizing process ends.
  • step S231 the control unit 119 sets the audio annual ring size T sa and the image annual ring size T sv , and further, sets the low res annual ring size T sl and the meta annual ring size T sm . I do. '
  • the audio annual ring size T sa is a variable that determines the data amount of an audio file to be collectively arranged and recorded on the optical disc 7, and is represented by, for example, the reproduction time of the audio file.
  • the image annual ring size T sv is a variable that determines the data amount of a video file to be collectively arranged on the optical disc 7 and recorded, and is represented by, for example, the playback time of the video file.
  • the audio annual ring size T sa and the image annual ring size T sv are not expressed by the data amount itself such as the number of bits or bytes, but indirectly by the playback time. For the following reasons:
  • the optical disk 7 is a set of audio files for each data amount based on the audio annual ring size Tsa extracted from the audio file sequence.
  • the audio annulus data, and image annulus data is collection of Bideofu Ryo I le for each data amount based on the image ring size T sv extracted from the system sequence of video file is recorded are periodically arranged.
  • the optical annulus data and the image annulus data are periodically stored on the optical disc 7. 04 008403
  • the reproduction cannot be performed unless the video file and the audio file accompanying the video file are aligned.
  • the audio annual ring data in a certain reproduction time zone and the image annual ring data in the reproduction time zone should be recorded at a close position on the optical disc 7, that is, for example, at an adjacent position.
  • the data amounts of an audio file and a video file for the same playback time generally differ greatly. That is, the data amount of the audio file for the playback time is considerably smaller than the data amount of the video file for the playback time. In some cases, the data rates of audio and video files are not fixed but variable.
  • the audio annual ring size T sa and the image annual ring size T sv are represented by the data amount, and the audio annual ring data and the image annual ring data for each data amount are sequentially extracted from the audio file and video file sequences, respectively.
  • the audio annual ring data in the (earlier) playback time zone where the playback time gradually advances can be obtained, and as a result, the audio to be played back in the same playback time zone It becomes difficult to arrange the file and the video file at a close position on the optical disc 7.
  • the audio annual ring size T sa and the image annual ring size T sv are represented by the playback time, and the audio annual ring data and image annual ring data for each data amount corresponding to the playback time are obtained from the audio file and video file sequences respectively. If they are sequentially extracted, it is possible to obtain a set of audio annual ring data and image annual ring data in the same playback time zone, and as a result, audio and video files to be played back in the same playback time zone Can be placed in close positions.
  • the audio annual ring size T sa is desirably set to a value such that it is faster to seek and skip the audio annual ring data of the data amount corresponding to the reproduction time indicated by the data than to read from the optical disc 7. .
  • the audio annual ring size T sa and the image annual ring size T sv may be set to the same value. It is desirable that the audio annual ring data and the image annual ring data in the appropriate reproduction time zone are alternately arranged on the optical disc 7 from the viewpoint of the above-mentioned reproduction.
  • the audio ring size T sa and the image ring size T sv can be different values, indicating that the data rate of the audio file is generally much lower than the data file.
  • the sound annual ring size T sa can be twice as large as the image annual ring size T sv , for example.
  • the annual ring data is also arranged at a close position on the optical disk 7.
  • one audio annual ring data and two corresponding image annual ring data include, for example, one of the audio annual ring data, the corresponding two image annual ring data, and the other, or the two. It is desirable to arrange them periodically in the order of one of the image annual ring data, the audio annual ring data, and the other of the two image annual ring data.
  • the value of the audio annulus size T sa and video annual size T sv be set in step S 1 may be a fixed value determined in advance, it may be a variable value.
  • the variable values can be input, for example, by operating the operation unit 120. .
  • the low-resolution annual ring size T sl is a variable that determines the amount of low-resolution data to be collectively arranged and recorded on the optical disc 7, and for example, similar to the above-described audio annual ring size T sa and image annual ring size T sv , It is represented by the playback time of the video file (or audio file) that was the source of the low-resolution data.
  • the meta annual ring size T s is also a variable that determines the data amount of meta data to be collectively arranged and recorded on the optical disc 7, for example, the above-described audio annual ring size T sa and Like the image annual ring size Tsv , the metadata indicates the information by the playback time of a video file (or audio file) that describes various information (eg, the date and time when the image was captured).
  • the low-resolution tree ring size T sl and the meta tree ring size T sra are not expressed by the data amount itself, such as the number of bits or bytes, but are expressed indirectly by the playback time, as described above. This is for the same reason as in the case of the voice ring size T sa and the image ring size T sv .
  • the audio annulus data is collection of audio Huai Le for each data amount based on the audio annulus size T sa extracted from the system sequence of audio files
  • video other image annulus data is collection of video files for each data amount based on the images ring size T sv extracted from the series of files
  • Low-resolution tree ring data which is ⁇ a collection of low-resolution data for each amount
  • '' and meta-ring data which is a collection of metadata for each data amount based on the meta-annular size T sm extracted from the metadata data series, It is periodically arranged and recorded on the optical disc 7.
  • the low-resolution annual ring data is the data of the audio annual ring data and the image annual ring data. Since the volume is reduced, the audio and image ring data in a certain playback time zone and the low-resolution annual ring data with a reduced data volume of the audio and image ring data in the playback time zone are stored on an optical disk. It should be recorded close up.
  • Meta annual ring data representing information on data and image annual ring data should be recorded at a close position on the optical disc 7.
  • audio files / video files for the same playback time When the data rate is compared with the data rate of low-resolution data and metadata, the data rate of low-resolution data and metadata is smaller than the data rate of audio and video files.
  • the low-resolution annual ring size T sl and the meta annual ring size T sm are also represented by the playback time, similarly to the audio annual ring size T sa and the image annual ring size T sv.
  • An audio file, a video file, low-resolution data, and metadata to be reproduced during a proper reproduction time zone can be arranged at a close position on the optical disc 7.
  • the values of the voice ring size T sa , the image ring size T sv , the low-resolution tree ring size T sl , and the meta tree ring size T sm set in step S 2 3 1 may be fixed values determined in advance. It may be a variable value.
  • the variable values are operated, for example, by operating the operation unit 120. Can be entered.
  • step S232 the control unit 119 transmits the low-resolution data from the audio file and the video file supplied from the format conversion unit 12 to the disk drive unit 11.
  • a low-resolution data generation process for generating a series of data is started, and the audio file and the video file acquired by the data conversion unit 118 are supplied to the memory 117 by controlling the memory controller 116. Start the audio file storage process and the video file storage process to be stored.
  • step S2 32 the control unit 1 19 controls the memory controller 1 16 so that the metadata obtained by the data conversion unit 1 18 and the -The metadata storage process and the low-resolution data storage process for supplying and storing the resolution data to the memory 117 are started.
  • step S233 the control unit 119 starts an audio file recording task, which is a control task for recording an audio file on the optical disc 7, and
  • step S 234 a video file recording task, which is a control task for recording a video file on the optical disc 7, is started, and the flow advances to step S 235.
  • step S235 the control unit 119 starts a low-res data recording task, which is a control task for recording low-res data on the optical disc 7, and proceeds to step S236.
  • step S236 the control unit 119 starts a metadata recording task that is a control task for recording metadata on the optical disc 7, and proceeds to step S237.
  • the details of the audio file recording task in step S233, the video file recording task in step S234, the low-resolution data recording task in step S235, and the metadata recording task in step S236 are described in detail. This will be described later.
  • step S237 the control unit 119 determines whether or not an operation signal for instructing the end of data recording has been supplied from the operation unit 120, and has determined that the operation signal has not been supplied. In this case, the process proceeds to step S 238, and the control unit 119 determines whether all the recording tasks have been completed. If it is determined in step S 238 that all recording tasks have not been completed, the process returns to step S 237, and the same processing is repeated thereafter.
  • step S 238 If it is determined in step S 238 that all recording tasks have been completed, ie, the audio file recording task started in step S 233, the video file recording task started in step S 238 If the task, the low-resolution data recording task started in step S235, and the metadata recording task started in step S236 are all completed, the recording process ends.
  • step S237 an operation signal instructing the end of data recording is issued.
  • the process proceeds to step S239, and the control unit 119
  • the low-resolution data generation processing, the audio file storage processing, the video file storage processing, the metadata storage processing, and the low-resolution data storage processing started in step S232 are ended, and the process proceeds to step S240.
  • step S240 it is determined whether all recording tasks have been completed, as in step S238. If it is determined in step S240 that all the recording tasks have not been completed, the process returns to step S240, and a waiting time is provided until all the recording tasks are completed.
  • step S240 If it is determined in step S240 that all recording tasks have been completed, the audio file recording task started in step S233 and the video file recording started in step S234 When all the tasks, the low-resolution data recording task started in step S235, and the metadata recording task started in step S236 are completed, the recording process ends.
  • step S 2 5 the control unit 1 1 9, in the processing of step S 2 5 7 to be performed later, the variable N a is incremented by 1 , For example, is initialized to 1, and the process proceeds to step S252.
  • step S 2 5 2 the control unit 1 1 9, as in step S 1 2 in FIG. 5, it is determined whether T sa x N a force T SV XN or V or less, further, T sa XN a is below T sl x Nt, and determines whether or not more than T sra x N m.
  • T sa is the size of a sound annual ring, and represents a certain playback time of an audio file.
  • the variable N a as described below, put out every time data of the audio file based on audio annulus size T sa (audio annulus data) is recorded on the optical disk 7, will be one Inkurimento.
  • T sv is the image ring size. Ri, the variable N v, as described later, in a video file recording task, each time the video file data amount based on the image year wheel size T sv (image annulus data) is recorded on the optical Dace click 7, one It is incremented.
  • T sa x N a is, the audio file, if you went to record with audio annulus size T sa unit, corresponds to the end of the playback time of audio annual-ring data to be recorded on the optical disc 7 from now on
  • T SV XN V is, the video file, if it began to record the image ring size T sv unit, which corresponds to the end of the playback time of video annual data to be recorded on the optical disc 7 from now on.
  • T sl is the low-resolution annual ring size
  • the variable N is a low-resolution data recording task, in which the low-resolution data (low-resolution annual ring data) of the data amount based on the low-resolution annual ring size T se is recorded on the optical disk 7 as described later. Each time it is incremented by one.
  • T sm is a meta annual ring size
  • a variable N m is a metadata recording task as described later; metadata (meta annual ring data) of a data amount based on the meta annual ring size T sm is recorded on the optical disc 7. Each time it is done, it is incremented by one.
  • TX r ⁇ is, the Rorezode over data, the case went to record in low-resolution annulus size T se unit, corresponds to the end of the playback time of the low-resolution annulus data to be recorded from now on light disk 7, T sm x N m corresponds to the last reproduction time of the meta-annulus data to be recorded on the optical disc 7 when the metadata is recorded in the unit of the meta-annulus size T sm .
  • the audio annual ring data, the image annual ring data, the low-resolution annual ring data, and the meta annual ring data are periodically arranged so that the data of the same reproduction time zone is recorded at a close position on the optical disk 7.
  • the audio annual ring data, the image annual ring data, the low-resolution annual ring data, and the meta annual ring data the earlier the reproduction time is, the position in front of the optical disk 7 (the earlier position in the order of reading and writing data to the optical disk 7).
  • the audio annual ring data, the image annual ring data, the low-resolution annual ring data, and the meta annual ring data are arranged at a position earlier than the optical disk 7 in this order.
  • the attention audio annulus data just before the playback time T sa XN a previous recent playback time zone of the image annulus data, low-resolution annulus data, and meta-year ring data is recorded, in other words, the reproduction time T sa xN a previous second to a new playing time period of the image annulus data, low-resolution annulus data, and it is necessary to record immediately after the annulus metadata is recorded.
  • video annual data to be recorded is a T SV XN V previous video annual data of the recent re-live time zone.
  • the low-resolution annual ring data to be recorded in the future is the low-resolution annual ring data in the latest playback time zone before T sl XNi
  • the meta-annular data to be recorded in the future is the latest playback time before T sm XN m
  • This is meta-annual ring data.
  • the recording of the target audio annual ring data is performed by reproducing the audio annual ring data.
  • the time T sa XN a is less than or equal to the reproduction time T SV XN V of the image annulus data, is less than or equal to the reproduction time of the low-resolution annulus data, and is less than or equal to the reproduction time T sm XN m of the meta annulus data.
  • step S 2 5 2 the reproduction time T sa XN a voice annulus data is not more than the reproduction time T SV XN V image annulus data, further, the playback time of Loule zone annulus data T It is determined whether it is less than or equal to sl X and less than or equal to the reproduction time of the meta-annulus data T sm xN m , whereby whether or not the current timing is the timing to record the target audio annulus data Is determined.
  • step S 2 5 the reproduction time T sa xN a voice annulus data, reproduction time of the image year wheel data T SV XN v, playback time of the low-resolution annulus data T sl X New have or reproduction time T of the annulus metadata sm xN m is not less than (or earlier) 8403
  • step S252 If it is determined, that is, if the current timing is not the timing at which the target voice annulus data should be recorded, the process returns to step S252, and the same processing is repeated thereafter.
  • the playback time T sa XN a of the audio annulus data is the playback time T SV XN V of the image annulus data, the playback time T sl XN of the low-resolution annulus data, and the playback time T of the meta annulus data. If it is determined that the time is less than or equal to all times of sm XN m , that is, if the current timing is a timing at which the target voice annulus data is to be recorded, the process proceeds to step S 25 3 and the control unit 1 19 determines whether or not the audio file is supplied from the data conversion unit 118 to the memory 117 via the memory controller 116, and if it is determined that the audio file is supplied, the step is performed. Proceed to step S 2 5 4.
  • step S 2 54 the control unit 1 1 9, the memory 1 1 7, in total, whether audio O file voice year wheel size T sa x N a partial audio files necessary for playback of stored Is determined, and if it is determined that the corresponding audio file has not been stored in the memory 117, the process returns to step S252, and the subsequent processing is repeated. Further, in step S 2 5 4, if the amount of audio file corresponding to the reproduction time T sa xN a is determined to have been stored in the memory 1 1 7, the process proceeds to step S 2 5 5.
  • the memory controller 111 detects the fact. Notify 6.
  • the memory controller 1 1 based on the notification, in total, it is determined whether or not to store the audio files necessary for reproduction of the reproduction time T sa x N a content in the memory 1 1 7, the The judgment result is notified to the control unit 1 19. That is, the control unit 119 performs the determination in step S254 based on the determination result from the memory controller 116.
  • FIG. 35 shows the relationship between the total data amount (total data amount) La of the audio files stored in the memory 117 and the time (reproduction time).
  • the small arrows on the right side in Fig. 6 indicating the vertical direction indicate the data amount Bu of the ECC block.
  • a dotted line LV in FIG. 35 indicates a total data amount (total data amount) Lv of the video files stored in the memory 117, which is indicated by a solid line in FIG. 9 described later.
  • the total data amount La of the audio file is a straight line, and therefore, the data rate of the audio file is assumed to be fixed. However, the audio file can be of a variable data rate.
  • the N a l Step S 2 5 4 when the, total data amount audio files ⁇ of Arufanyu, when stored in the memory 1 1 7, the amount corresponding to the reproduction time T sa XN a It is determined that the audio file has been stored in the memory 117, and the flow advances to step S255.
  • step S255 the control unit 119 controls the memory controller 116 to read / write the audio file stored in the memory 117 from / to the optical disc 7 as a unit.
  • an audio file with the maximum data amount that can be read from memory 117 which is an integral multiple (n times) of the data amount Bu of one ECC block, is input first in time.
  • the process proceeds to step S256.
  • the audio annual ring data read from the memory 117 as an audio file having a data amount that is an integral multiple of the ECC block and the maximum data amount that can be read from the memory 117 is described above. it is a recent audio annulus data of playback time T sa XN a previous.
  • an audio file of at least the data amount AN1 ′ is stored in the memory 117. Since the data amount ⁇ is larger than the data amount of one ECC block, but smaller than the data amount of two ECC blocks, in step S255, the data amount of one ECC block is Bu An audio file corresponding to a certain AN1 is extracted by reading it out from the memory 117 as voiced ring data of interest. 2004/008403
  • the audio file not read in step S255 that is, when the time in FIG. 35 is 1 XT sa , the data amount A afl of less than the data amount Bu of one ECC block
  • the audio file remains in memory 1 17 as it is.
  • step S256 the control unit 119 transfers the target voice annual ring data having the data amount of an integral multiple of the ECC block obtained in step S255 to the memory controller 1 16 From the ECC block, thereby controlling the recording so that the target annual ring data of an integral multiple of the ECC block is recorded in the integral multiple of the ECC block. I do.
  • an audio file having a data amount Bu of one ECC block is supplied from the memory controller 1 16 to the signal processing section 1 15 as attentional sound annual ring data. .
  • the attention voice annual ring data of the data amount Bu of this one ECC block is supplied to the pickup unit '112, and as shown in Fig. 36, the data is transferred to the ECC block # 1, which is one ECC block of the optical disc 7, as shown in Fig. 36. It is recorded so that the boundary of the audio annual ring data coincides with the boundary of the ECC block # 1 of the optical disk 7.
  • the optical disc 7 has a physically continuous, sufficiently large free area. Further, assuming that reading and writing of data from / to the optical disc 7 is performed, for example, from the inner circumference to the outer circumference, data is recorded in the order of data supplied from the memory controller 116 to the signal processing unit 115. It should be performed continuously from the inner circumference to the outer circumference of the empty area.
  • step S 2 5 6 as described above, after the recording control of the target audio annulus data has been performed, the process proceeds to step S 2 5 7, the control unit 1 1 9, the variable N a 1 Dakei increment Then, the flow returns to step S252 to execute the subsequent processing.
  • step S 253 when it is determined in step S 253 that the audio file is not supplied to the memory 117, that is, TJP2004 / 008403
  • step S258 If the supply of the audio file to the controller 1 16 is stopped, the process proceeds to step S258, and the controller 1 19 controls the memory controller 1 16 so that the controller 1 19 remains in the memory 1 17 now. All of the audio files that have been read are read out, and the voice ring data is supplied from the memory controller 1 16 to the signal processing section 115, whereby the voice ring data having an integral multiple of the ECC block data is obtained. Recording control is performed so that the data is recorded in the ECC block of an integral multiple of that number.
  • step S253 the audio annual ring data having the integral multiple of the ECC block data is equal to the integral multiple of the ECC block. It will be recorded in the ECC block. Then, the process proceeds to step S259, and the control unit 119 sets the variable Na to a value corresponding to infinity (a very large value), and ends the audio file recording task.
  • audio annual ring data having an integral multiple of the ECC block as a unit for reading / writing from / on the optical disk 7 is converted into an integral multiple of the ECC block.
  • it is recorded periodically so that the boundary of the audio annual ring data and the boundary of the ECC block of the optical disk 7 are matched.
  • step S2661 the control unit 119 sets the variable to be incremented by 1 in the processing of step S267 performed later.
  • N v is initialized to, for example, 1 and the process proceeds to step S 2 62.
  • step S 2 6 2 the control unit 1 1 9, T SV XN V power S, is less than T sa x N a, further Ding ⁇ ! ⁇ F, It is determined below and whether or not T sm xN m or less.
  • T sa xN a is, the audio file, if you went to record with audio annulus size T sa unit, audio annulus data to be recorded on the optical disc 7 from now on
  • T SV XN V is, the video file, if it began to record the image annual ring size T sv unit, the video annual data that are trying to recorded on the optical disc 7 the future of the last It corresponds to the playback time.
  • the audio annulus data and the image annulus data are periodically arranged so that the data in the similar playback time zone is recorded at a close position on the optical disc 7.
  • the audio and data are arranged first, and then the image and ring data are arranged.
  • the target image annual ring data is the most recent (closest to the reproduction time T SV XN V ) before the reproduction time T sv xN v video annual data become 1 the target image annulus data time zone, it is necessary to record immediately after the reproduction time T sa xN a previous latest reproduction time period of audio annulus data is recorded. Therefore, it is necessary to record the target image annual ring data at a timing when the reproduction time T SV XN V of the image annual ring data is less than the reproduction time T sa XNa of the audio annual ring data.
  • step S 2 6 2 the reproduction time T SV XN v of the image annulus data, whether less than the reproduction time T sa XN a voice annulus data is determined, thereby, the current It is determined whether or not the timing is a timing at which the attention image annual ring data should be recorded.
  • T SV XN V is equal to or smaller than T sl X is the same as the case of step S 2 52 in FIG. 34, which is the image annual ring data to be recorded.
  • Play time T SV XN V (closest to the playback time T SV XN v) the previous recent the video annual data of playback time, playback time T SV XN v low-resolution annulus data immediately before the earlier of the latest reproduction time zone, in other words This is a condition for recording immediately after the low-resolution annual ring data in the second new playback time zone before the playback time T SV XN V is recorded.
  • T SV XN V force T sm x N m or less is the image annual ring data to be recorded in the same manner as in step S 25 2 in FIG. 2004/008403
  • Eye video annual data that is, the reproduction time T SV XN V an earlier latest reproduction image year ring data of the time zone, the reproduction time T SV XN V previous meta annual data immediately before the latest reproduction time zone, in other words, playback time
  • This is a condition for recording immediately after the meta-annulus data of the second newest playback time zone before T SV XN V is recorded.
  • step S262 the playback time T sv xN v of the image annulus data is less than the playback time T sa XN a of the audio annulus data, less than or equal to the playback time T sl XN L of the low res annulus data, or If it is determined that the time is not any one of the reproduction times T sm xN m or less, that is, if the current timing is not the timing at which the target image annual ring data should be recorded, the process returns to step S262, and Similar processing is repeated.
  • step S262 the playback time T SV XN V of the image annual ring data is less than the playback time T sa XN a of the audio annual ring data, and the playback time of the low-resolution annual ring data If it is determined that the current time is less than or equal to or less than the meta-annulus data reproduction time T sm xN m , that is, if the current timing is the timing at which the focused image annual ring data should be recorded, step S 26 Proceeding to 3, the control unit 1 19 determines whether the video file has been supplied from the data conversion unit 1 18 to the memory 1 17 via the memory controller 1 16 and is supplied. If it is determined, the process proceeds to step S24.
  • step S264 the control unit 119 determines whether or not the video files of the video files necessary for the reproduction of the image annual ring size Tsv XN v have been stored in the memory 117. If it is determined that the video file has not been stored in the memory 117 yet, the process returns to step S262 and the subsequent processes are repeated. Further, in step S 2 6 4, if the amount of video file corresponding to the reproduction time T SV XN V is determined to have been stored in the memory 1 1 7, the process proceeds to step S 2 6 5.
  • the memory controller 1 16 determines whether or not the video files required for the total playback time T SV XN V have been stored in the memory 1 17 based on the notification. To the control unit 1 19. That is, the control unit 119 performs the determination in step S264 based on the determination result from the memory controller 116.
  • FIG. 40 shows the relationship between the total data amount (total data amount) La of the video files stored in the memory 117 and the time (reproduction time).
  • small arrows indicating the vertical direction on the right side indicate the data amount Bu of the ECC block as in the case of FIG.
  • the dotted line La in FIG. 40 is the total data amount La of the audio file stored in the memory 117, which is indicated by the solid line in FIG. 35 described above.
  • step S265 the control unit 119 controls the memory controller 116 to read / write the video file stored in the memory 117 from / to the optical disc 7, for example, as a unit.
  • the data amount of one ECC block is an integral multiple (n times) of Bu, and the maximum data amount of the video file that can be read from memory 117 It is extracted by being read, and the process proceeds to step S266.
  • the image annual ring data read from the memory 117 is a video file having a data amount that is an integral multiple of the ECC block and that can be read from the memory 117 as described above. This is the latest image annual ring data before time T SV XN V.
  • the time is 1 XT sv in FIG. 40 described above
  • at least a video file of the data amount VN1 ′ is stored in the memory 117.
  • the data volume VN1 ' Since it is larger than the data volume of the four ECC blocks, but smaller than the data volume of the five ECC blocks, in step S265, the video file for VN1 which is the data volume Bu of the four ECC blocks is It is extracted by reading it from the memory 117 as the image ring data of interest.
  • step S265 the video file not read in step S265 , that is, when the time in FIG. 40 is 1 XT sv , the video file having a data amount Val less than the data amount Bu of one ECC block Is left as is in memory 1 17.
  • step S266 the control unit 1 19 forces the target image annual ring data with the data amount of an integral multiple of the ECC block obtained in step S265, from the memory controller 1 16
  • the signal is supplied to the signal processing unit 115, whereby the recording control is performed so that the target image annual ring data having an integral multiple of the ECC block data is recorded in the integral multiple of the ECC block.
  • a video file of the data amount Bu of the four ECC blocks is supplied from the memory controller 1 16 to the signal processing unit 1 15 as target image annual ring data. .
  • the attention image annual ring data of the data amount Bu of the four ECC blocks is supplied to the pickup unit 112, and as shown in FIG. 36 described above, the four ECC blocks of the optical disk 7 Blocks # 2, # 3, # 4, and # 5 show the boundaries of the image ring data and the boundaries of the ECC blocks # 2 to # 5 on the optical disk 7 (the first boundary of the ECC block # 2 and the ECC block # (End boundary of 5) is recorded.
  • step S266 the most recent image annual ring data before the reproduction time T SV XN v is recorded in the ECC blocks # 2 to # 5.
  • step S 2 6 as described above, after the recording control of the target image annulus data has been performed, the process proceeds to step S 2 6 7, the control unit 1 1 9, the variable N v 1 Dakei increment Returning to step S262, the subsequent processing is repeated.
  • step S263 when it is determined that the video file is not supplied to the memory 117, that is, the supply of the video file from the data conversion unit 118 to the memory controller 116 is stopped. In this case, the process proceeds to step S 268, and the control unit 1 19 reads out all the video files remaining in the memory 1 17 by controlling the memory controller 1 16, and The signal is supplied from the memory controller 1 16 to the signal processing unit 1 15 so that the image annual ring data of an integral multiple of the ECC block can be converted to the integral multiple of the ECC block. Recording control is performed so as to be recorded in the lock.
  • step S268 the image annual ring data of the integral multiple of the ECC block is recorded in the integral multiple of the ECC block. Is done.
  • step S269 the control unit 1 19 sets the variable Nv to a value corresponding to infinity, and ends the video file recording task.
  • the image annual ring data having a data amount of an integral multiple of the ECC block as a unit of reading / writing of the optical disk 7 is used.
  • the ECC blocks are periodically recorded so that the boundary of the image annual ring data and the boundary of the ECC block of the optical disk 7 coincide with each other in an integral number of ECC blocks.
  • step S271 the control unit 119 changes the variable incremented by one to, for example, 1 in the process of step S277 described later. Initialize and proceed to step S272.
  • step S272 the control unit 1 19 It is determined whether the force is less than T sa xN a and TdXNi is less than T SV XN V and not more than T sm XN ra .
  • T sl xNi force is less than T sa XN a means that similar to the case described in step S262 of FIG. 37, the target low res annual ring data, which is the low res annual ring data to be recorded, is reproduced. This is a condition for recording immediately after the audio annual ring data in the latest playback time zone before time T sl x is recorded.
  • T sl XN L is less than T SV XN V is also the same as described in step S262 of FIG. 37. Data is recorded in the most recent playback time zone before the playback time T ⁇ XNi.
  • step S 2 7 the reproduction time T sl XN L of low-resolution annulus data, voice annulus data than the reproduction time T sa XN a, the reproduction time T SV XN v less than the image annulus data, or the annulus metadata If it is determined that the playback time is not any of T sra XN ra or less, that is, if the current timing is not the timing at which the noted low-resolution annual ring data should be recorded, the process returns to step S 272 , and Similar processing is repeated.
  • step S 272 the reproduction time T sl xNi of the low-resolution annual ring data is less than the reproduction time T sa XN a of the audio annual ring data, and the reproduction time T SV XN V of the image annual ring data is less than, and If it is determined that the reproduction time of the meta-annulus data is equal to or less than T sm XN m , that is, if the current timing is a timing at which the target low-resolution annual ring data is to be recorded, the process proceeds to step S 273 and the control unit 1 19 determines whether or not low-resolution data is supplied from the data conversion unit 1 18 to the memory 1 17 via the memory controller 1 16; if it is determined that the low-resolution data is supplied, step 1 Proceed to S2 74.
  • step S 274 the control unit 1 19 determines whether or not the low resolution data necessary for the reproduction of the low resolution annual ring size T sl XN i has been stored in the memory 1 17 in total. If it is determined that the low resolution data is not stored in the memory 117, the process returns to step S272, and the same processing is repeated thereafter. In step S274, the low resolution corresponding to the playback time ⁇ ⁇ ⁇ ⁇ If it is determined that the data has been stored in the memory 117, the process proceeds to step S275.
  • the compression encoding of a video file or the like in which the data amount of a video file or the like is reduced is used as low-resolution data.
  • the data amount of a video file or the like is reduced. It is also possible to convert video files, etc., directly into low-resolution data.
  • step S275 the control unit 119 controls the memory controller 116 to read / write the low-resolution data stored in the memory 117 to / from the optical disk 7, for example, as a unit.
  • the amount of data in one ECC block which is an integer multiple (n times) of Bu, is the largest amount of low-resolution data that can be read from memory 1 17
  • the extraction is performed by reading, and the process proceeds to step S276.
  • the low-resolution annual ring data read from the memory 117 is the integer multiple of the ECC block and the maximum low-resolution data that can be read from the memory 117, as described above. This is the latest low-resolution tree ring data before the reproduction time T sl X Ni.
  • step S275 the low-resolution data not read in step S275 remains in the memory 117 as it is.
  • step S 276 the control unit 1 19 forces the noticeable low-resolution annual ring data with an amount of data that is an integral multiple of the ECC block obtained in step S 275 from the memory controller 1 16 to the signal processing unit 1 15 Supply to the ECC block. Record control is performed so that several times the amount of noticeable low-resolution annual ring data is recorded in an integral number of ECC blocks.
  • the low-resolution ring data having an integral multiple of the amount of the ECC block is aligned with the integral number of ECC blocks so that the boundary of the low-resolution ring data and the boundary of the ECC block of the optical disk 7 are aligned. It is recorded.
  • step S277 where the control unit 1 19 increments the variable Ni by 1, returns to step S272, and thereafter, the same processing is repeated.
  • step S273 if it is determined in step S273 that the low-resolution data is not supplied to the memory 117, that is, if the supply of the low-resolution data from the data conversion unit 118 to the memory controller 116 is stopped, Proceeding to step S 278, the control unit 1 19 reads out all the low-resolution data remaining in the memory 1 17 by controlling the memory controller 1 16, and stores the low-resolution data in the memory controller 1 1. From 6 the signal is supplied to the signal processing section 115, whereby the recording control is performed such that the low-resolution annual ring data having an integral multiple of the ECC block is recorded in the integral multiple of the ECC blocks.
  • the low-resolution annual ring data with the integral multiple of the ECC block is recorded in the ECC block of the integral multiple of the ECC block in step S278. Is done.
  • step S279 the control unit 1 19 sets the variable 1 ⁇ to a value corresponding to infinity, and ends the low-resolution data recording task.
  • step S281 the control unit 119 changes the variable incremented by one to, for example, 1 in the process of step S287 described later. Initialize and go to step S282.
  • step S282 the control unit 1 19 determines whether the force T sm xN m is less than T sa XN a and whether T sra xN m is less than T SV XN V and less than T sl xN. Judge Set.
  • T sm xN m force T sa xN a is smaller than the attentional meta-annulus which is the meta-annulus data to be recorded in the same manner as described in step S 2 62 of FIG. 37.
  • This is a condition for recording data immediately after the voice annulus data in the latest reproduction time zone before the reproduction time T sm XN m is recorded.
  • the fact that T sm xN m force is smaller than T SV XN V means that, similarly to the case described in step S 2 62 of FIG. 37, the attention meta data which is the meta annual ring data to be recorded.
  • T sm x N m force S and T sl XN 1 * H means that the meta-ring data that is the meta-ring data to be recorded is the latest meta-ring data before the playback time T sm XN m This is a condition for recording immediately after the low-resolution annual ring data in the playback time zone is recorded.
  • step S282 the playback time of the meta-annulus data T sm XN ra is less than the playback time of the voice annulus data T sa XN a , the playback time of the image annulus data is less than T sv XN v , or the playback of the meta-annulus data If it is determined that it is not any of the times less than the time T sl XN i, that is, if the current timing is not the timing at which the focused meta annulus data should be recorded, the process returns to step S 2 82 and the following The same processing is repeated.
  • step S282 even if the playback time T sm xN m of the meta-annulus data is less than the playback time T sa XN a of the audio annulus data, and even less than the playback time T sv XN v of the image annulus data If it is determined that the time is less than the reproduction time T sl X of the low-resolution annual ring data, that is, if the current timing is the timing at which the target meta-annular data is to be recorded, the process proceeds to step S 283
  • the control unit 119 determines whether or not the metadata is supplied from the data conversion unit 118 to the memory 117 via the memory controller 116, and determines that the metadata is supplied. In this case, go to step S284.
  • step S 2 84 the control unit 1 19 stores, in the memory 1 17, JP2004 / 008403
  • step S 284 it is determined whether or not the metadata required for the reproduction of the wheel size T sra x N m has been stored. If it is determined that the metadata for that has not been stored in the memory 117 yet, the process proceeds to step S Returning to 282, the same processing is repeated thereafter. If it is determined in step S 284 that the metadata corresponding to the reproduction time T sm xN m has been stored in the memory 117, the process proceeds to step S 285.
  • the data amount detection section 144 of the data conversion section 118 detects a video file and an audio file necessary for the reproduction of the reproduction time T sm XN m in total
  • the data amount detection section 144 notifies the memory controller of the fact. Notify 1 1 6
  • the memory controller 1 16 determines whether or not the metadata necessary for the reproduction for the reproduction time T sm xN m has been stored in the memory 1 17 in total.
  • the control unit 119 performs the determination process in step S284 based on the determination result from the memory controller 116.
  • step S285 the control unit 119 controls the memory controller 116 to read / write the metadata stored in the memory 117 from / to the optical disc 7 as a unit. For example, the data amount of one ECC block Integer multiple of Bu
  • the meta-annual data read from the memory 117 which is an integral multiple of the ECC block and has the maximum data amount that can be read from the memory 117, is described above. It is the latest meta-annual data before the playback time T sm xN ra .
  • step S285 the metadata that has not been read in step S285 remains in the memory 117 as it is.
  • control unit 1 19 powers the meta-ring data of interest, which is an integral multiple of the ECC block, obtained at step S285, from the memory controller 1 16 to the signal processing unit 1 15 Which is an integral multiple of the ECC block.
  • the recording control is performed so that the target meta-annulus data of the data amount of this is recorded in an ECC block of an integral multiple of that.
  • the meta-annulus data having an integral multiple of the data amount of the ECC block matches the integral-multiple number of ECC blocks such that the boundary of the meta-annulus data and the boundary of the ECC block of the optical disk 7 are aligned. Recorded periodically. Thereafter, the process proceeds to step S 2 8 7, the control unit 1 1 9 1 only Inku decrements the variable N m, the process returns to step S 2 8 2, below, it is repeated the same process.
  • step S283 when it is determined in step S283 that the metadata is not supplied to the memory 117, that is, the supply of the metadata from the data conversion unit 118 to the memory controller 116 is stopped. In this case, the process proceeds to step S288, where the control unit 119 reads all the metadata remaining in the memory 117 by controlling the memory controller 116, and stores the metadata in the memory 117.
  • the controller 1 16 supplies the signal to the signal processor 1 15, which controls the recording so that the meta-annulus data of an integral multiple of the ECC block is recorded in the integral multiple of the ECC blocks. I do.
  • step S 2 8 the control unit 1 1 9, the variable N m, and sets a value that equivalent to infinity, and ends the metadata recording task.
  • the audio file recording task, video file recording task, audio recording data recording task, and metadata recording task are processed, and the audio file, video file, metadata, and low resolution data are recorded on the optical disc 7. Is done.
  • the audio annulus data is collection of audio Huai Le of similar reproduction time zone of the video file or The image and the annual ring data, which are the data, are sequentially recorded so as to be arranged at adjacent positions on the optical disk 7.
  • low-resolution annual ring data which is a collection of low-resolution data during the same playback time zone
  • metadata annual ring data which is a collection of metadata
  • the width of the annual ring formed on the optical disc 7 (how many tracks of one audio annual ring data or image annual ring data are recorded) is determined by the audio annual ring size T sa and the image annual ring size T sv Is determined by The audio annual ring size T sa and the image annual ring size T sv can be changed according to the radial position of the optical disk 7 that records the audio annual ring data and the image annual ring data. Depending on the audio annual ring size T sa and the image annual ring size T sv , there is a case where less than one round of the track force for recording one audio annual ring data or image annual ring data occurs.
  • the audio annual ring data and the image annual ring data in the same playback time zone are recorded at close positions on the optical disk 7, so that the audio file and the video file having the same playback time can be read from the optical disk 7. It is possible to read out and play back quickly.
  • the audio file and the video file are the annual ring data for the data amount of multiple ECC blocks, and are recorded in the multiple ECC blocks so that the boundary of the annual ring data and the boundary of the ECC block match. Therefore, it is possible to read out only the audio file or the video file from the optical disc 7, and as a result, it is possible to quickly perform the editing process on only the audio file or the video file.
  • the header, body, and footer are recorded in the ECC block for each header, body, and footer. That is, header, body, And neither of the footers and footers are recorded.
  • each of the judgment processing results in the same annual playback of audio annual ring data, image annual ring data, low-resolution annual ring data, and meta annual ring data. It is periodically recorded on the optical disc 7 in the order of the annual ring data, the low-resolution annual ring data, and the meta annual ring data.
  • the priority when recording the audio annual ring data, the image annual ring data, the low-resolution annual ring data, and the meta annual ring data on the optical disk 7 is as described above, the audio annual ring data, the image annual ring data, the low-resolution annual ring data, the meta annual ring data It is not limited to the order of.
  • the priority when recording on the optical disk 7 can be in the order of meta annual ring data, audio annual ring data, image annual ring data, and low-resolution annual ring data. Then, by reading data from the memory 117, voice annual ring data, image annual ring data, low-resolution annual ring data, and meta annual ring data are extracted, and these audio annual ring data, image annual ring data, low-resolution annual ring data, and meta annual ring data are extracted.
  • the process of composing (extracting) annual ring data will be further described with reference to FIGS.
  • Figure 41 shows the total data volume of audio files stored in memory 1 17 TJP2004 / 008403
  • Total data volume L a video file total data volume Lv, low-resolution data total data volume Ll, metadata total data volume Lm, and the relationship between time (playback time) t .
  • small arrows indicating the vertical direction on the right side indicate the data amount of the ECC block. Is represented.
  • the memory controller 1 1 6 the audio file necessary for reproducing the reproduction time T sa XN a is stored in the memory 1 1 7, the ECC Proc that can be read back from the memory 1 1 7 The audio file with the maximum data amount of an integral multiple is read out, and the audio file with the maximum data amount of an integral multiple of the ECC block is extracted as voice annual ring data.
  • the memory controller 1 16 The video file with the data amount is read, and the video file with the maximum data amount that is an integral multiple of the ECC block is extracted as image annual ring data.
  • the memory controller 116 can operate at a maximum of an integral multiple of the ECC block that can be read from the memory 117.
  • the low-resolution data with the maximum data amount is read, and the low-resolution data with the maximum data amount of an integral multiple of the ECC block is extracted as the low-resolution annual ring data.
  • the memory controller 1 16 sets an integer multiple of the ECC block that can be read from the memory 117.
  • the metadata with the maximum data amount is read out, and the metadata with the maximum data amount that is an integral multiple of the ECC block is extracted as meta-annual data.
  • the memory controller 116 when the total data amount La of the audio files stored in the memory 117 changes, the memory controller 116, as shown in FIG.
  • T sa l, 2, , ⁇
  • one ECC block, two ECC blocks, and one ECC block Blocks and audio files for two ECC blocks are extracted as voice ring data # 1, # 2, # 3, and # 4.
  • the memory controller 116 when the total data amount LV of the video file stored in the memory 117 changes, the memory controller 116, as shown in FIG. At the timing when the time is an integer multiple of the image annual ring size T sv 'i XT sv , the video file with the maximum data amount of the integral multiple of the ECC block that can be read from the memory 117 is read, and the ECC The video file with the maximum data amount that is an integral multiple of the block is extracted as image annual ring data.
  • the image annual ring data # 1, # 2, # 3, # 4 is extracted and stored in the memory 1 17. The remaining data, the fraction, is included in the next annual ring.
  • time t is, at the timing when the i XT sl is an integer multiple of the low-resolution annulus size T sl, an integral multiple of an ECC block which can be read from the memory 1 1 7
  • the low-resolution data with the maximum data amount is read out, and the low-resolution data with the maximum data amount that is an integral multiple of the ECC block is extracted as the low-resolution annual ring data.
  • the time t is T sl and the low resolution data for three ECC blocks at the timing of 2 XT S1 are the low resolution annual ring data # 1, respectively. , # 2
  • the low-resolution annual ring data # 1, # 2 is extracted, and the fraction that is the data remaining in the memory 117 is included in the next annual ring.
  • the memory controller 116 when the total data amount Lm of the metadata stored in the memory 117 changes, the memory controller 116, as shown in FIG. At the timing when the time t becomes i XT sm which is an integer multiple of the meta annual ring size T sm , the metadata of the maximum data amount of the integer multiple of the ECC block that can be read from the memory 117 is read out, and the Metadata with the maximum data amount that is an integral multiple of the ECC block is extracted as metaannual data.
  • the metadata for one ECC block is the meta-annual data # 1, # 2 Each is extracted as.
  • T sm , 2 XT sm , the meta-annulus data # 1, # 2 is extracted, and the fraction that is the data remaining in the memory 117 is included in the next annual ring. .
  • the audio annual ring size T sa shown in Fig. 42 the image annual ring size T sv shown in Fig. 43 , the low resolution annual ring size T sl shown in Fig. 44, and the meta annual ring size T shown in Fig. 45
  • the image annual ring size T sv is equal to the audio annual ring size T sa
  • the low res annual ring size T sl and the meta annual ring size T sm are equal to twice the audio annual ring size T sa
  • the voice ring data # 1 to # 4 in Fig. 42, the image ring data # 1 to # 4 in Fig. 43, the low-resolution ring data # 1 and # 2 in Fig. 44, and the meta-ring data in Fig. 45 # 1 and # 2 are periodically recorded on the optical disk 7, as shown in FIG.
  • the audio annulus data, the image annulus data, the low res annulus Data is recorded in a position earlier than the optical disk 7 in the order of priority in the order of meta-ring data.
  • the image annual ring data having the same image annual ring size T sv as the audio annual ring size T sa is recorded on the optical disk 7 at the same period as the audio annual ring data. Is done. That is, if the audio annual ring data of a certain reproduction time zone is recorded, the image annual ring data of the same reproduction time zone as the reproduction time zone is recorded following the audio annual ring data.
  • a low-resolution annual ring size T sl which is twice as large as the audio annual ring size T sa is recorded on the optical disk 7 at a cycle twice that of the audio annual ring data. That is, for low-resolution ring-ring data in a certain playback time zone, there are two sets of voice-ring data in the playback time zone that divide the playback time zone into two, and the voice-ring growth data in the two playback time zones was recorded. Will be recorded later.
  • the meta-annulus of the meta-annulus size T sm which is twice as large as the audio annual-ring size T sa is recorded on the optical disk 7 also at twice the cycle of the audio annual-ring data.
  • meta-annual ring data in a certain playback time zone there are two sets of audio year-ring data in the playback time zone that divide the playback time zone into two, and the audio annual ring data in the two playback time zones was recorded. Will be recorded later.
  • the audio annual ring size T sa , the image annual ring size T sv , the low res annual ring size T sl , and the meta annual ring size T sm can all be set to the same time or all different times, for example. It is. Further, the audio annual ring size T sa , the image annual ring size T sv , the low resolution annual ring size T sl , and the meta annual ring size T sm can be set, for example, according to the use or purpose of the optical disc 7.
  • the low res annual ring size T sl and the meta annual ring size T sm can be larger than the audio annual ring size T sa and the image annual ring size T sv , for example.
  • the resolution annulus size T sl when the audio annulus size T sa and video annual size T sv by Rimodai (e.g., while the audio annulus size T sa and video annual size T sv is 2 seconds, the low-resolution For example, when the annual ring size T sl is set to 10 seconds), for example, it is possible to improve the shuttle reproduction speed by low resolution data and the transfer speed of low resolution data to an external device such as a computer.
  • the low-resolution data since the low-resolution data has a smaller data amount than the main line data, the reading from the optical disk 7 can be performed in a short time, and the processing load is small, so that the low-resolution data is used for variable-speed reproduction such as shuttle reproduction. be able to. If the low-resolution annual ring size T sl is increased, the frequency of seeks that occurs when only low-resolution data is read from the optical disk 7 can be reduced, so that only low-resolution data is read from the optical disk 7. This can be performed in a shorter time, and the speed of the shuttle reproduction can be improved when performing the shuttle reproduction using the mouth resolution data. Furthermore, transfer the low resolution data to a computer, etc. 04 008403
  • the transfer speed can be improved (the transfer time can be shortened).
  • the meta annual ring size T s is larger than the audio annual ring size T sa and the image annual ring size T sv (for example, while the audio annual ring size T sa and the image annual ring size T sv are 2 seconds
  • the meta annual ring size T sra is set to 20 seconds
  • only the metadata can be read from the optical disc 7 in a short time as in the case where the low resolution annual ring size T sl is increased. Therefore, for example, using a time code included in the metadata, it is possible to search for a specific frame of a video file that is main line data at a high speed.
  • the audio annual ring size T sa and the image annual ring size T sv are large, the audio file of the large audio annual ring size T sa or the image annual ring size T sv One of the video files must be read, and then the other must be read, which increases the time it takes for the video file at a certain playback time to be aligned with the audio file attached to the video file. However, the delay time from when the playback is commanded to when the playback is actually started increases.
  • the audio file of the large audio annual ring size Tsa or the video file of the image annual ring size Tsv is played first.
  • the one that is read out in the memory must be stored in the memory 117 at least until the reading out of the one that is read out later is started. From the above, if the audio annual ring size T sa and the image annual ring size T sv are large, the delay time until playback starts is large, and a large capacity memory is required as memory 117 .
  • the volume of low-resolution data and metadata is sufficiently small compared to audio and video files, even if the low-resolution tree ring size T sl ⁇ the meta-annular size T sm is large, the voice tree ring size T sa and image tree ring As compared with the case where the size Tsv is increased, the increase in the capacity required for the memory 117 is not so problematic.
  • the priorities for recording on the optical disk 7 can be meta annual ring data, audio annual ring data, image annual ring data, and low-resolution annual ring data.
  • meta-annual data # 1 and # 2 audio annulus data # 1 and # 2, image annulus data # 1 and # 4, and low-resolution annulus data # 1 and # 2 are, for example, as shown in Fig. 47.
  • meta-annual data # 1 audio annulus data # 1, image annulus data # 1, low-resolution annulus data # 1, meta annulus data # 2, audio annulus data # 2.
  • Image annual ring data # 2, low-resolution annual ring data # 2 recorded in the following order: PC orchid 004/008403
  • FIG. 48 shows how data is read from and written to the optical disk 7 by the disk drive device 11.
  • FIG. 48 it is assumed that four data sequences of a metadata file, a video file, a video file, and low-resolution data are read from and written to the optical disc 7.
  • meta-annual data # 1 audio annulus data # 1
  • image annulus data # 1 image annulus data # 1
  • low-resolution annulus data # 1 low-resolution annulus data # 1
  • image ring data # 2 and low-resolution ring data # 2 are referred to as ring data # 2.
  • Nth meta-ring data #N, voice ring data #N, image ring data #N, and low-resolution ring data #N is represented as annual ring data #N.
  • the metadata file and the video file are arranged in the order of the body, the footer, and the header. It is supplied to the disk drive device 11.
  • the audio file is obtained by supplying the value of the audio item of the body and the filler having the KLV structure to the disk drive device 11.
  • the footer is supplied to the disk drive device 11, and thereafter, the header and the The dio item key and the length are supplied to the disk drive unit 11.
  • the low-res file is supplied to the memory controller 116 in the order of the body, the footer, and the header.
  • the audio annual ring data, image annual ring data, low-resolution annual ring data, and meta-annular data extracted from the metadata, audio file, video file, and low-resolution data series are, as shown in Fig. 48, the body and footer data. Then, the data is written in the empty area on the optical disk 7 in the order of the header.
  • Fig. 13 is a flowchart of the metadata file generation process
  • Fig. 15 is a flowchart of the video file generation process
  • Fig. 16 is a flowchart of the audio file generation process
  • Fig. 32 is a flowchart of the low-resolution file synthesis process.
  • step S291 the control unit 119 of the disk drive device 11 records the metadata file, video file, audio file, and low resolution file body on the optical device 7, Proceed to step S292.
  • step S292 the control unit 119 determines whether the recording of the body of the metadata file, the video file, the audio file, and the low-resolution file has been completed, and determines that the recording of the body has not been completed. If it is determined, the process returns to step S291 to repeat the body recording process.
  • step S292 If it is determined in step S292 that the recording of the body has been completed, the process proceeds to step S293, and the control unit 119 transmits the metadata file, the video file, the audio file, and the low-resolution file. Record the footer on the optical disc 7 and proceed to step S294.
  • step S294 the control unit 119 determines whether or not the recording of the meta data file, the video file, the audio file, and the footer of the low resolution file has been completed, and the recording of the footer has been completed. If not, the process returns to step S293 and repeats the footer recording process.
  • step S294 If it is determined in step S294 that the recording of the footer has been completed, the process proceeds to step S295, and the control unit 119 controls the metadata file, the video file, the audio file, and the low-resolution file. Is recorded on the optical disc 7, and the recording process ends.
  • the header is recorded after the body and footer, so once processing of headers that include data that cannot be determined unless the body is determined, such as the playback time of time data or time code (TC), is performed once. Will be able to record.
  • TC time code
  • the header can be reliably recorded on the optical disc 7 following the body and the hook, in other words, at a position close to the body and the footer.
  • the memory controller 116 When reading a file from the optical disk 7, the header, body, and footer are sequentially sought, and the header, body, and footer are sequentially read. Further, in the present embodiment, the memory controller 116 has an integral multiple of the unit of reading and writing of the ECC block or the like at every integer multiple of the voice annual ring size Tsa.
  • the audio annual ring data is extracted by reading the audio file with the maximum amount of data that can be read from the memory 7 .
  • the memory 11 When an audio file with a data size larger than N ECC blocks but smaller than N + 1 ECC blocks is stored, an audio file with the data size of N ECC blocks is was to be extracted as, other its, for example, after an integral multiple of the time of the audio annulus size T sa, N + 1 pieces of Eau the ECC block or the data amount O files waiting to be stored in the memory 1 1 7, by reading the audio files of the data amount (N + 1) ECC proc can be adapted to extract the audio annulus data.
  • Metadata all its components are included in meta-annual data, and only some of them are included in meta-annual data, and other components are recorded separately from meta-annual data. It is possible to do so.
  • the components that can be used for searching for frames of a video file such as time code
  • the other components can be used for searching.
  • all the constituent elements may be collectively recorded on the inner peripheral side of the optical disc 7 or the like.
  • all components of the metadata need to be stored until the recording of the data series other than the metadata is completed.
  • the components of the metadata are all recorded on the optical disc 7 together. In comparison, shorten the waiting time for recording of data series other than metadata, or reduce the amount of metadata data that needs to be stored until recording of data series other than metadata is completed. Can be.
  • the present invention can be applied to a disc-shaped recording medium other than an optical disc.
  • each track is continuous from the inner track to the adjacent outer track.
  • FIG. 50 illustrates a configuration example of the independent Z standard conversion unit 22 of FIG.
  • the buffer 301 stores the files in the AV independent format supplied from the disk drive device 11 (Fig. 1) (master files, metadata files in units of files, metadata files in units of frames, audio files, video files). Temporarily stores the file, the audio file for each of the eight channels, and the low-resolution file.
  • the file acquisition unit 302 refers to the master file stored in the buffer 301, and generates a metadata file for each file, a metadata file for each frame, an audio file, a video file, and eight channels. Recognizes and recognizes the file names of audio files and low-resolution files, and based on the file names, metadata files for each file, metadata files for each frame, audio files, video files, 8 channels each The audio file and the low-resolution file are obtained by causing the disk drive device 11 to read out from the optical disk 7 via the buffer 301. Further, the file acquisition unit 302 sends the acquired metadata file in file units and the acquired metadata file in frame units to the metadata file processing unit 303, and the audio file to the audio file processing unit 300. 4, the video file is supplied to the video file processing section 305, and the audio file of each of the eight channels is supplied to the audio file processing section 306. The file acquisition unit 302 supplies the low resolution file to the buffer 309. '
  • the metadata file processing unit 303 extracts the file-based metadata from the file-based metadata file supplied from the file acquisition unit 302, and extracts the frame-based metadata file from the frame-based metadata file.
  • the system item in which the metadata is arranged is extracted and supplied to the data synthesizing unit 307.
  • the file storage unit 304 is supplied from the file acquisition unit 302. 8403
  • the auxiliaries item is extracted from the auxiliaries file and supplied to the data synthesizing unit 307.
  • the video file processing unit 304 extracts a picture item from the video file supplied from the file acquisition unit 302 and supplies the picture item to the data synthesizing unit 307.
  • the audio file processing unit 105 extracts the audio data of each channel from the audio files of each of the eight channels supplied from the file acquisition unit 302, and further multiplexes the audio data of each channel.
  • the arranged sound items are configured and supplied to the data synthesizing unit 307.
  • the data synthesizing unit 307 includes the file-based metadata and system items supplied from the metadata file processing unit 303 and the audio file items supplied from the audio file processing unit 304. Using the picture items supplied from the video file processing unit 305 and the sound items supplied from the audio file processing unit 306, a standard AV multiplex format file is constructed.
  • Supply 8
  • the buffer 308 temporarily stores the standard AV multiplex format file supplied from the data synthesizing unit 307 or the low-resolution file supplied from the file acquiring unit 302, and stores the communication I / F 13 (see FIG. 1) to supply.
  • FIG. 51 shows a configuration example of the video file processing unit 305 in FIG.
  • the video file supplied from the file acquisition unit 302 is supplied to the header Z footer removal unit 311.
  • the header / footer removing unit 311 removes the header and the footer from the video file supplied thereto, and supplies the remaining body to the disassembling unit 312.
  • the decomposing unit 312 separates the sequence of picture items arranged in the body supplied from the header / footer removing unit 311 from the other items (system items, sound items, and auxiliaries) from the sequence. In this case, each picture item in which video data in a frame unit is arranged is extracted and supplied to the data synthesizing unit 307 (FIG. 50).
  • FIG. 52 shows a configuration example of the audio file processing section 310 of FIG.
  • the audio files for each of the eight channels supplied from the file acquisition unit 302 are supplied to the header / footer removal unit 3221.
  • the header Z footer removing unit 3221 removes the header and the footer from the audio file of each of the eight channels supplied thereto, and supplies the body of each remaining channel to the KLV decoder 3222.
  • the KLV decoder 3 2 2 decomposes the KLV structure of the body of each channel supplied from the header Z footer removal section 3 2 1 and converts the WAVE format audio data of each channel obtained by this into a data conversion section 3 2 Supply to 3.
  • the data conversion section 32 3 performs the reverse conversion processing on the audio data supplied from the KLV decoder 3 22 as in the data conversion section 63 of FIG. That is, the data conversion section 3 2 3 converts the audio data of each channel in the WAVE format supplied from the KLV decoder 3 2 2 into the audio data of each channel in the AES3 format, and outputs the data to the channel multiplexing section 3 2.
  • Supply 4
  • the channel multiplexing unit 324 multiplexes the audio data of each channel supplied from the data conversion unit 124 on a sample basis and supplies the resulting multiplexed audio data to the KLV encoder 325 .
  • the KLV encoder 325 divides the multiplexed audio data supplied from the channel multiplexing section 324 into units corresponding to each frame of the video data, and multiplexes the multiplexed audio data corresponding to each frame into a KLV. KLV coding the structure.
  • the KLV encoder 325 adds a filler KLV structure that is less than the data length of the fixed-length sound item to the KLV structure of the multiplexed audio data corresponding to each frame.
  • the sound item is constructed and supplied to the data synthesizing section 307 (FIG. 50).
  • FIG. 53 shows a configuration example of the data synthesizing unit 307 of FIG.
  • the metadata file processing unit 303 outputs to the header / footer generation unit 331.
  • File-based metadata is supplied.
  • the header / footer generation unit 3311 generates a header and a footer of the file in the standard AV multiplex format, and further, in the header metadata of the header, the file unit from the metadata file processing unit 303.
  • the metadata is arranged, and its header and footer are supplied to the header / footer adding unit 3333.
  • the multiplexing unit 332 includes a system item output by the metadata file processing unit 303, an audio item output by the audio file processing unit 304, and a video file processing unit 300. Are supplied, and a sound item output by the audio file processing unit 306 is supplied.
  • the multiplexing section 332 forms an edit unit sequence by sequentially multiplexing the system items, picture items, sound items, and accessory items supplied thereto in that order, and forms an edit unit sequence.
  • the unit sequence is supplied as a body to the header Z footer addition section 3 3 3. '
  • the header / hook addition section 3 3 3 adds the header and footer supplied from the header / footer generation section 3 3 1 to the body supplied from the multiplexing section 3 3 2, thereby providing standard AV multiplexing. Compose and output a formatted file.
  • the independent / standard conversion unit 22 shown in FIG. 50 performs metadata file processing for processing metadata files, audio file processing for processing audio files, and video files for processing video files. Processing, audio file processing for processing audio files, and synthesis processing for synthesizing (generating) a file in standard AV multiplex format using these processing results.
  • Metadata file processing is performed, for example, by using the optical drive It starts when the master file is read from disk 7 and stored in buffer 301.
  • step S301 the file acquisition unit 302 refers to the master file stored in the buffer 301 to determine the file name of the metadata file for each file and frame. Recognize. Further, in step S301, the file acquisition unit 302 stores the metadata file for each file and each frame on the disk drive device 11 via the buffer 301 based on the file name. 7 to be obtained by being read, and supplied to the metadata file processing unit 303, and the process proceeds to step S302.
  • the metadata file processing unit 303 extracts the file-by-file metadata from the file-by-file metadata file supplied from the file acquisition unit 302, and also generates the frame-by-frame metadata. A system item in which metadata in units of frames is arranged is extracted from the data file and supplied to the data synthesizing unit 307, and the metadata file processing ends.
  • the audio file processing is started, for example, when the master file is read from the optical disk 7 by the disk drive device 11 and stored in the buffer 301.
  • step S 311 the file acquiring unit 302 recognizes the file name of the auxiliary file by referring to the master file stored in the buffer 301. Further, in step S 311, based on the file name, the file acquisition section 302 causes the disk drive device 11 to read the auxiliary file from the optical disk 7 via the buffer 301. Then, it is supplied to the auxiliary file processing unit 304 and the process proceeds to step S312.
  • step S312 the remote file processing unit 304 obtains a file.
  • the XuXuary items are extracted (acquired) from the OxuZuary file, and the data synthesis unit 3 0 7 to complete the file processing.
  • the video file processing will be described with reference to the flowchart in FIG.
  • the video file processing is started when, for example, the optical disk or the master file is read out by the disk drive device 11 and stored in the buffer 301.
  • step S321 the file acquiring section 302 recognizes the file name of the video file by referring to the master file stored in the buffer 301. Further, in step S321, the file acquisition unit 302 causes the disk drive device 11 to read the video file from the optical disk 7 via the buffer 301 based on the file name. The data is obtained and supplied to the video file processing unit 305, and the process proceeds to step S322.
  • step S322 the header and footer removal section 311 of the video file processing section 30.5 (FIG. 51) removes the header and footer from the video file supplied from the file acquisition section 302. Then, the body remaining as a result is supplied to the disassembly unit 312, and the process proceeds to step S32.
  • step S332 the decomposing unit 312 decomposes the sequence of picture items arranged in the body supplied from the header / footer removing unit 311 into individual picture items, and 3 0 7 to end the video file processing.
  • the audio file processing is started, for example, when the master file is read from the optical disk 7 by the disk drive device 11 and stored in the buffer 3.
  • step S331 the file acquisition unit 302 By referring to the master file stored in the buffer 301, the file names of the audio files of each of the eight channels are recognized. Further, in step S331, the file acquisition unit 302 reads the audio files of each of the eight channels from the optical disk 7 to the disk drive device 11 via the buffer 301 based on the file name. Then, it is supplied to the audio file processing unit 306, and the process proceeds to step S332.
  • step S 3 32 the header / footer removal section 3 2 1 of the audio file processing section 106 (FIG. 52) and the header file from the audio file of each of the eight channels supplied from the file acquisition section 302 are used. Then, the body of each remaining channel is supplied to the KLV decoder 3222, and the flow advances to step S333.
  • step S3333 the KLV decoder 3222 decomposes the KLV structure of the body of each channel supplied from the header / footer remover 3221 and obtains the WAVE format of each channel obtained by this. This audio data is supplied to the data conversion section 3 23, and the flow advances to step S 3 34.
  • step S3334 the data conversion unit 3233 converts the audio data of each channel in the WAVE format supplied from the KLV decoder 322 into audio data of each channel in the AES3 format, and the channel multiplexing unit. 3 2 4 and go to step S 3 35.
  • step S335 the channel multiplexing unit 324 multiplexes the audio data of each channel supplied from the data conversion unit 124, and multiplexes the resulting multiplexed audio data with the KLV encoder 32. 5 and proceed to step S336.
  • step S336 the KLV encoder 325 splits the multiplexed audio data supplied from the channel multiplexing unit 324 into units corresponding to each frame of video data, and KLV coding of the multiplexed audio data to be performed into the KLV structure, and the process proceeds to step S337. Further, in step S337, the KLV encoder 325 adds the necessary filler KLV structure to the multiplexed audio data KLV structure corresponding to each frame, thereby obtaining a sound.
  • the item is configured and supplied to the data synthesizing unit 307, and the audio file processing ends.
  • metadata and system items in units of files are supplied from the metadata file processing unit 303, and the optional file items are supplied from the auxiliary file processing unit 304.
  • the process starts when a picture item is supplied from the video file processing unit 305 and a sound item is supplied from the audio file processing unit 306.
  • step S341 a header and a footer of a standard AV multiplex format file are generated by generating a header Z footer generating unit 331 of the data synthesizing unit 300 (FIG. 53).
  • the metadata of each file from the metadata file processing unit 303 is arranged in the header metadata of the header.
  • step S3341 the header Z footer generation unit 331 supplies the header and footer obtained as described above to the header Z footer addition unit 333. Proceed to step S3 42.
  • step S3342 the multiplexing unit 3332 powers the system item output by the metadata file processing unit 303, the audio file output by the audio file processing unit 304, and the video file processing.
  • the picture item output by the unit 305 and the sound item output by the audio file processing unit 306 are multiplexed, and the edit unit sequence obtained as a result of the multiplexing is used as a body as a header / footer adding unit 3 3 3 and go to step S 3 4 3.
  • step S3343 the header / footer adding section 333 adds the header and footer supplied from the header / footer generating section 331 to the body supplied from the multiplexing section 332. Is added, whereby a file in the standard AV multiplex format is constructed and output, and the synthesizing process is completed.
  • the dubbing process is a process of playing the read audio or image while reading the recorded audio or image, and recording another audio or other image synchronized with the reproduced audio or image.
  • a recorded image is read out, the read out image is reproduced, and another sound synchronized with the reproduced image is recorded.
  • the recorded audio is read, the read audio is reproduced, and another image synchronized with the reproduced audio is recorded.
  • the dubbing process is generally referred to as voice-over recording.
  • the post-recording process is also called post-recording or separate recording.
  • a process of reading another recorded voice or image while recording another voice or another image in synchronization with the read voice or image is referred to as a post-recording process.
  • the low-resolution data file recorded on the optical disk 7 is read out, and the low-resolution data reproduces the sound or image and the reproduced sound or image. Synchronized with, audio or image is acquired, and the acquired audio or video is recorded in an audio file or video file that is the main line data.
  • FIG. 59 is a diagram for explaining the after-recording process of the disk device 1.
  • the disk unit 1 reads from the optical disk 7 attached to the disk drive unit 1 1 an audio file that is the main line data specified as the recording destination and an image with the same contents.
  • a low-resolution data file storing low-resolution data, which is a data sequence of audio, is read as a background, and an image is reproduced based on the read low-resolution data file.
  • the low-resolution data is low-resolution data having the same content as at least one of video data and audio data, which are main line data, recorded on the optical disc 7. Since the audio data, which is the main line data to be recorded, is supplied, the disk device 1 acquires the supplied audio data and records it in the audio file specified as the recording destination.
  • the disk device 1 repeats the process of reading the low-resolution data file and the process of recording audio data in the audio file.
  • the process of reading a low-resolution data file and the process of recording audio data to an audio file are apparently performed simultaneously.
  • the disk device 1 when performing post-recording processing for recording video data, the disk device 1 has the same contents as the video file that is the main line data specified as the recording destination from the optical disk 7 mounted on the disk drive device 11.
  • the low-resolution data file storing the low-resolution data, which is a data sequence of the image and the audio, is read as a background, and the audio is reproduced based on the read low-resolution data file. Since the video data which is the main line data to be recorded is supplied, the disk device 1 acquires the supplied video data and records it on the video file designated as the recording destination.
  • the disk device 1 repeats the process of reading a low-resolution data file and the process of recording video data in a video file.
  • the process of reading the low-resolution data file and the process of recording the video data to the video file are apparently performed simultaneously.
  • the disk device 1 reads low-resolution data, which is low-resolution data having the same content as at least one of video data and audio data, which are main line data, recorded on the optical disk 7, and reads the low-resolution data onto the optical disk 7.
  • the supplied video data or audio data synchronized with at least one of video data and audio data which are already recorded main line data is recorded on the optical disc 7.
  • the data rate of reading / writing from / to the optical disk 7 of the disk device 1 is set to 72 Mbps (Mega bit per second), For example, about 5 Mbps can be adopted and the data rate of low-resolution data can be about 2 Mbps, for example.
  • the data rate had to be less than half of the data rate of the device, whereas in the disk device 1 of the present invention, such a restriction was imposed. And the data rate of the main line data can be made higher than the data rate of the device.
  • FIG. 60 is a flowchart for explaining the post-recording process for recording audio data.
  • the control unit 119 obtains the designation of the channel for recording the audio data based on the operation signal from the operation unit 120 and the like, and proceeds to step S366.
  • the channel designation may be for specifying an audio file already recorded on the optical disk 7 or for recording a new audio file.
  • step S366 the control unit 119 determines whether or not to start recording based on an operation signal from the operation unit 120 and the like. If it is determined that recording is not to be started, The determination process is repeated until it is determined that recording is to be started. If it is determined in step S366 that the recording is to be started, the process proceeds to step S366, where the control unit 119 controls the servo control unit 114 and the signal processing unit 115, and In the process of step S361, the mouth-res data, which is a data sequence of audio and video having the same contents as the audio file of the designated channel, is read from the optical disc 7, and the process proceeds to step S364.
  • step S366 the control unit 119 causes the signal processing unit 115 to read the master file recorded on the optical disc 7 and, based on the description of the master file, Identify the audio and video data series of audio and video data files with the same content as the audio file. Then, the control unit 119 controls the servo control unit 114 and the signal processing unit 115 to read the low-resolution data stored in the specified low-resolution data file.
  • the low-resolution data file contains the same low-resolution audio data as the audio file of the specified channel, and the same content as the video file related to the audio file of the specified channel. Since the low-resolution image data is multiplexed and stored, in step S366, the control unit 119 causes the low-resolution audio data and the low-resolution video data to be multiplexed.
  • the read low-resolution data is read from the optical disk 7. Since low-resolution audio data and video data are multiplexed in one low-resolution data, seek processing that is likely to occur when reading multiple files is reduced, and low-resolution audio data of a desired channel is reduced. And / or low-resolution video data.
  • step S364 the control unit 119 causes the signal processing unit 115 to reproduce the read low-resolution data file, thereby reproducing an image, and proceeds to step S365.
  • step S365 the control section 119 causes the reproduced image to be output to the format conversion section 12 via the memory controller 116 and the data conversion section 118, and the control section 119 performs step S3. 6 Proceed to 6.
  • the reproduced image is output via the format conversion unit 12 and the communication I / F 13, and the output image ), An image is displayed on the AV device 5 or the AV device 6.
  • step S366 the audio data to be recorded is transmitted via the network 4, so that the communication I / F 13 receives the transmitted audio data and sends the format data to the format converter 1 2
  • the received audio data is supplied to the disk drive device 11 via the.
  • the control unit 119 causes the data conversion unit 118 to acquire the supplied audio data via the format conversion unit 122, and proceeds to step S366.
  • step S366 the control unit 119 converts the audio data obtained in step S366 into the audio file of the channel specified in step S366 on the optical disc 7. Record and go to step S366. For example, if the channel is specified to specify an audio file already recorded on the optical disc 7, the processing of step S366 and the audio file recorded on the optical disc 7 is performed in step S366. The audio data acquired in the process of 366 is overwritten. For example, if the channel designation is to record a new audio file, a new audio file storing the acquired audio data is recorded on the optical disk 7 in the process of step S366. .
  • step S 367 Audio data is recorded in an audio file in the AV independent format. By doing so, processing such as seeking is reduced in recording, and audio data can be recorded more easily and more stably.
  • the control unit 119 determines whether or not to end the recording based on an operation signal from the operation unit 120 or the like. Returning to step S366, the above processing is repeated.
  • step S368 If it is determined in step S368 that the recording is to be ended, the audio data T / JP2004 / 008403
  • the dubbing process for recording the data ends.
  • the low-resolution data file storing the low-resolution data which is the data sequence of the image and sound having the same contents as the audio file, which is the main line data specified as the recording destination, is used as the base. And the image is reproduced based on the read low-resolution data file.
  • the audio data that is the main line data to be recorded is recorded in the audio file specified as the recording destination.
  • the process of reading low-resolution data in step S3663 and the process of recording audio data in step S366 are repeated.
  • FIG. 61 is a flowchart for explaining the after-recording process for recording video data.
  • the control unit 119 obtains the designation of a video file for recording video data based on an operation signal from the operation unit 120 and the like, and proceeds to step S382.
  • the channel designation may be for specifying a video file already recorded on the optical disc 7 or for recording a new video file (for example, when the target to be post-recorded is only audio).
  • the control unit 119 determines whether or not to start recording based on an operation signal or the like from the operation unit 120, and when it is determined not to start recording, The determination process is repeated until it is determined that recording is to be started.
  • step S383 the control unit 119 controls the servo control unit 114 and the signal processing unit 115, and
  • step S381 low-resolution data, which is a video and audio data sequence having the same contents as the specified video file, is read from the optical disk 7, and the flow advances to step S384.
  • step S383 for example, the control unit 119 causes the signal processing unit 115 to read the master file recorded on the optical disc 7, and, based on the description of the master file, specifies the specified video file. Identify a low-resolution data file of image and audio data series with the same contents as. Then, the control unit 119 controls the servo control unit 114 and the signal processing unit 115 so as to read the low-resolution data stored in the specified low-resolution data file.
  • step S384 the control unit 119 causes the signal processing unit 115 to reproduce the read low-resolution data file, thereby reproducing the sound, and proceeds to step S385.
  • step S385 the control unit 119 causes the reproduced voice to be output to the format conversion unit 12 via the memory controller 116 and the data conversion unit 118. 8 Proceed to 6.
  • the reproduced audio is output via the format conversion unit 12 and the communication I / F 13, and the output audio (signal) is converted into a sound wave by the AV device 5 or the AV device 6.
  • step S386 the video data to be recorded is transmitted via the network 4, so that the communication I / F 13 receives the transmitted video data and sends the format data to the format converter 12.
  • the received video data is supplied to the disk drive device 11 via the storage device.
  • the control unit 119 causes the data conversion unit 118 to acquire the supplied video data via the format conversion unit 122, and proceeds to step S388. '
  • step S387 the control unit 119 records the video data acquired in the process in step S386 on the optical disc 7 in the video file specified in the process in step S381, Proceed to step S3888.
  • the process of step S387 is performed to add the video file recorded on the optical disk 7 to the step S387.
  • the video data acquired in the process of S386 is overwritten.
  • the designation of the video file is to record a new video file, a new video file for storing the acquired video data is recorded on the optical disc 7 in the processing of steps S 387. .
  • step S 387 Since the video data converted into the AV independent format by the format conversion unit 12 is supplied to the disk drive device 11, the video data of the optical disk 7 is collectively arranged in step S 387.
  • the video data is recorded in an AV independent format video file. In this way, the recording process requires less processing, such as seeking, and is easier and more stable.
  • Video data can be recorded.
  • step S388 the control unit 119 determines whether or not to end the recording based on an operation signal from the operation unit 120 and the like. Returning to step S383, the above processing is repeated.
  • step S388 If it is determined in step S388 that the recording is to be ended, the after-recording process for recording the video data is ended.
  • the video file that is the main line data specified as the recording destination and the low-resolution data file that stores the low-resolution data that is the image and audio data series of the same contents are read as the background. Then, the audio is reproduced based on the readout mouth-res data file.
  • the video data that is the main line data to be recorded is recorded in the video file specified as the recording destination. The processing of reading the low-resolution data in step S3833 and the processing of recording the video data in step S388 are repeated.
  • reading low-resolution data and playing back low-resolution data images and recording main line audio data or reading low-resolution data and playing low-resolution data audio and recording main line video data were explained.
  • Reads the low-resolution data and plays back the low-resolution data image to record the main line video data or reads the low-resolution data and plays the low-resolution data audio to record the main line audio data. You may make it.
  • the low-resolution data may be read, the low-resolution data image and sound may be reproduced, and the main line video data and audio data may be recorded.
  • the data rate of reading and writing to the optical disk 7 of the disk device 1 is set to 72 Mbps (Megabits per second)
  • the data rate of the video data is set to, for example, about 50 Mbps
  • the audio data of one channel is set.
  • the data rate can be about 0.75 Mbps.
  • the data rate of audio data for all channels is about 6 Mbps.
  • the data rate of metadata is, for example, 2 Mbps
  • the data rate of low-resolution data can be, for example, about 2 Mbps.
  • the low-resolution data is read at 2 Mbps data.
  • a data rate of 56 Mbps is required for the rate and recording, and a total data rate of 56 Mbps is required, which is within the data rate of the disk unit 1 and sufficient Can be realized.
  • the metadata can be recorded, and the low-resolution data can be updated and recorded.
  • the low-resolution data when the low-resolution data is read, an image or a sound having the same content as the main line data can be reproduced based on the low-resolution data. Also, reading of low-resolution data having the same content as at least one of the first image data and the first audio data recorded on the recording medium is controlled, and the first image data and the first audio data are recorded on the recording medium. If the recording of the second image data or the second audio data synchronized with at least one of the audio data is controlled, the bit rate for reading from the recording medium or recording on the recording medium is controlled. Therefore, even if the bit rate of the first image data or the first audio data or the second image data or the second audio data to be recorded is high, Processing can be performed.
  • FIG. 62 shows a configuration example of an embodiment of a computer in which a program for executing the above-described series of processing is installed.
  • the program is stored on a hard disk as a recording medium built into the computer. Can be recorded in advance in the disk 405 or the ROM 403.
  • the program may be a removable recording medium such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), M0 (Magneto Optical) disk, DVD (Digital Versatile Disk), magnetic disk, or semiconductor memory. 1 can be temporarily or permanently stored (recorded).
  • a removable recording medium 411 can be provided as so-called package software.
  • the program can be installed on the computer from the removable recording medium 411 as described above, or transferred from the download site to the computer via digital satellite broadcasting artificial satellites, or transmitted over the LAN. (Local Area
  • Network via a network such as the Internet, and transmitted to the computer by wire, and the computer receives the transferred program in the communication section 408 and installs it on the built-in hard disk 405 be able to.
  • the computer has a built-in CPU (Central Processing Unit) 402.
  • CPU Central Processing Unit
  • the CPU 402 is connected to an input / output interface 410 via a bus 410, and the CPU 402 is connected to the keyboard and the like by the user via the input / output interface 410.
  • a command is input by operating the input unit 407 including a mouse, a microphone, and the like
  • a program stored in a ROM (Read Only Memory) 403 is executed according to the command.
  • the CPU 402 may execute a program stored in the hard disk 405, a program transferred from a satellite or a network, received by the communication unit 408, and installed in the hard disk 405, or
  • the program read from the removable recording medium 411 mounted on the drive 409 and installed on the hard disk 405 is loaded into a RAM (Random Access Memory) 404 and executed.
  • RAM Random Access Memory
  • the CPU 402 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. Then, the CPU 402 converts the processing result into If necessary, for example, output from an output unit 406 including an LCD (Liquid Crystal Display) or a speaker via the input / output interface 410, or transmission from the communication unit 408, In addition, record them on the hard disk 4 5.
  • an output unit 406 including an LCD (Liquid Crystal Display) or a speaker via the input / output interface 410
  • transmission from the communication unit 408 In addition, record them on the hard disk 4 5.
  • the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.
  • data is read from and written to the optical disk 7 in the disk device 1.
  • the data is not limited to a disk-shaped recording medium such as the optical disk 7, but may be a randomly accessible recording medium. If it is sufficient, for example, it is possible to read and write to a semiconductor memory or the like.
  • the disk drive 1, the format converter 12, and the communication I / F 13 constitute the disk drive 1 as one device.
  • the format conversion unit 12 and the communication I / F 13 can be configured as one independent device.
  • the bit rate of the data recorded on the recording medium or the data to be recorded is higher than the bit rate of reading from the recording medium or recording on the recording medium. Even after-recording processing can be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Systems (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本発明は、記録媒体からの読み出しまたは記録媒体への記録のビットレートに対して、記録媒体に記録されている、または記録しようとするデータのビットレートが高い場合であっても、アフレコの処理を実行することができるようにする。ステップS363において、制御部は、指定されたチャンネルのオーディオファイルと同一内容の音声および画像のデータ系列であるローレゾデータを光ディスクから読み出させる。ステップS367において、制御部は、取得されたオーディオデータを、光ディスク7の指定されたチャンネルのオーディオファイルに記録させる。本発明は、光ディスクにオーディオデータおよびビデオデータを記録するディスク装置に適用できる。

Description

W
1
明細書
記録装置および方法、 並び 技術分野
本発明は記録装置および方法、 並びにプログラムに関し、 特に、 いわゆる、 ァ フレコの処理を実行する記録装置および方法、 並びにプログラムに関する。 背景技術
記録されている音声または画像を読み出しながら、 読み出した音声または画像 を再生すると共に、 再生している音声または画像に同期する、 他の音声または他 の画像を記録する、 いわゆる、 アフレコの処理が、 映画や放送などの映像制作の 分野で利用されている。
また、 特開平 1 1一 1 3 6 6 0 9号公報において、 ナレーション等のオーディ ォ信号を光ディスクの内周側 A R Nに記録しながら、 編集リストに従って外周側 に記録したビデオ信号を再生するか、 又はナレーション等のオーディオ信号を一 且記憶手段を用いて編集しながらビデオ信号を光ディスクより再生して直接に又 は記憶手段を介して出力し、 その後この編集したオーディォ信号を光ディスクに 記録する事が開示されている。 '
しかしながら、 記録媒体に記録されている、 または記録しょうとするデータの ビットレートが高いと、 記録媒体の読み出しまたは記録のビットレートの制限に よって、 アフレコの処理を実行することができないことがあった。 また、 ァフレ コの処理を実行するためには、 ビデオ信号またはオーディオ信号を記憶する記憶 手段が必要とされる場合があった。 発明の開示
本発明はこのような状況に鑑みてなされたものであり、 記録媒体からの読み出 しまたは記録媒体への記録のビットレートに対して、 記録媒体に記録されている、 または記録しようとするデータのビットレートが高い場合であっても、 アフレコ の処理を実行することができるようにすることを目的とする。 さらに、 記憶手段 を設けずに、 アフレコの処理を実行することができるようにする。
本発明の第 1の記録装置は、 記録媒体に記録されている、 第 1の画像データお よび第 1の音声データの少なくとも一方と同一内容の低解像度データの読み出し を制御する読み出し制御手段と、 記録媒体への、 第 1の画像データおよび第 1の 音声データの少なくとも一方に同期する第 2の画像データまたは第 2の音声デー タの記録を制御する記録制御手段とを含むことを特徴とする。
読み出し制御手段は、 第 1の画像データと同一内容の低解像度画像データおよ び第 1の音声データと同一内容の低解像度音声データが多重化されている低解像 度データの読み出しを制御するようにすることができる。
記録制御手段は、 第 2の画像データを、 画像データがまとめて配置されている 第 1のファイルに記録するように記録を制御するか、 または第 2の音声データを、 音声データがまとめて配置されている第 2のフアイルに記録するように記録を制 御するようにすることができる。
記録媒体は、 光ディスクとすることができる。
記録媒体は、 半導体メモリとすることができる。
本発明の第 1の記録方法は、 記録媒体に記録されている、 第 1の画像データお よび第 1の音声データの少なくとも一方と.同一内容の低解像度データの読み出し を制御する読み出し制御ステップと、 記録媒体への、 第 1の画像データおよび第 1の音声データの少なくとも一方に同期する第 2の画像データまたは第 2の音声 データの記録を制御する記録制御ステップとを含むことを特徴とする。
本発明の第 1のプログラムは、 コンピュータに、 記録媒体に記録されている、 第 1の画像データおよび第 1の音声データの少なくとも一方と同一内容の低解像 度データの読み出しを制御する読み出し制御ステップと、 記録媒体への、 第 1の 画像データおよび第 1の音声データの少なくとも一方に同期する第 2の画像デー タまたは第 2の音声データの記録を制御する記録制御ステップとを実行させるこ とを特徴とする。
本発明の第 2の記録装置は、 第 1の画像データおよび低解像度画像データの読 み出しを制御する読み出し制御手段と、 第 1の画像データに同期して第 2の画像 データの記録を制御する記録制御手段とを備えることを特徴とする。
読み出し制御手段は、 第 1の画像データと同一内容の低解像度画像データおよ び音声データと同一内容の低解像度音声データが多重化されている低解像度デー タの読み出しを制御するようにすることができる。
記録制御手段は、 第 2の画像データを、 画像データがまとめて配置されている ファイルに記録するように記録を制御するようにすることができる。
記録媒体は、 光ディスクとすることができる。
記録媒体は、 半導体メモリとすることができる。
本発明の第 2の記録方法は、 第 1の画像データおよび低解像度画像データの読 み出しを制御する読み出し制御ステップと、 第 1の画像データに同期して第 2の 画像データの記録を制御する記録制御ステップとを含むことを特徴とする。 本発明の第 2のプログラムは、 コンピュータに、 第 1の画像データおよぴ低解 像度画像データの読み出しを制御する読み出し制御ステップと、 第 1の画像デー タに同期して第 2の画像データの記録を制御する記録制御ステップとを実行させ ることを特徴とする。
本発明の第 3の記録装置は、 第 1の音声データおよび低解像度音声データの読 み出しを制御する読み出し制御手段と、 第 1の音声データに同期して第 2の音声 データの記録を制御する記録制御手段とを備えることを特徴とする。
読み出し制御手段は、 第 1の音声データと同一内容の低解像度音声データおよ び画像データと同一内容の低解像度画像データが多重化されている低解像度デー タの読み出しを制御するようにすることができる。
記録制御手段は、 第 2の音声データを、 音声データがまとめて配置されている フアイルに記録するように記録を制御するようにすることができる。
記録媒体は、 光ディスクとすることができる。 記録媒体は、 半導体メモリとすることができる。 '
本発明の第 3の記録方法は、 第 1の音声データおよび低解像度音声データの読 み出しを制御する読み出し制御ステツプと、 第 1の音声データに同期して第 2の 音声データの記録を制御する記録制御ステップとを含むことを特徴とする。
本発明の第 3のプログラムは、 コンピュータに、 第 1の音声データおよび低解 像度音声データの読み出しを制御する読み出し制御ステップと、 第 1の音声デー タに同期して第 2の音声データの記録を制御する記録制御ステップとを実行させ ることを特徴とする。
本発明の第 1の記録装置および方法、 並びにプログラムにおいては、 記録媒体 に記録されている、 第 1の画像データおよび第 1の音声データの少なくとも一方 と同一内容の低解像度データが読み出され、 記録媒体に、 第 1の画像データおよ び第 1の音声データの少なくとも一方に同期する第 2の画像データまたは第 2の 音声データが記録される。 '
本発明の第 2の記録装置おょぴ方法、 並びにプログラムにおいては、 第 1の画 像データおよび低解像度画像データの読み出しが制御され、 第 1の画像データに 同期して第 2の画像データの記録が制御される。
本発明の第 3の記録装置および方法、 並びにプログラムにおいては、 第 1の音 声データおよぴ低解像度音声データの読み出しが制御され、 第 1の音声データに 同期して第 2の音声データの記録が制御される。
記録装置は、 独立した装置であっても良いし、 記録再生装置の記録処理を行う プロックであっても良い。 図面の簡単な説明
図 1は、 本発明を適用した AVネットワークシステムの一実施の形態の構成例 を示すプロック図である。
図 2は、 標準 AV多重フォーマットを示す図である。
図 3は、 AV独立フォーマットを示す図である。 04 008403
5
図 4は、 AV独立フォーマッ トを示す図である。
図 5は、 AV独立フォーマットを示す図である。
図 6は、 AV独立フォーマットを示す図である。
図 7は、 フォーマツト変換部の構成例を示すブロック図である。
図 8は、 標準/独立変換部の構成例を示すブロック図である。
図 9は、 ビデオファイル生成部の構成例を示すプロック図である。
図 1 0は、 オーディオファイル生成部の構成例を示すブロック図である。 図 1 1は、 マスタファイル生成処理を説明するフローチヤ一トである。
図 1 2は、 ファイル単位のメタデータファイル生成処理を説明するフローチヤ ートである。
図 1 3は、 フレーム単位のメタデータファイル生成処理を説明するフローチヤ ートである。
図 1 4は、 ォグジユアリファイル生成処理を説明するフローチヤ一トである。 図 1 5は、 ビデオファイル生成処理を説明するフローチャートである。
図 1 6は、 オーディオファイル生成処理を説明するフローチャートである。 図 1 7は、 ディスクドライブ装置の構成例を示すブロック図である。
図 1 8は、 データ変換部の構成例を示すブロック図である。
図 1 9は、 ローレゾデータファイルの構造を説明する図である。
図 2 0は、 ローレゾデータファイルの構造を説明する図である。
図 2 1は、 システムアイテムの構造を説明する図である。
図 2 2は、 ピクチャーエッセンスの構成を示す図である。
図 2 3は、 KLV構造を有するピクチャエッセンスのデータ量を説明する図であ る。
図 2 4は、 サウンドエッセンスの構成を示す図である。
図 2 5は、 ローレゾデータ生成部の構成を示すブロック図である。
図 2 6は、 ビデオファイル処理部の構成を説明するプロック図である。
図 2 7は、 オーディオファイル処理部の構成を説明するブロック図である。 図 2 8は、 データ合成部の構成を示すプロック図である。
図 2 9は、 ビデオファイルの処理を説明するフローチヤ一トである。
図 3 0は、 オーディオファイルの処理を説明するフローチヤ一トである。 図 3 1は、 メタデータファイルの処理を説明するフローチャートである。 図 3 2は、 ローレゾファイル合成の処理を説明するフローチャートである。 図 3 3は、 制御部による記録処理を説明するフローチャートである。
図 3 4は、 音声データ記録タスクを説明するフローチャートである。
図 3 5は、 音声データの通算データ量 L aと画像データの通算データ量 L の 変化を表す図である。
図 3 6は、 光ディスクにおける音声データおよび画像データの記録状態を表す 図である。
図 3 7は、 画像データ記録タスクを説明するフローチャートである。
図 3 8は、 音声データの通算データ量 L aと画像データの通算データ量 L Vの 変化を表す図である。
図 3 9は、 ローレゾデータ記録タスクを説明するフローチャートである。 図 4 0は、 メタデータ記録タスクを説明するフローチャートである。
図 4 1は、 メモリに記憶されるデータの通算データ量を示す図である。
図 4 2は、 メモリに記憶されるデータの通算データ量を示す図である。
図 4 3は、 メモリに記憶されるデータの通算データ量を示す図である。
図 4 4は、 メモリに記憶されるデータの通算データ量を示す図である。
図 4 5は、 メモリに記憶されるデータの通算データ量を示す図である。
図 4 6は、 光ディスクにおけるデータの記録状態を示す図である。
図 4 7は、 光ディスクにおけるデータの記録状態を示す図である。
図 4 8は、 光ディスクに記録されているデータを説明する図である。
図 4 9は、 記録の処理を説明するフローチャートである。
図 5 0は、 独立/標準変換部の構成例を示すブロック図である。
図 5 1は、 ビデオファイル処理部の構成例を示すブロック図である。 図 5 2は、 オーディオファイル処理部の構成例を示すプロック図である。
図 5 3は、 データ合成部の構成例を示すブロック図である。
図 5 4は、 メタデータファイル処理を説明するフローチヤ一トである。
図 5 5は、 ォグジユアリファイル処理を説明するフローチャートである。
図 5 6は、 ビデオファイル処理を説明するフローチャートである。
図 5 7は、 オーディオファイル処理を説明するフローチャートである。
図 5 8は、 合成処理を説明するフローチャートである。
図 5 9は、 ディスク装置のアフレコの処理を説明する図である。
図 6 0は、 オーディオデータを記録するアフレコの処理を説明するフローチヤ ートである。
図 6 1は、 ビデオデータを記録するアフレコの処理を説明するフローチャート である。
図 6 2は、 本発明を適用したコンピュータの一実施の形態の構成例を示すプロ ック図である。 発明を実施するための最良の形態
図 1は、 本発明を適用した AVネットワークシステム (システムとは、 複数の 装置が論理的に集合した物をいい、 各構成の装置が同一筐体中にあるか否かは問 わない) の一実施の形態の構成例を示している。
ディスク装置 1は、 ディスクドライブ装置 1 1、 フォーマット変換部 1 2、 お よび通信 I/F 1 3で構成され、 ネットワーク 4を介して伝送されてくる AVデー タのファイルを受信し、 光ディスク 7に記録し、 また、 光ディスク 7に記録され た AVデータのファイルを読み出し、 ネットワーク 4を介して伝送する。
即ち、 ディスクドライブ装置 1 1には、 光ディスク 7を着脱することができる ようになつている。 ディスクドライブ装置 1 1は、 そこに装着された光ディスク 7を駆動することにより、 フォーマッ ト変換部 1 2から供給される、 後述する AV独立フォーマッ トのファイルを光ディスク 7に記録し (書き込み) 、 また、 光ディスク 7から AV独立フォーマツトのファイルを読み出して、 フォーマツト 変換部 1 2に供給する。
フォーマツト変換部 1 2は、 ディスクドライブ装置 1 1から供給される AV独 立フォーマツトのファイルを、 標準 AV多重フォーマツトのファイルに変換し、 通信 I/F 1 3に供給する。 また、 フォーマット変換部 1 2は、 通信 I/F 1 3から 供給される標準 AV多重フォーマツトのファイルを、 AV独立フォーマツトのファ ィルに変換し、 ディスクドライブ装置 1 1に供給する。
標準 AV多重フォーマツトとして、 例えば、 MXF (Material eXchange Format) がある。
MXFは、 例えば、 異なる機種やメーカの放送機器どうしの間のファイル交換に 加えて、 ス トリーミングを考慮したフォーマットであり、 ビデオデータとオーデ ィォデータがフレームごと等の細かい単位で多重化されている。
通信 I/F 1 3は、 例えば、 IEEE (Inst itute of Electrical and El ectronics Engineers) 1394ポー卜や、 USB (Universal Serial Bus)ポー卜、 LAN (Local Area Network)接続用の NIC (Network Interface Card)、 あるいは、 アナログ モデムや、 TA (Terminal Adapter)および DSU (Di gi tal Service Unit) ,
ADSL (Asymmetric Digi tal Sub scriber Line)モデム等で構成され、 例えば、 ィ ンターネットゃイントラネット等のネットワーク 4を介して、 標準 AV多重フォ 一マッ トのファイルをやりとりする。 即ち、 通信 I/F 1 3は、 フォーマット変換 部 1 2から供給される標準 AV多重フォーマットのファイルを、 ネットワーク 4 を介して伝送し、 また、 ネットワーク 4を介して伝送されてくる標準 AV多重フ ォーマツトのファイルを受信して、 フォーマツト変換部 1 2に供給する。
以上のように構成されるディスク装置 1では、 通信 I/F 1 3が、 ネットワーク 4を介して伝送されてくる標準 AV多重フォーマツトのファイルを受信し、 フォ 一マット変換部 1 2に供給する。 フォーマット変換部 1 2は、 通信 I/F 1 3から の標準 AV多重フォーマツトのファイルを、 AV独立フォーマツトのファイルに変 換し、 ディスクドライブ装置 1 1に供給する。 そして、 ディスクドライブ装置 1 1は、 フォーマット変換部 1 2からの AV独立フォーマットのファイルを、 そこ に装着された光ディスク 7に記録する。
また、 ディスク装置 1では、 ディスクドライブ装置 1 1が、 そこに装着された 光ディスク 7から AV独立フォーマツトのファイルを読み出し、 フォーマツト変 換部 1 2に供給する。 フォーマッ ト変換部 1 2は、 ディスクドライブ装置 1 1力 らの AV独立フォーマツトのファイルを、 標準 AV多重フォーマツトのファイル に変換し、 通信 I/F 1 3に供給する。 そして、 通信 I/F 1 3は、 フォーマット変 換部 1 2からの標準 AV多重フォーマツトのファイルを、 ネットワーク 4を介し て伝送する。
ここで、 標準 AV多重フォーマットのファイルは、 例えば、 MXFの規格に準拠 したファイルであり、 ヘッダ、 ボディ、 フッタからなる。 そして、 標準 AV多重 フォーマットのファイルは、 MXFの規格に準拠したファイルであるから、 そのボ ディには、 AVデータであるビデオデータとオーディオデ タとが、 例えば、 1 フレーム単位で多重化されて配置されている。
図 1において、 ネットワーク 4に接続されている AV装置 5や 6は、 MXFの規 格に準拠したファイルを取り扱うことができる MXFの規格に準拠した装置であ り、 従って、 AV装置 5や 6は、 標準 AV多重フォーマットのファイルを、 ネット ワーク 4を介して、 ディスク装置 1に伝送することができる。 さらに、 AV装置 5や 6は、 ネットワーク 4を介して、 ディスク装置 1から伝送されてくる標準 AV多重フォーマットのファイルを受信することができる。 即ち、 ディスク装置 1と、 AV装置 5や 6との間では、 ネットワーク 4を介して、 標準 AV多重フォー マツトのファイルのファイル交換を行うことができる。 さらに、 AV装置 5や 6 は、 受信した標準 AV多重フォーマットのファイルを対象に、 そのストリーミン グ再生等の各種の処理を行うことができる。
ここで、 AV装置 5や 6のように、 現行の MXF の規格に準拠した装置を、 以下、 適宜、 標準装置という。
一方、 AV独立フォーマットのファイルは、 標準 AV多重フォーマットのフアイ ルと同様に、 ヘッダ、 ボディ、 フッタからなるが、 そのボディの形式だけは、 標 準 AV多重フォーマットとは異なるものとなっている。 即ち、 AV独立フォーマツ トのファイルでは、 ビデオデータとオーディオデータとが別々のファイルとされ ている。 そして、 ビデオデータのファイルであるビデオファイルは、 標準 AV多 重フォーマットのファイルと同一形式のヘッダとフッタを有するが、 そのボディ には、 ビデオデータがまとめて配置されている。 また、 オーディオデータのファ ィルであるオーディオファイルも、 標準 AV多重フォーマツトのファイルと同一 形式のヘッダとフッタを有するが、 そのボディには、 オーディオデータがまとめ て配置されている。
従って、 仮に、 ディスク装置 1から AV装置 5や 6に対して、 AV独立フォーマ ッ トのビデオファイルやオーディオファイルを伝送した場合、 標準装置である AV装置 5や 6では、 AV独立フォーマッ トに対応していない限り、 その AV独立 フォーマットのビデオファィルゃオーディオフアイルのボディに配置されたビデ ォデータやオーディオデータを极うことはできないが、 その AV独立フォーマツ トのビデオファイルやオーディオファイル自体を扱うことはできる。 即ち、 AV 独立フォーマツ トのビデオファイルやオーディオファイルは、 標準 AV多重フォ 一マッ トのファイルと同様に、 ヘッダ、 ポディ、 フッタで構成され、 そのヘッダ とフッタとして、 標準 AV多重フォーマツトのファイルと同一形式のものを採用 しているから、 そのボディの 「中身」 (ボディに配置されたデータ) を参照しな い限り、 AV独立フォーマツトのビデオファイルやオーディオファイル自体は、 標準 AVフォーマツトのファイルと等価である (標準 AVフォーマツトに準拠し たファイルになっている) 。 従って、 標準装置である AV装置 5や 6が、 AV独立 フォーマツトに対応していない場合であっても、 AV独立フォーマツトのビデオ ファイルやオーディォファイル自体を扱うことはできる。
即ち、 ディスク装置 1と、 標準装置である AV装置 5や 6との間においては、 AV独立フォーマツトのファイルのファイル交換だけであれば、 行うことが可能 である。 以上のように、 AV独立フォーマットのファイルは、 そのボディの 「中身」 を 参照しない限り、 標準 AV多重フォーマッ トのファイルと等価であり、 この観点 からは、 AV独立フォーマツトのファイルは、 標準 AV多重フォーマツ トのフアイ ルと互換性があるということができる。
次に、 図 1において、 ディスク装置 2には、 光ディスク 7を着脱することがで きるようになつている。 ディスク装置 2は、 例えば、 AV装置 5や 6と同様に、 標準装置であり、 そこに装着された光ディスク 7から、 AV独立フォーマットの ビデオファイルやオーディオファイルを読み出し、 編集装置 3に供給する。 即ち、 上述したように、 AV独立フォーマットのビデオファイルやオーディオ ファイルは、 そのボディの 「中身」 を参照しない限り、 標準 AV多重フォーマツ トのファイルと等価であるから、 標準装置であるディスク装置 2は、 光ディスク 7から、 AV独立フォーマツトのビデオファイルやオーディオファイルを読み出 すことができる。 '
編集装置 3は、 AV独立フォーマットのファイルを取り扱うことができる、 AV 独立フォーマットに対応した装置であり、 ディスク装置 2から供給される AV独 立フォーマットビデオファイルやオーディオファイルを対象に、 例えば、 AV独 立編集を行い、 その編集結果としての AV独立フォーマツトのビデオファイルや オーディオファイルを、 ディスク装置 2に供給する。
そして、 ディスク装置 2は、 そこに装着された光ディスク 7に、 編集装置 3か ら供給される AV独立フォーマツトのビデオファィルゃオーディオファィルを記 録する。
即ち、 上述したように、 AV独立フォーマットのビデオファイルやオーディオ ファイルは、 そのボディの 「中身」 を参照しない限り、 標準 AV多重フォーマツ トのファイルと等価であるから、 標準装置であるディスク装置 2は、 光ディスク 7に、 AV独立フォーマットのビデオファイルやオーディオファイルを記録する ことができる。
上述したように、 標準 AV多重フォーマットのファイルにおいては、 そのポデ 4 008403
12
ィに、 ビデオデータとオーディオデータとが、 例えば、 1フレーム単位で多重化 されて配置されているのに対して、 AV独立フォーマツトのビデオファイルゃォ 一ディォファイルにおいては、 そのボディに、 ビデオデータやオーディオデータ がまとめて配置されているので、 AV独立編集等の編集を容易に行うことができ る。 そして、 AV独立フォーマットのファイルは、 標準 AV多重フォーマットのフ アイルと同一形式のヘッダとフッタを有するから、 ボディの 「中身」 を参照しな い限り、 標準 AV多重フォーマットのファイルと互換性があり、 これにより、 標 準装置で扱うことができる。
次に、 図 2は、 標準 AV多重フォーマットの例を示している。
ここで、 図 2では、 ボディに配置されるビデオデータとオーディオデータとし て、 D10と呼ばれる MPEG (Moving Picture Experts Group) IMX方式で符号化 されたビデオデータと、 AES (Audio Engineering Society) 3开式の非圧縮のォ 一ディォデータを、 それぞれ採用した場合の標準 AV多重フォーマツトを示して いる。
なお、 ポディには、 その他、 DV (Digital Video)等の各種のフォーマットのビ デォデータとオーディオデータを配置することが可能である。
標準 AV多重フォーマットのファイルは、 その先頭から、 ヘッダ(Fi le
Header)ヽ ボディ(File Body)ヽ フッタ(Fi le Footer)が順次配置されて構成さ れる。
ヘッダには、 その先頭から、 ヘッダノ ーテイシヨンノヽ0ック(Header Partition Pack) N ヘッダメタデータ(Header Metadata)、 インデックステープノレ (Index Table)が順次配置される。 ヘッダパーティションパックには、 ヘッダを特定す るためのデータや、 ボディに配置されるデータの形式、 ファイルフォーマットを 表す情報などが配置される。 ヘッダメタデータには、 例えば、 ファイルの作成日 や、 ボディに配置されたデータに関する情報などのファイル単位のメタデータが 配置される。 インデックステーブルには、 ボディに配置される、 後述するエディ ットュニットの位置を表すテーブルが配置される。 ここで、 メタデータとしては、 ビデオファイルに対して、 フレームごと等に付 されるタイムコードや、 UMID (Uni que Material Identi fi er) , ビデオカメラに よる撮像が行われた位置を表す GPS (Global Posi t ioning System)の情報、 その 撮像が行われた日時 (年、 月、 日、 時、 分、 秒) 、 ARIB (As sociat ion of
Radio Industries and Businesses)メタデータ、 撮像力 S行われたビデオカメラ の設定ノ制御情報などがある。 なお、 ARIB メタデータとは、 ARIBで標準化され、 SDI (Serial Digital Interface)等の標準の通信インタフェースに重畳される メタデータである。 また、 ビデオカメラの設定/制御情報とは、 例えば、 IRIS (アイリス) 制御値や、 ホワイ トバランス /ブラックバランスのモード、 レンズ のズームやフォーカスなどに関するレンズ情報などである。
なお、 インデックステーブルは、 オプションであり、 ヘッダに含めても、 含め なくても良い。 また、 ヘッダには、 インデックステーブルの他、 種々のォプショ ンのデータを配置することができる。 '
また、 ヘッダパーティションパックに配置されるファイルフォーマツトを表す 情報としては、 標準 AV多重フォーマットのファイルでは、 標準 AV多重フォー マットを表す情報が採用されるが、 AV独立フォーマットのファイルでは、 AV独 立フォーマットを表す情報が採用される。 伹し、 ヘッダパーティションパックの 形式自体は、 標準 AV多重フォーマツトと AV独立フォーマツトにおいて同一で ある。
フッタは、 フッタパーテイションパック(Footer Partition Pack)で構成さ れ、 フッタパーティションパックには、 フッタを特定するためのデータなどが配 置される。
ボディは、 1以上のエディットュニット(Edit Unit)で構成される。 エディッ トユニットは、 1フレームの単位であり、 そこには、 1フレーム分の AVデータ その他が配置される。
即ち、 エディットユニットは、 その先頭から、 システムアイテム(Sytera Item)、 ピクチャアイテム(Pi cture Item)、 サウンドアイテム(Sound I tem) ォグジユアリアイテム(Auxi l iary Item)が配置されて構成される。
システムアイテムには、 その後段のピクチャアイテムに配置されるビデオデー タのフレームについてのメタデータ (フレーム単位のメタデータ) が配置される。 ここで、 フレーム単位のメタデータとしては、 例えば、 タイムコードなどがある。 ピクチャアイテムには、 1フレーム分のビデオデータが配置される。 図 2では、 上述した D10形式のビデオデータが配置される。
ここで、 ピクチャアイテムには、 1フレームのビデオデータが
KLV (Key, Length, Value)構造に KLVコーディングされて配置される。
KLV構造とは、 その先頭から、 キー(Key)、 レングス(Length)、 バリュー
(Value)が順次配置された構造であり、 キーには、 バリューに配置されるデータ がどのようなデータであるかを表す、 SMPTE 298Mの規格に準拠した 1 6バイ ト のラベルが配置される。 レングスには、 バリューに配置されるデータのデータ長 が配置される。 ノ リューには、 実データ、 即ち、 ここでは、 1フレームのビデオ データが配置される。
また、 ピクチャアイテムは、 そのデータ長が、 KAG (KLV Al ignment Grid)を 基準とする固定長となっている。 そして、 ピクチャアイテムを固定長とするのに、 スタッフィング(stuffing)のためのデータとしてのフィラー(Fi l ler)が、 やは り KLV構造とされて、 ピクチャアイテムのビデオデータの後に配置される。
なお、 ピクチャアイテムのデータ長である KAGを基準とする固定長は、 例え ば、 光ディスク 7のセクタ長の整数倍 (例えば、 5 1 2バイ トゃ 2 Kバイ トな ど) とされている。 この場合、 光ディスク 7とピクチャアイテムとの、 いわば親 和性が高くなり、 光ディスク 7に対するピクチャアイテムの読み書き処理の高速 化を図ることができる。
また、 上述のシステムアイテム、 並びに後述するサウンドアイテムおよぴォグ ジユアリアイテムにおいても、 ピクチャアイテムと同様に、 KLV構造が採用され ているとともに、 そのデータ長が KAGを基準とする固定長になっている。
サウンドアイテムには、 ピクチャアイテムに配置されたビデオデータのフレー ムにおける 1フレーム分のオーディオデータが、 上述のピクチャアイテムにおけ る場合と同様に KLV構造で配置される。
また、 サウンドアイテムには、 複数としての、 例えば 8チャネルのオーディオ データが多重化されて配置される。
即ち、 サウンドアイテムにおいて、 KLV構造のバリューには、 その先頭から、 エレメン卜ヘッダ EH (El ement Header) , オーディオサンプルカウント
ASC (Audio Sampl e Count)、 ストリームバリツドフラグ SVF (Stream Val i d Flags) , 多重化された 8チャネルのオーディオデータが順次配置される。
ここで、 サウンドアイテムにおいて、 8チャネルのオーディオデータは、 1フ レームにおける 8チャネルそれぞれのオーディオデータの第 1サンプル、 第 2サ ンプル、 ■ · · といった順番に、 オーディオデータのサンプルが配置されること により多重化されている。 図 2の最下部に示したオーディオデータにおいて、 括 弧付きで示してある数字は、 オーディオデータのサンプルが何サンプル目かを表 している。
また、 エレメントヘッダ EHには、 そのエレメントヘッダを特定するためのデ ータなどが配置される。 オーディオサンプルカウント ASCには、 サウンドアイ テムに配置されているオーディオデータのサンプル数が配置される。 ストリーム ノ リッドフラグ SVFは、 8ビッ ト (1バイ ト) のフラグで、 各ビッ トは、 その ビットに対応するチャネルのオーディオデータが有効か、 無効かを表す。 即ち、 ストリームバリ ッドフラグ SVFの各ビッ トは、 そのビットに対応するチャネル のオーディオデータが有効である場合に、 例えば 1とされ、 無効である場合に、 例えば 0とされる。
ォグジユアリアイテムには、 必要なユーザデータが配置される。 従って、 オダ ジユアリアイテムは、 ユーザが任意のデータを配置することができるエリァであ る。
以上のように、 標準 AV多重フォーマットでは、 フレーム単位のメタデータが 配置されるシステムアイテム、 ビデオデータが配置されるピクチャアイテム、 ォ JP2004/008403
16
一ディォデータが配置されるサウンドアイテム、 ユーザデータが配置されるォグ ジユアリアイテムが、 1フレーム単位で多重化されており、 さらに、 サウンドァ ィテムでは、 8チャネルのオーディオデータが、 1サンプル単位で多重化されて いる。
このため、 ビデオデータとオーディオデータが、 別々にまとめて配置されてい るファイルでは、 そのまとまったビデオデータのファイルとオーディォデータの フアイルをすべて受信してからでないと、 そのビデオデータおよびオーディォデ ータの再生を開始することができないが、 標準 AV多重フォーマットでは、 ビデ ォデータとオーディオデータとがフレーム単位で多重化されているため、 1フレ ーム分のビデオデータとオーディオデータを受信すれば、 そのフレームのビデオ データおよびオーディオデータを、 即座に再生することができる。 従って、 標準
AV多重フォーマツトは、 ストリーミングに適しているということができる。 以上のように、 標準 AVフォーマッ トは、 ビデオデータとオーディオデータと がフレーム単位で多重化されているので、 ス トリーミングには適している。 しか しながら、 その反面、 ビデオデータとオーディオデータそれぞれを別々に編集す る AV独立編集がしにくい。
さらに、 ファイル単位のメタデータも、 エディットユニッ トのシステムアイテ ムに散在しており、 編集時等において扱いにくい。
また、 標準 AVフォーマッ トで採用可能な AES3形式では、 オーディオデータ の 1サンプルに、 少なくとも 4バイトを割り当てる仕様になっており、 ファイル の全体の大きさが大になる。
そこで、 図 3は、 AV独立フォーマットの例を示している。
AV独立フォーマツトでは、 標準 AV多重フォーマツトにおいて多重化されてい るビデオデータ、 オーディオデータ、 ファイル単位のメタデータ、 ユーザデータ 力 それぞれまとめて配置されたファイルとされる。
即ち、 AV独立フォーマットでは、 標準 AV多重フォーマットにおいてビデオデ ータが配置されるピクチャアイテムがまとめてボディに配置され、 さらに、 その ボディに、 標準 AV多重フォーマツトと同一形式のヘッダとフックが付加されて、 ビデオファイルが構成される。
なお、 AV独立フォーマットのビデオファイルのボディには、 光ディスク 7の セクタ長の整数倍のピクチャアイテムがまとめて配置されているため、 そのポデ ィ全体の大きさも、 光ディスク 7のセクタ長の整数倍になっている。 即ち、 M 独立フォーマツトのビデオフアイノレのポディは、 セクタァラインメント(sector ali gnment)がとれた大きさとなっている。
さらに、 ビデオファイルのボディ全体の大きさは、 光ディスク 7の ECCプロ ック長の整数倍になっている。 後述するように、 ボディの最後のフイラ一は、 ビ デオフアイノレのボディ全体の大きさが、 光デ'イスク 7の ECC (Error Correct ion Code:誤り訂正符号)ブロック長の整数倍となるように、 その大きさが調整され ている。
ECCブロックは、 光ディスク 7の読み書きの単位となる、 ECC処理が施される 単位である。
なお、 セクタは、 光デイスク 7の物理的単位領域の一例であり、 ECCプロック は、 光ディスク 7の読み書きを行う単位の一例である。 また、 光ディスク 7の物 理的単位領域は、 例えば、 複数の固定数のセクタとすることが可能である。 光デ イスク 7の読み書きを行う単位は、 例えば、 複数の固定数の物理的単位領域とす ることが可能である。
ここで、 ECC処理は、 ·例えば、 後述する信号処理部 1 1 5で、 ECCブロック単 位で施される。 ECC ブロックは、 1以上の個数のセクタで構成することができる。 以下では、 1つのセクタを、 光ディスク 7の物理的単位領域とし、 1つの ECC ブロックを、 1以上のセクタからなる、 読み書きを行う単位として説明を行う。 また、 図 2では、 標準 AV多重フォーマッ トのファイルのヘッダに、 インデッ タステーブルを図示してあるが、 MXFでは、 上述したように、 インデックステー ブルはォプションであり、 図 3のビデオファイルでは (後述するオーディオファ ィルでも同様) 、 インデックステーブルを採用していない。 AV独立フィーマツトでは、 標準 AV多重フォーマツトにおいてサウンドアイテ ムに配置される、 多重化された 8チャンネルのオーディオデータを、 各チャンネ ルごとのオーディオデータに分離したものであって、 AES 3形式から WAVE形式に 変換したものが、 各チャネルごとのファイルのボディに、 KLV構造で配置され、 さらに、 そのボディに、 標準 AV多重フォーマットと同一形式のヘッダとフッタ が付加されて、 オーディオファイルが構成される。
即ち、 AV独立フォーマツトでは、 8チャンネルのオーディオデータについて、 各チャネルのオーディオファイルが、 独立に構成される。 各チャネルのオーディ ォファイルは、 そのチャネルのオーディオデータを VE形式にし、 かつまとめ て KLV構造化したものが、 ボディに配置され、 さらに、 そのボディに、 標準 AV 多重フォーマツトと同一形式のヘッダとフッタが付加されて構成される。
なお、 AV独立フォーマットのオーディオファイルのボディには、 上述したよ うに、 あるチャネルの WAVE形式のオーディオデータをま'とめて KLV構造化した ものが配置されるが、 このオーディオデータ全体の大きさが、 光ディスク 7の ECCブロック長の整数倍になるとは限らない。 そこで、 AV独立フォーマットの オーディオファイルのボディには、 KLV構造のオーディオデータの後に、 KLV構 造のフィラーが配置されると共に、 ヘッダの後およびフッタの後にフィラーが配 置される。
AV独立フォーマットでは、 以上のようなビデオファイル、 8チャネルそれぞ れごとのオーディォファイルの他、 標準 AV多重フォーマットにおいてヘッダメ タデータに配置されるファイル単位のメタデータがまとめて配置されたファイル 単位のメタデータファイルと、 標準 AV多重フォーマツトにおいてフレーム単位 のメタデータが配置されたシステムアイテムがまとめて配置されたフレーム単位 のメタデータファイルが構成される。 さらに、 AV独立フォーマットでは、 標準 AV多重フォーマツトにおいてユーザデータが配置されたォグジユアリアイテム がまとめて配置されたォグジユアリファイルが構成される。
そして、 AV独立フォーマットでは、 ビデオファイル、 8チャネルそれぞれご とのオーディオファイル、 フアイ/レ単位のメタデータフアイノレ、 フレーム単位の メタデータファイル、 ォグジユアリファイルそれぞれへのボインタが記述された マスタファイル(master Fi le)が構成される。
即ち、 マスタフアイノレは、 例えば、 XML (Extensibl e Markup Language)で記 述され、 そこには、 ビデオファイル、 8チャネルそれぞれごとのオーディオファ ィル、 フアイノレ単位のメタデータフアイノレ、 フレーム単位のメタデータファイル、 ォグジユアリファイルそれぞれへのポィンタとして、 例えば、 各ファイルのファ ィル名が記述される。
従って、 マスタフアイノレから、 ビデオファイル、 8チャネルそれぞれごとのォ 一ディオフアイノレ、 ファイル単位のメタデータファイル、 フレーム単位のメタデ ータファイル、 ォグジユアリファイルを参照することができる。
なお、 例えば、 ォグジユアリファイルは、 オプショナルなファイルとすること ができる。 '
また、 図 3では、 ファイル単位のメタデータファイル、 フレーム単位のメタデ ータファイル、 ォグジユアリファイルは、 標準 AV多重フォーマットと同一形式 のへッダとフッタを有していないが、 これらのフアイル単位のメタデータファィ ル、 フレーム単位のメタデータファイル、 ォグジユアリファイルも、 標準 AV多 重フォーマツトと同一形式のヘッダとフッタを付加して構成することができる。 さらに、 AV独立フォーマツトのビデオフアイノレとオーディオフアイルのへッ ダを構成するヘッダメタデータには、 最小セットのフアイル単位のメタデータが 配置される。
即ち、 AV独立フォーマッ トでは、 標準 AV多重フォーマッ トにおいてヘッダメ タデータに配置されるファイル単位のメタデータがまとめて配置されたファイル 単位のメタデータファイルが存在するので、 そのメタデータファイルに配置され るフアイノレ単位のメタデータを、 ビデオフアイ/レとオーディオフアイ/レのヘッダ を構成するヘッダメタデータに重複して配置するのは、 冗長であり、 また、 AV 独立フォーマツ トのファイル全体の大きさを大にすることになる。 4 008403
20
しかしながら、 MXFにおいて、 ヘッダメタデータは、 ヘッダに必須の項目であ り、 ヘッダメタデータをまったく配置せずにヘッダを構成したのでは、 そのへッ ダは、 標準 AV多重フォーマツトと同一形式のヘッダでなくなることとなる。 一方、 MXFにおいて、 ヘッダメタデータに配置すべきファイル単位のメタデー タには、 種々の項目があるが、 その項目の中には、 必須のものと、 オプショナル なものとがある。
そこで、 ファイルの大きさが大になるのを抑制するとともに、 標準 AV多重フ ォーマットとの互換性を維持するために、 AV独立フォーマツトのビデオフアイ ノレとオーディオファイルのヘッダを構成するヘッダメタデータには、 最小セット のファイル単位のメタデータ、 即ち、 MXFにおいて、 ヘッダメタデータに配置す ることが必須とされている項目のメタデータのみが配置される。
以上のように、 AV独立フォーマットでは、 ビデオデータがまとめてビデオフ アイルに配置されるとともに、 各チャネルのオーディオデータがまとめて、 その チャネルのオーディォファイルに配置されるので、 ビデオデータとオーディォデ ータそれぞれを別々に編集する AV独立編集などの編集を、 容易に行うことがで さる。
さらに、 AV独立フォーマットでは、 オーディオデータが、 WAVE形式とされる ので、 標準 AV独立フォー ットのように、 AES3形式のオーディオデータを採用 する場合に比較して、 データ量を小さくすることができる。 その結果、 AV独立 フォーマットのファイルを、 光ディスク 7等のストレージに記録する場合には、 標準 AV多重フォーマツトのファイルを記録する場合に比較して、 その記録に必 要なストレージの容量を抑制することができる。
また、 AV独立フォーマットのビデオファイルとオーディオファイルは、 標準 AV多重フォーマットのファイルと同様に、 先頭から、 ヘッダ、 ボディ、 フッタ が配置されて構成され、 さらに、 ヘッダとフッタは、 標準 AV多重フォーマット と同一形式のものであるので、 ディスク装置 1において、 AV独立フォーマット のビデオファイルやオーディオファイルを、 リムーバブルな光ディスク 7に記録 し、 その光ディスク 7を、 ディスク装置 2に装着した場合に、 ディスク装置 2力 標準装置 (MXFのファイルを极うことのできる装置) であれば、 光ディスク 7力 ら、 AV独立フォーマツトのビデオファイルやオーディオファイルを読み出すこ とができる。
さらに、 AV独立フォーマットでは、 ファイル単位のメタデータと、 フレーム 単位のメタデータとは、 それぞれ別々にまとめられ、 いずれも、 1つのファイル とされるので、 メタデータを使用した検索処理が容易となる。
図 4および図 5は、 AV独立フォーマツ トのビデオファイルのデータ量を説明 する図である。 図 4で示されるように、 AV独立フォーマッ トのビデオファイル のヘッダの後には、 フィラーが配置され、 ヘッダ全体の大きさは、 光ディスク 7 の ECCブロック長の整数倍とされる。 ビデオファイルのヘッダの境界が、 光デ イスク 7の ECCブロックの境界に一致するように、 ビデオファイルが光デイス ク 7に書き込まれる。 '
ビデオファイルのフッタの後には、 フィラーが配置され、 フッタ全体の大きさ は、 光ディスク 7の ECCブロック長の整数倍とされる。 ビデオファイルのフッ タの境界が、 光ディスク 7の ECCブロックの境界に一致するように、 ビデオフ アイルが光ディスク 7に書き込まれる。
ビデオファイルのボディ全体の大きさは、 光ディスク 7の ECCプロック長の 整数倍とされ、 ボディの境界が、 光ディスク 7の ECCブロックの境界に一致す るように、 ビデオファイルは、 光ディスク 7に書き込まれる。 さらに、 ボディの 各ピクチャアイテムおよびその後ろのフィラーは、 光ディスク 7のセクタ長の整 数倍になっている。 ピクチャアイテムの前側の境界が、 セクタの境界に一致し、 ピクチャアイテムに付されたフイラ一の後ろ側の境界が、 セクタの境界に一致す るように、 ビデオファイルが光ディスク 7に書き込まれる。
図 5で示されるように、 ボディ全体の大きさが、 光ディスク 7の ECCブロッ ク長の整数倍となるように、 ボディの最後のフイラ一は、 その大きさが調整され る。 ビデオファイルが光ディスク 7に書き込まれた場合、 ボディの最後のピクチ ャアイテムに付されたフイラ一の後ろ側の境界は、 ECCプロックの境界に一致す る。
図 6は、 AV独立フォーマツトのオーディオファイルのデータ量を説明する図 である。 オーディオファイルのヘッダ、 およびボディの KLV構造とされたォー ディォデータのキーおよびレングスの大きさが、 光ディスク 7の ECCブロック 長の整数倍となるように、 ヘッダの最後にフイラ一は、 その大きさが調整される。 オーディオファイルのヘッダの前側の境界が、 光ディスク 7の ECCブロックの 境界に一致するように、 光ディスク 7にオーディオファイルが書き込まれる。 ま た、 レングスの後ろ側の境界が、 光ディスク 7の ECCブロックの境界に一致す るように、 光ディスク 7にオーディオファイルが書き込まれる。
ボディの KLV構造とされたオーディオデータのバリユーおよびボディに付加 されている KLV構造とされたフィラーの大きさは、 光デ スク 7の ECCブロッ ク長の整数倍とされる。 ボディの後ろ側の境界が、 光ディスク 7の ECCプロッ クの境界に一致するように、 光ディスク 7にオーディオファイルが書き込まれる。 オーディオファイルのフッタの後には、 フィラーが配置され、 フッタ全体の大 きさは、 光ディスク 7の ECCプロック長の整数倍とされる。 オーディオフアイ ルのフッタの前後の境界が、 光ディスク 7の ECCプロックの境界に一致するよ うに、 光ディスク 7にオーディオファイルが書き込まれる。
次に、 図 7は、 図 1のディスク装置 1が有するフォーマット変換部 1 2の構成 例を示している。
フォーマツト変換部 1 2は、 標準 独立変換部 2 1と、 独立/標準変換部 2 2 とから構成されている。
標準/独立変換部 2 1は、 通信 I/F 1 3から供給される図 2の標準 AV多重フ ォーマットのファイルを、 図 3の AV独立フォーマットのファイルに変換し、 デ イスクドライプ装置 1 1に供給する。 独立 Z標準変換部 2 2は、 ディスクドライ ブ装置 1 1から供給される図 3の AV独立フォーマツトのファイルを、 図 2の標 準 AV多重フォーマツトのファイルに変換し、 通信 I/F 1 3に供給する。 次に、 図 8は、 図 7の標準/独立変換部 2 1の構成例を示している。
バッファ 3 1には、 通信 I/F 1 3から標準 AV多重フォーマツトのファイルが 供給されるようになっている。 バッファ 3 1は、 そこに供給される標準 AV多重 フォーマツ トのファイルを一時記憶する。
マスタファイル生成部 3 2は、 バッファ 3 1に、 標準 AV多重フォーマットの ファイルが記憶されると、 その標準 AV多重フォーマツトのファイルについて、 AV独立フォーマツトのマスタファイルを生成し、 バッファ 4 4に供給する。
へッダ取得部 3 3は、 バッファ 3 1に記憶された標準 AV多重フォーマットの ファイルからヘッダを抽出することで取得し、 そのヘッダを、 ヘッダメタデータ 抽出部 3 5に供給する。
ポディ取得部 3 4は、 バッファ 3 1に記憶された標準 AV多重フォーマットの ファイルからボディを抽出することで取得し、 そのボディを、 システムアイテム 処理部 3 6、 ォグジユアリアイテム抽出部 3 8、 ピクチャ'アイテム抽出部 4 0、 およびサウンドアイテム抽出部 4 2に供給する。
ヘッダメタデータ抽出部 3 5は、 ヘッダ取得部 3 3から供給されるヘッダから、 ヘッダメタデータを抽出し、 そのヘッダメタデータに配置されたファイル単位の メタデータを、 メタデータファイル生成部 3 7に供給する。 システムアイテム処 理部 3 6は、 ボディ取得部 3 4から供給されるボディの各エディツトュニットか ら、 フレーム単位のメタデータが配置されたシステムアイテムを抽出し、 メタデ 一タフアイル生成部 3 7に供給する。 メタデータフアイル生成部 3 7は、 へッダ メタデータ抽出部 3 5から供給されるファイル単位のメタデータを配置したファ ィル単位のメタデータファイルを生成するとともに、 システムアイテム処理部 3 6から供給される各エディットュエツトのシステムアイテムをまとめて (シーケ ンシャルに) 配置したフレーム単位のメタデータファイルを生成し、 そのフアイ ル単位とフレーム単位のメタデータファイルを、 バッファ 4 4に供給する。
ォグジユアリアイテム抽出部 3 8は、 ボディ取得部 3 4から供給されるボディ の各エディットュニットから、 フレーム単位のユーザデータが配置されたォグジ ユアリアイテムを抽出し、 ォグジユアリファイル生成部 3 9に供給する。 ォグジ ユアリファイル生成部 3 9は、 ォグジユアリアイテム抽出部 3 8から供給される 各エディットュ-ットのォグジユアリアイテムをまとめて配置したォグジユアリ ファイルを生成し、 バッファ 4 4に供給する。
ピクチャアイテム抽出部 4 0は、 ボディ取得部 3 4から供給されるボディの各 エディットユエットから、 フレーム単位のビデオデータが配置されたピクチャァ リアイテムを抽出し、 ビデオファイル生成部 4 1に供給する。 ビデオファイル生 成部 4 1は、 ピクチャアイテム抽出部 4 0から供給される各エディットュエツト のピクチャアイテムをまとめてボディに配置し、 さらに、 そのボディに、 標準 AV多重フォーマットのファイルと同一形式のへッダとフッタを付加したビデオ ファイルを生成し、 バッファ 4 4に供給する。
サウンドアイテム抽出部 4 2は、 ボディ取得部 3 4から供給されるボディの各 エディットユエットから、 フレーム単位のオーディオデ タが配置されたサゥン ドアイテムを抽出し、 オーディオファイル生成部 4 3に供給する。 オーディオフ アイル生成部 4 3は、 サウンドアイテム抽出部 4 2から供給される各エディット ュ-ットのサウンドアイテムに配置された各チャネルのオーディオデータを、 各 チャネルごとにまとめてボディに配置し、 さらに、 そのボディに、 標準 AV多重 フォーマットのファイルと同一形式のへッダとフッタを付加した各チヤネルごと のオーディオファイルを生成し、 バッファ 4 4に供給する。
バッファ 4 4は、 マスタファイル生成部 3 2から供給されるマスタファイル、 メタデータファイル生成部 3 7から供給されるファイル単位とフレーム単位それ ぞれのメタデータファイル、 才グジユアリフアイル生成部 3 9から供給されるォ グジユアリファイル、 ビデオファイル生成部 4 1から供給されるビデオファイル、 およびオーディオフアイル生成部 4 3から供給される各チャネルごとのオーディ ォファイルを一時記憶し、 それらのファイルを、 AV独立フォーマットのフアイ ルとして、 ディスクドライブ装置 1 1に供給する。
次に、 図 9は、 図 8のビデオファイル生成部 4 1の構成例を示している。 ピクチャアイテム抽出部 4 0から供給される各エディットュニットのピクチャ アイテムは、 結合部 5 1に供給される。 結合部 5 1は、 そこに供給される各ェデ イットュ-ットのピクチャアイテムを順次結合 (連結) し、 フッタ生成部 5 2に 供給する。 フッタ生成部 5 2は、 結合部 5 1から供給される、 各エディットュニ ットのピクチャアイテムが結合されたものをボディとして、 そのボディに付加す る、 標準 AV多重フォーマットのファイルと同一形式のフッタを生成する。 フッ タ生成部 5 2は、 フッタおよびボディをヘッダ生成部 5 3に供給する。
へッダ生成部 5 3は、 フッタ生成部 5 2はから供給されたフッタおよびボディ に付加する、 ヘッダを生成する。 ヘッダ生成部 5 3は、 ヘッダ、 ボディ、 および フッタをフイラ一生成部 5 4に供給する。
フィラー生成部 5 4は、 ヘッダに付加するフイラ一、 フッタに付加するフイラ 一を生成する。 さらに、 フィラー生成部 5 4は、 ボディの最後のフィラーを生成 する。 フィラー生成部 5 4の KLVエンコーダ 5 5は、 ボディの最後のフィラー を KLV構造にエンコードする。
フィラー生成部 5 4は、 フィラーを付加した、 ヘッダ、 ボディ、 およぴフッタ からなる AV独立フォーマツトのビデオファイルを構成して出力する。
フィラー生成部 5 4によって生成されたフイラ一を、 ビデオファイルにおける、 ヘッダ、 ボディ、 またはフッタに付加することにより、 ヘッダ、 ボディ、 および フッタのデータ量は、 光ディスク 7の ECCプロック長の整数倍に調整される。 このようにすることで、 ビデオファイルを光ディスク 7に書き込む場合、 ECC ブロックの一部にヘッダ、 ボディ、 またはフッタが記録されることが防止され、 ビデオファイルの読み書きをより効率良くできるようになる。
また、 ヘッダ、 ポディ、 およびフッタのそれぞれが、 光ディスク 7の ECCプ ロック長の整数倍なので、 ヘッダ、 ボディ、 およびフッタのそれぞれの境界が ECCブロックの境界に一致するように記録すれば、 ヘッダのみ、 ボディのみ、 ま たはフッタのみを書き込むか、 読み出す場合に、 最小の数の ECCブロックへの 書き込み、 または最小の数の ECC プロックからの読み出しで、 ヘッダ、 ボディ、 若しくはフッタを書き込むか、 または読み出すことができるようになる。 すなわ ち、 光ディスク 7への、 ビデオファイルの読み書きの処理をより効率良くできる ようになる。
次に、 図 1 0は、 図 8のオーディオファイル生成部 4 3の構成例を示している。 サウンドアイテム抽出部 4 2から供給される各エディットュニットのサウンド アイテムは、 KLVデコーダ 6 1に供給される。 KLVデコーダ 6 1は、 各エディッ トュエツトのサウンドアイテムに配置されたオーディオデータの KLV構造を分 解し、 その結果得られる、 8チャネルが多重化されたオーディオデータ (以下、 適宜、 多重化オーディオデータという) を、 チャネル分離部 6 2に供給する。 チャネル分離部 6 2は、 KLVデコーダ 6 1から供給される、 各サウンドアイテ ムごとの多重化オーディォデータから、 各チャネルのオーディォデータを分離し、 その各チャネルのオーディオデータを、 チャネルごとにまとめて、 データ変換部 6 3に供給する。 '
データ変換部 6 3は、 チャネル分離部 6 2から供給される各チャネルのオーデ ィォデータの符号化方式を変換する。 即ち、 標準 AV多重フォーマットでは、 ォ 一ディォデータは、 AES3形式で符号化されたものとなっているが、 AV独立フォ 一マツトでは、 オーディオデータは WAVE方式で符号化されたものとなっている。 このため、 データ変換部 6 3は、 チャネル分離部 6 2から供給される、 AES3方 式で符号化されたオーディオデータ (AES3方式のオーディオデータ) を、 WAVE 方式で符号化されたオーディオデータ (WAVE方式のオーディオデータ) に変換 する。
なお、 ここでは、 データ変換部 6 3において、 AES3方式のオーディオデータ を、 WAVE方式のオーディオデータに変換するようにしたが、 データ変換部 6 3 では、 オーディオデータを、 WAVE方式以外のオーディオデータに変換すること が可能である。 即ち、 データ変換部 6 3でのオーディオデータの変換は、 AES3 方式のオーディオデータのデータ量を抑制することを目的として行うものであり、 その目的を達成することができる符号化方式であれば、 データ変換部 6 3では、 どのような符号化方式を採用しても良い。
また、 オーディオデータのデータ量が問題とならない場合は、 オーディオファ ィル生成部 4 3は、 データ変換部 6 3を設けずに構成することが可能である。 データ変換部 6 3で得られた WAVE方式の各チャネルごとのオーディオデータ は、 KLVエンコーダ 6 4に供給される。 10^ェンコーダ6 4は、 データ変換部 6 3から供給されるチャネルごとにまとめられたオーディオデータそれぞれを、 KLV構造に KLVコーディングし、 ヘッダ生成部 6 5に供給する。
ヘッダ生成部 6 5は、 KLVエンコーダ 6 4から供給される各チャネルのオーデ ィォデータそれぞれをボディとして、 各チャネルのボディに付加する、 標準 AV 多重フォーマットのファイルと同一开式のヘッダを生成し、 ボディおよびヘッダ をフッタ生成部 6 6に供給する。
フッタ生成部 6 6は、 ボディに付加する、 標準 AV多重フォーマットのフアイ ルと同一形式のフッタを生成する。 フッタ生成部 6 6は、'ヘッダ、 フッタ、 およ びボディをフイラ一生成部 6 7に供給する。
フィラー生成部 6 7は、 ヘッダに付加するフイラ一、 ボディに付加するフイラ 一、 およびフッタに付加するフイラ一を生成する。 ここで、 フィラー生成部 6 7 は、 図 6で示されるように、 ヘッダおよび KLVエンコーダ 6 4に付加されたキ 一おょぴレングスのデータ量が、 ECC プロックのデータ量の整数倍となるように、 フィラーを生成して、 生成したフィラーをヘッダの後ろに付加する。 また、 フィ ラー生成部 6 7は、 図 6で示されるように、 フックのデータ量が、 ECCプロック のデータ量の整数倍となるように、 フィラーを生成して、 生成したフイラーをフ ッタの後ろに付加する。
フィラー生成部 6 7の KLVエンコーダ 6 8は、 ボディに付加するフイラ一を KLV 構造にエンコードする。 フィラー生成部 6 7は、 図 6で示されるように、 オーデ ィォデータのデータ量が、 ECCプロックのデータ量の整数倍となるように、 KLV 構造にェンコ一ドされたフィラーを生成して、 生成したフィラーをオーディオデ ータの後ろに付加する。 なお、 KLVエンコーダ 6 4およびヘッダ生成部 6 5は、 先頭データ生成部 7 1 を構成する。
このように、 フィラー生成部 5 4によって生成されたフイラ一を、 ヘッダ、 ォ 一ディォデータ、 またはフッタに付加することにより、 オーディオファイルにお ける、 ヘッダおよび KLVエンコーダ 6 4に付加されたキーおよびレングス、 ォ 一ディォデータ、 およびフッタのデータ量は、 光ディスク 7の ECCブロック長 の整数倍に調整される。
このようにすることで、 オーディオファイルを光ディスク 7に書き込む場合、 ECCブロックの一部にヘッダ、 ボディ、 またはフッタが記録されることが防止さ れ、 ビデオファイルの読み書きをより効率良くできるようになる。
また、 ヘッダおよび KLVエンコーダ 6 4に付加されたキーおよびレングス、 オーディォデータ、 並びにフッタのそれぞれが、 光ディスク 7の ECCプロック 長の整数倍なので、 ヘッダおよび KLVエンコーダ 6 4に付加されたキーおよび レングス、 オーディオデータ、 またはフッタのそれぞれの境界が ECCブロック の境界に一致するように記録すれば、 ヘッダおよび KLVエンコーダ 6 4に付加 されたキーおよびレングスのみ、 オーディオデータのみ、 またはフッタのみを書 き込むか、 読み出す場合に、 最小の数の ECCプロックへの書き込み、 または最 小の数の ECCブロックからの読み出しで、 ヘッダおょぴ KLVエンコーダ 6 4に 付加されたキーおよびレングス、 オーディオデータ、 若しくはフッタを書き込む 力 \ または読み出すことができるようになる。 すなわち、 光ディスク 7への、 ォ 一ディォファイルの読み書きの処理をより効率良くできるようになる。
次に、 図 8の標準/独立変換部 2 1では、 AV独立フォーマットのファイルと してのマスタファイルを生成するマスタファイル生成処理、 フアイノレ単位とフレ ーム単位のメタデータファイルそれぞれを生成するメタデータファイル生成処理、 ォグジユアリファイルを生成するォグジユアリファイル生成処理、 ビデオフアイ ルを生成するビデオファイル生成処理、 オーディオファイルを生成するオーディ オフアイル生成処理が行われる。 そこで、 図 1 1乃至図 1 3のフローチャートを参照して、 標準/独立変換部 2 1が行うマスタファイル生成処理、 メタデータファイル生成処理、 ォグジユアリ ファイル生成処理、 ビデオファイル生成処理、 およびオーディオファイル生成処 理について説明する。
まず最初に、 図 1 1のフローチャートを参照して、 マスタファイル生成処理に ついて説明する。
例えば、 ノ ッファ 3 1 (図 8 ) に、 標準 AVフォーマッ トのファイルが供給さ れて記憶されると、 マスタファイル生成処理が開始され、 まず最初に、 ステップ S 1において、 マスタファイル生成部 3 2 (図 8 ) は、 ファイル単位とフレーム 単位それぞれのメタデータファイル、 ォグジユアリファイル、 ビデオファイル、 各チャネルそれぞれのオーディォファイルのファイル名を生成し、 ステップ S 2 に進む。 ステップ S 2では、 マスタファイル生成部 3 2は、 ステップ S 1で生成 した各ファイル名のファイルへのリンクを、 XMLで記述したマスタファイルを生 成し、 バッファ 4 4に供給して記憶させ、 マスタファイル生成処理を終了する。 次に、 図 1 2のフローチャートを参照して、 ファイル単位のメタデータフアイ ルを生成するフアイル単位のメタデータフアイル生成処理について説明する。 例えば、 バッファ 3 1 (図 8 ) に、 標準 AVフォーマッ トのファイルが供給さ れて記憶されると、 ファイル単位のメタデータファイル生成処理が開始され、 ま ず最初に、 ステップ S 1 1において、 ヘッダ取得部 3 3は、 ノ ッファ 3 1に記憶 された標準 AVフォーマッ トのファイルからヘッダを取得し、 ヘッダメタデータ 抽出部 3 5に供給して、 ステップ S 1 2に進む。 ステップ S 1 2では、 ヘッダメ タデータ抽出部 3 5力 ヘッダ取得部 3 3から供給されるヘッダから、 ヘッダメ タデータを抽出し、 そのヘッダメタデータに配置されたファイル単位のメタデー タを、 メタデータファイル生成部 3 7に供給して、 ステップ S 1 3に進む。 ステ ップ S 1 3では、 メタデータファイル生成部 3 7が、 ヘッダメタデータ抽出部 3 5から供給されるファイル単位のメタデータを配置したファイル単位のメタデー タファイルを生成し、 バッファ 4 4に供給して記憶させ、 ファイル単位のメタデ T JP2004/008403
30
ータファイル生成処理を終了する。
次に、 図 1 3のフローチャートを参照して、 フレーム単位のメタデータフアイ ルを生成するフレーム単位のメタデータファイル生成処理について説明する。 例えば、 バッファ 3 1 (図 8 ) に、 標準 AVフォーマッ トのファイルが供給さ れて記憶されると、 フレーム単位のメタデータファイル生成処理が開始され、 ま ず最初に、 ステップ S 2 1において、 ボディ取得部 3 4は、 バッファ 3 1に記憶 された標準 AV多重フォーマツ トのファイルからボディを取得し、 システムアイ テム処理部 3 6に供給して、 ステップ S 2 2に進む。 ステップ S 2 2では、 シス テムアイテム処理部 3 6は、 ボディ取得部 3 4から供給されるボディの各エディ ットユニットから、 フレーム単位のメタデータが配置されたシステムアイテムを 抽出し、 メタデータファイル生成部 3 7に供給して、 ステップ S 2 3に進む。 ス テツプ S 2 3では、 メタデータファイル生成部 3 7は、 システムアイテム処理部 3 6から供給される各エディットュニットのシステムアイテムにフィラーを付加 して、 ステップ S 2 4に進む。
ステップ S 2 4では、 メタデータファイル生成部 3 7は、 フィラーが付加され たシステムアイテムを結合することにより、 その各エディットュ-ットのシステ ムアイテムまとめて配置したフレーム単位のメタデータファイルのボディを生成 して、 生成したボディをバッファ 4 4に供給して、 ステップ S 2 5に進む。 ステ ップ S 2 5では、 ノ ッファ 4 4は、 メタデータファイルのポディを出力し、 ステ ップ S 2 6に進む。
ステップ S 2 6では、 メタデータファイル生成部 3 7は、 フッタを生成して、 ステップ S 2 7に進む。 ステップ S 2 7では、 メタデータファイル生成部 3 7は、 フッタのフイラ一を生成して、 フィラーが付加されたフッタをバッファ 4 4に供 給して、 ステップ S 2 8に進む。 ステップ S 2 8において、 バッファ 4 4は、 フ ッタを出力して、 ステップ S 2 9に進む。
ステップ S 2 9において、 メタデータフアイル生成部 3 7は、 ヘッダを生成し て、 ステップ S 3 0に進む。 ステップ S 2 7では、 メタデータファイル生成部 3 7は、 ヘッダのフィラーを生成して、 フィラーが付加されたヘッダをバッファ 4 4に供給して、 ステップ S 3 1に進む。 ステップ S 3 1において、 バッファ 4 4 は、 ヘッダを出力して、 フレーム単位のメタデータファイル生成処理を終了する。 次に、 図 1 4のフローチャートを参照して、 ォグジユアリファイルを生成する ォグジユアリファイル生成処理について説明する。
例えば、 バッファ 3 1 (図 8 ) に、 標準 AVフォーマッ トのファイルが供給さ れて記憶されると、 ォグジユアリファイル生成処理が開始され、 まず最初に、 ス テツプ S 4 1において、 ボディ取得部 3 4は、 バッブァ 3 1に記憶された標準 AV多重フォーマツトのファイルからボディを取得し、 ォグジユアリアイテム柚 出部 3 8に供給して、 ステップ S 4 2に進む。 ステップ S 4 2では、 ォグジユア リアイテム抽出部 3 8は、 ボディ取得部 3 4から供給されるボディの各エディッ トュュットからォグジユアリアイテムを抽出し、 ォグジユアリファイル生成部 3 9に供給して、 ステップ S 4 3に進む。 ステップ S 4 3では、 ォグジユアリファ ィル生成部 3 9は、 ォグジユアリアイテム抽出部 3 8から供給される各エディッ トユニットのォグジユアリアイテムを結合することにより、 その各エディットュ ニットのォグジユアリアイテムまとめて配置したォグジユアリファイルを生成し、 バッファ 4 4に供給して記憶させ、 ォグジユアリファイル生成処理を終了する。 次に、 図 1 5のフローチャートを参照して、 ビデオフ了ィルを生成するビデオ ファイル生成処理について説明する。
例えば、 バッファ 3 1 (図 8 ) に、 標準 AVフォーマッ トのファイルが供給さ れて記憶されると、 ビデオファイル生成処理が開始され、 まず最初に、 ステップ S 5 1において、 ボディ取得部 3 4は、 ノ ッファ 3 1に記憶された標準 AV多重 フォーマツトのファイルからボディを取得し、 ピクチャアイテム抽出部 4 0に供 給して、 ステップ S 5 2に進む。 ステップ S 5 2では、 ピクチャアイテム抽出部 4 0は、 ボディ取得部 3 4から供給されるボディの各エディットユニットからピ クチャアイテムを抽出し、 ビデオファイル生成部 4 1に供給して、 ステップ S 5 3に進む。 ステップ S 5 3では、 ビデオファイル生成部 4 1 (図 9 ) において、 結合部 5 1が、 ピクチャアイテム抽出部 4 0から供給される各エディットュエツ トのピクチャアイテムを結合することにより、 その各エディットュエツトのピク チヤアイテムをまとめて配置したボディを生成して、 ステップ S 5 4に進む。 ステップ S 5 4では、 ビデオファイル生成部 4 1は、 結合したピクチャアイテ ムが最後のピクチャアイテムであるか否かを判定し、 最後のピクチャアイテムで ないと判定された場合、 ステップ S 5 5に進み、 生成したボディをバッファ 4 4 に出力して、 ステップ S 5 2に戻り、 上述した処理を繰り返す。 この場合、 フッ タ生成部 5 2、 ヘッダ生成部 5 3、 およぴフイラ一生成部 5 4は、 ボディをその まま通過させる。
ステップ S 5 4において、 最後のピクチャアイテムであると判定された場合、 ステップ S 5 6に進み、 ビデオファイル生成部 4 1 (図 9 ) において、 フィラー 生成部 5 4が、 KLV構造に変換されたときに、 ボディのデータ量が ECCブロック の整数倍となるようにデータ量が調整された、 最後のピクチャアイテムのフイラ 一を生成して、 ステップ S 5 7に進む。 ステップ S 5 7では、 KLVエンコーダ 5 5が、 最後のピクチャアイテムのフィラーを KLV構造に変換して、 ステップ S 5 8に進む。 ステップ S 5 8では、 ビデオファイル生成部 4 1力 KLV構造に変 換されたフィラーをボディとして、 出力して、 ステップ S 5 9に進む。
ステップ S 5 9では、 フッタ生成部 5 2力 フッタを生成して、 ステップ S 6 0に進む。 ステップ S 6 0では、 フィラー生成部 5 4が、 フッタのデータ量が ECCブロックの整数倍となるようにデータ量が調整された、 フッタのフイラ一を 生成して、 ステップ S 6 1に進む。 ステップ S 6 1では、 ビデオファイル生成部 4 1が、 フッタを出力して、 ステップ S 6 2に進む。
ステップ S 6 2では、 ヘッダ生成部 5 3が、 ヘッダを生成して、 ステップ S 6 3に進む。 ステップ S 6 3では、 フィラー生成部 5 4が、 ヘッダのデータ量が ECCブロックの整数倍となるようにデータ量が調整された、 ヘッダのフィラーを 生成して、 ステップ S 6 4に進む。 ステップ S 6 4では、 ビデオファイル生成部 4 1が、 ヘッダを出力して、 ビデオファイル生成処理を終了する。 このように、 ヘッダをボディおよびフッタの後に生成するようにしたので、 ビ デォデータの再生時間またはタイムコード (TC) などの、 ボディが確定しなけ れば決まらないデータを含むヘッダを 1度の処理で生成することができるように なる。
例えば、 最初にヘッダを生成すると、 ビデオデータの再生時間またはタイムコ ード (TC) などデータは、 ボディの生成が終了するまで確定しないので、 書き 込む事が出来ず、 ボディの生成が終了したとき、 再度、 ヘッダに再生時間または タイムコードなどを書き込まねばならず、 2度手間であった。 この場合、 光ディ スク 7などの記録媒体にビデオファイルを記録する場合、 ヘッダをシークする余 計な処理が発生することになるか、 または、 ヘッダのデータ量が確定しないので、 ヘッダの記録に要する領域の確保が困難になり、 時には、 光ディスク 7上におい て、 ヘッダがボディおよびフッタに対して離れた位置に記録されることになつて しまう場合がある。 '
ヘッダをボディおよびフッタの後に生成すれば、 このような重複する手間を省 いて、 ボディが確定しなければ決まらないデータを含むヘッダを 1度の処理で生 成することができるようになる。 また、 光ディスク 7などの記録媒体にビデオフ ァィルを記録する場合、 へッダをボディおよびフッタに続けて確実に記録するこ とができるようになる。 - 次に、 図 1 6のフローチャートを参照して、 オーディオファイルを生成するォ 一ディォファイル生成処理について説明する。
例えば、 ノ ッファ 3 1 (図 8 ) に、 標準 AVフォーマットのファイルが供給さ れて記憶されると、 オーディオファイル生成処理が開始され、 まず最初に、 ステ ップ S 7 1において、 ボディ取得部 3 4は、 バッファ 3 1に記憶された標準 AV 多重フォーマツトのファイルからボディを取得し、 サウンドアイテム抽出部 4 2 に供給して、 ステップ S 7 2に進む。 ステップ S 7 2では、 サウンドアイテム抽 出部 4 2は、 ボディ取得部 3 4から供給されるボディの各エディツトュエツトか らサウンドアイテムを抽出し、 オーディオファイル生成部 4 3に供給して、 ステ ップ S 7 3に進む。 ステップ S 7 3では、 オーディオファイル生成部 4 3 (図 1 0 ) において、 KLVデコーダ 6 1カ^ 各エディットユニットのサウンドアイテム に配置されたオーディオデータの KLV構造を分解し、 その結果得られる、 8チ ャネルが多重化されたオーディオデータ (多重化オーディオデータ) を、 チヤネ ル分離部 6 2に供給して、 ステップ S 7 4に進む。
ステップ S 7 4では、 チャネル分離部 6 2が、 KLVデコーダ 6 1から供給され る、 各サウンドアイテムごとの多重化オーディオデータから、 各チャネルの AES3形式のオーディォデータを分離し、 その各チャネルの AESI3形式のオーディ ォデータを、 チャネルごとにまとめて配置して、 データ変換部 6 3に供給する。 そして、 ステップ S 7 5に進み、 データ変換部 6 3は、 チャネル分離部 6 2か ら供給される各チャネルの AES3形式のオーディォデータを、 WAVE方式のオーデ ィォデータに変換し、 KLVエンコーダ 6 4に供給して、 ステップ S 7 6に進む。 ステップ S 7 6では、 1 ェンコーダ6 4が、 データ変換部 6 3から供給される チャネルごとにまとめられた WAVE形式のオーディォデータそれぞれを、 KLV構 造に KLVコーディングする。 これにより、 KLVエンコーダ 6 4は、 各チヤネノレの WAVE 形式のオーディオデータをまとめて配置した各チャネルのボディを生成し、 ステップ S 7 7に進む。
ステップ S 7 7では、 フィラー生成部 6 7が、 KLV構造とされたときに、 ォー ディォデータのデータ量が ECCブロックの整数倍となるようにデータ量が調整 された、 各チャンネルのボディのフィラーを生成して、 ステップ S 7 8に進む。 ステップ S 7 8では、 10^ェンコーダ6 8カ 各チャンネルのボディのフィラー のそれぞれを KLV構造に KLVコーディングして、 ステップ S 7 9に進む。 ステ ップ S 7 9では、 オーディオファイル生成部 4 3は、 各チャンネルのボディを出 力して、 ステップ S 8 0に進む。 各チャンネルのボディを出力する場合、 オーデ ィォデータのバリューおよび KLV構造のフィラーが出力され、 オーディオデー タのキーおよびレングスは出力されない。
ステップ S 8 0では、 フッタ生成部 6 6力 S、 各チャンネルのフッタを生成して、 ステップ S 8 1に進む。 ステップ S 8 1では、 フィラー生成部 6 7が、 フッタの データ量が ECCプロックの整数倍となるようにデータ量が調整された、 各チヤ ンネルのフッタのフイラ一を生成して、 ステップ S 8 2に進む。 ステップ S 8 2 では、 ビデオファイル生成部 4 1力 各チャンネルのフッタを出力して、 ステツ プ S 8 3に進む。
ステップ S 8 3では、 ヘッダ生成部 6 5が、 各チャンネルのヘッダを生成して、 ステップ S 8 4に進む。 ステップ S 8 4では、 フィラー生成部 5 4力 ヘッダ並 びにオーディオデータのキーおよびレングスのデータ量が ECCブロックの整数 倍となるようにデータ量が調整された、 各チャンネルのヘッダのフィラーを生成 して、 ステップ S 8 5に進む。 ステップ S 8 5では、 ビデオファイル生成部 4 1 力 各チャンネルのヘッダを出力して、 オーディオファイル生成処理を終了する。 ステップ S 8 5においては、 各チャンネノレのヘッダと共に、 オーディオデータの キーおよびレングスが出力される。 '
このように、 ヘッダをボディおよびフッタの後に生成するようにしたので、 ォ 一ディォデータの再生時間またはタイムコード (TC) などの、 ボディが確定し なければ決まらないデータを含むヘッダを 1度の処理で生成することができるよ うになる。
また、 光ディスク 7などの記録媒体にオーディオファイルを記録する場合、 へ ッダをボディおよびフッタに続けて確実に記録することができるようになる。 図 1 7は、 ディスクドライブ装置 1 1の一実施の形態の構成例を示している。 スピンドルモータ 1 1 1は、 サーポ制御部 1 1 4からのスピンドルモータ駆動 信号に基づいて、 光ディスク 7を CLV (Constant Linear Veloc ity)または
CAV (Constant Angular Ve loci ty)等で回転駆動する。
ピックアップ部 1 1 2は、 信号処理部 1 1 5から供給される記録信号に基づき レーザ光の出力を制御して、 光ディスク 7に記録信号を記録する。 ピックアップ 部 1 1 2はまた、 光ディスク 7にレーザ光を集光して照射するとともに、 光ディ スク 7からの反射光を光電変換して電流信号を生成し、 RF (Radio Frequency)ァ ンプ 1 1 3に供給する。 なお、 レーザ光の照射位置は、 サーポ制御部 1 1 4から ピックアップ部 1 1 2に供給されるサーボ信号により所定の位置に制御される。
RFアンプ 1 1 3は、 ピックアップ部 1 1 2からの電流信号に基づいて、 フォ 一カス誤差信号およびトラッキング誤差信号、 並びに再生信号を生成し、 トラッ キング誤差信号およびフォーカス誤差信号をサーボ制御部 1 1 4に供給し、 再生 信号を信号処理部 1 1 5に供給する。
サーボ制御部 1 1 4は、 フォーカスサーボ動作やトラッキングサーポ動作の制 御を行う。 具体的には、 サーポ制御部 1 1 4は、 RFアンプ 1 1 3からのフォー カス誤差信号と トラッキング誤差信号に基づいてフォーカスサーボ信号とトラッ キングサーポ信号をそれぞれ生成し、 ピックアップ部 1 1 2のァクチユエータ (図示せず) に供給する。 またサーポ制御部 1 1 4は、 スピンドルモータ 1 1 1 を駆動するスピンドルモータ駆動信号を生成して、 光ディスク 7を所定の回転速 度で回転させるスピンドルサーボ動作の制御を行う。 '
さらにサーポ制御部 1 1 4は、 ピックァップ部 1 1 2を光ディスク 7の径方向 に移動させてレーザ光の照射位置を変えるスレッ ド制御を行う。 なお、 光デイス ク 7の信号読み出し位置の設定は、 制御部 1 1 9によって行われ、 設定された読 み出し位置から信号を読み出すことができるようにピックアップ部 1 1 2の位置 が制御される。
信号処理部 1 1 5は、 メモリ コントローラ 1 1 6から入力される記録データを 変調して記録信号を生成し、 ピックアップ部 1 1 2に供給する。 信号処理部 1 1 5はまた、 RFアンプ 1 1 3からの再生信号を復調して再生データを生成し、 メ モリコントローラ 1 1 6に供給する。
メモリコントローラ 1 1 6は、 データ変換部 1 1 8からの記録データを、 後述 するように、 適宜、 メモリ 1 1 7に記憶するとともに、 それを読み出し、 信号処 理部 1 1 5に供給する。 メモリコントローラ 1 1 6はまた、 信号処理部 1 1 5か らの再生データを、 適宜、 メモリ 1 1 7に記憶するとともに、 それを読み出し、 データ変換部 1 1 8に供給する。 データ変換部 1 1 8は、 フォーマツト変換部 1 2から供給される、 AV独立フ ォーマツトのファイルから、 AV独立フォーマツトのフアイノレに含まれるデータ のデータ量を少なく したデータであるローレゾデータのファイルを生成し、 AV 独立フォーマツトのフアイノレと共にローレゾデータのフアイノレをメモリコント口 ーラ 1 1 6に供給する。
データ変換部 1 1 8はまた、 メモリコントローラ 1 1 6から供給される再生デ ータを、 フォーマット変換部 1 2に供給する。
制御部 1 1 9は、 操作部 1 2 0からの操作信号などに基づき、 サーボ制御部 1 1 4、 信号処理部 1 1 5、 メモリコントローラ 1 1 6、 およびデータ変換部 1 1 8を制御し、 記録再生処理を実行させる。
操作部 1 2 0は、 例えば、 ユーザによって操作され、 その操作に対応する操作 信号を、 制御部 1 1 9に供給する。
以上のように構成されるディスクドライブ装置 1 1では、 ユーザが操作部 1 2 0を操作することにより、 データの記録を指令すると、 フォーマット変換部 1 2 から供給されるデータが、 データ変換部 1 1 8、 メモリコントローラ 1 1 6、 信 号処理部 1 1 5、 およびピックアップ部 1 1 2を介して、 光ディスク 7に供給さ れて記録される。
また、 ユーザが操作部 1 2 0を操作することにより、 データの再生を指令する と、 光ディスク 7から、 ピックアップ部 1 1 2、 RFアンプ 1 1 3、 信号処理部 1 1 5、 メモリコントローラ 1 1 6、 およびデータ変換部 1 1 8を介して、 デー タが読み出されて再生され、 フォーマツト変換部 1 2に供給される。
次に、 図 1 8は、 図 1 7のデータ変換部 1 1 8の構成例を示している。
光ディスク 7へのデータの記録時には、 フォーマツト変換部 1 2から記録すベ き、 ビデオファイル、 オーディオファイル、 およびメタデータファイルからなる AV独立フォーマットのファイルが、 データ量検出部 1 4 1に供給される。
データ量検出部 1 4 1は、 フォーマツト変換部 1 2から供給されるビデオファ ィル、 オーディオファイル、 およびメタデータファイルを、 そのまま、 メモリコ JP2004/008403
38
ントローラ 1 1 6にそれぞれ供給するとともに、 そのビデオファイルとオーディ ォファイルのデータ量を検出し、 メモリコントローラ 1 1 6に供給する。 即ち、 データ量検出部 1 4 1は、 フォーマツト変換部 1 2から供給されるビデオフアイ ルとオーディオファイルそれぞれについて、 例えば、 所定の再生時間分のデータ 量を検出し、 メモリコントローラ 1 1 6に供給する。
ローレゾデータ生成部 1 4 2は、 そこに供給されるデータのデータ量を少なく したデータであるローレゾデータのデータ系列を生成し、 メモリコントローラ 1 1 6に供給する。 この場合、 ローレゾデータ生成部 1 4 2は、 ファイル形式とし たローレゾデータを出力する。 また、 ローレゾデータ生成部 1 4 2は、 ローレゾ ファイルの、 例えば、 所定の再生時間分のデータ量を検出し、 メモリ コントロー ラ 1 1 6に供給する。
以下、 ファイル形式のローレゾデータをローレゾデータファイルとも称する。 そして、 メモリコントローラ 1 1 6に供給されたビデオファイルとオーディオ ファイルは、 上述したようにして、 光ディスク 7に供給されて記録される。
ここで、 フォーマット変換部 1 2から供給されるビデオファイルおよびオーデ ィォファイルのデータ系列と、 ローレゾデータ生成部 1 4 2が出力するローレゾ データのデータ系列とは、 同一内容の画像および音声のデータ系列であるが、 フ ォーマツト変換部 1 2から供給されるビデオファイルおよびオーディオファイル は、 いわば本来的に、 ユーザに提供されるべきものであり、 このことから、 フォ 一マツト変換部 1 2から供給されるビデオファイルおよびオーディオファイルを、 以下、 適宜、 本線データという。
ローレゾデータは、 上述したように、 本線データと同一内容の画像および音声 のデータではあるが、 そのデータ量が少ない。 従って、 ある再生時間の再生を行 うとした場合、 ローレゾデータは、 本線データに比較して、 光ディスク 7から短 時間で読み出すことができる。
なお、 本糸泉データのデータレートとしては、 例えば、 2 5 Mbps (Mega bit per second)程度を採用することができる。 この場合、 ローレゾデータのデータレー トとしては、 例えば、 3 Mbps 程度を採用することができる。 さらに、 この場合、 メタデータのデータレートとして、 例えば、 2 Mbps程度を採用することとする と、 光ディスク 7に記録するデータ全体のデータレートは、 3 0 ( = 2 5 + 3 + 2 ) Mbps程度となる。 従って、 光ディスク 7 (をドライブするディスク ドライ ブ装置 1 1 ) としては、 例えば、 35Mbpsなどの記録レートを有する、 十分実用 範囲内のものを採用することが可能である。
以上のように、 図 1 6のデータ変換部 1 1 8では、 本線データ (ビデオフアイ ルぉよびオーディォファイル) のデータ系列の他、 メタデータとローレゾデータ のデータ系列も、 メモリコントローラ 1 1 6に供給される。 そして、 メモリコン トローラ 1 1 6に供給された本線データ、 メタデータ、 およびローレゾデータは、 光ディスク 7に供給されて記録される。
一方、 光ディスク 7からのデータの再生時においては、 光ディスク 7からビデ オフアイノレ、 オーディオフアイノレ、 メタデータフアイノレ、 およびローレゾデータ ファイルが読み出され、 フォーマツト変换部 1 2に供給される。
次に、 図 1 9乃至図 2 4を参照して、 ローレゾデータファイルの構造を説明す る。 図 1 9で示されるように、 ローレゾデータフアイルのへッダには、 ランイン
(Run In) 、 ヘッグノ ーテーショノ、 Λック (Header Partition Pack) 、 へッ ダメタデータ (Header Metadata) 、 インデックステーブル (Index Table) 、 およびフィラーが配置される。 ローレゾデータファイルのボディには、 エッセン スコンテナ (Essence Container) 力 ボディノ ーテーシヨンノヽ0ック (Body Partition Pack) により仕切られて、 配置される。
ローレゾデータフアイノレのフッタには、 フッタパーテーションパック
(Footter Part it ion Pack) およびヘッダーメタデータ (Header Metadata) が配置される。 フッタにおける、 ヘッダーメタデータは、 オプションである。 ローレゾデータフアイノレにおける、 ヘッダパーテーシヨンパック、 ヘッダメタ データ、 インデックステーブル、 およびフッタパ一テーシヨンパックは、 標準 AV多重フォーマツトのファイルの場合と同様なので、 その説明は省略する。 P T/JP2004/008403
40
ローレゾデータフアイノレのヘッダの大きさは、 光ディスク 7の ECCブロック 長の整数倍になっている。 ローレゾデータフアイルのボディに配置されている、 1組のボディパーテーションパックおよびエッセンスコンテナは、 光ディスク 7 の ECCブロック長の整数倍になっている。 ローレゾデータファイルのフッタの 大きさは、 光ディスク 7の ECCプロック長の整数倍になっている。
図 2 0は、 ローレゾデータファイルのボディに配置されている、 ボディパーテ ーションパックおよびエッセンスコンテナの構成を示す図である。 エッセンスコ ンテナには、 システムアイテム、 MPEG4エレメンタリストリーム方式のピクチャ 一エッセンス (ビデオデータ) 、 およびサウンドエッセンス (サウンドデータ) が格納されている。 システムアイテムとピクチャーエッセンスとの間には、 フィ ルアイテムが配置されている。 ボディパーテーシヨンパック、 システムアイテム、 フィ アイテム、 およびピクチャーエッセンスは、 光ディスク 7の ECCブロッ ク長の整数倍になっている。 '
サウンドエッセンスは、 4つに分割され、 それぞれに、 フィラーが付されてい る。 1組の分割されたサウンドエッセンスおよびこれに付されたフイラ一のデー タ量は、 光ディスク 7の ECCブロック長の 1/2になっている。 すなわち、 2組 の分割されたサウンドエッセンスとフィラーのデータ量は、 光ディスク 7の ECC プロック長に等しい。 従って、 1つのエッセンスコンテナにおける、 サウンドェ ッセンスとこれに付されたフイラ一のデータ量の全体は、 光ディスク 7の ECC ブロック長の 2倍である。
図 2 1は、 ヘッダのシステムアイテムおよびフィルアイテムの構成を示す図で ある。 システムアイテムには、 パッケージメタデータ (Package Metadata) が 格納されている。 フィルアイテムは、 KLV構造を有するフィラーからなる。
図 2 2は、 ピクチャーエッセンスの構成を示す図である。 ピクチャエッセンス は、 KLV構造を有する MPEG4エレメンタリス トリーム方式の画像データである。 すなわち、 総走査線数/フレームレートが 525/60 (59. 94) である画像データの 場合、 フレームレートが 24 (23. 97) のプログレッシブスキャン画像である画像 データの場合、 またはフレームレートが 60 (59. 94) のプログレッシブスキャン 画像である画像データの場合、 1つのエディットュニットのピクチャエッセンス には、 6つの GOV (Group of Vi deoObj ectPlane) が配置される。 一方、 総走査 線数/フレームレートが 625/50である画像データの場合、 1つのエディットュ ニッ トのピクチャエッセンスには、 5つの GOVが配置される。 1つの GOVに先 頭には、 フレーム内符号化された I- VOP (Intra Vi deo Object Plane) が配置 され、 その後ろには、 所定の数のフレーム間順方向予測符号化された P-V0P (Predicted Vi deo Obj ect Plane) が配置される。
図 2 3は、 KLV構造を有するピクチャエッセンスのデータ量を説明する図であ る。 総走査線数/フレームレートが 525/60 (59. 94) である画像データの場合、 バリューのデータ量は、 384000バイ ト (オクテット) であり、 すなわち、 1つ の GOVのデータ量は、 6400バイトとなる。 この場合、 1つの GOVには、 1 0フ レームの画像が格納される。 '
フレームレートが 24 (23. 97) のプログレッシブスキャン画像である画像デー タの場合、 バリューのデータ量は、 384000バイトであり、 すなわち、 1つの GOVのデータ量は、 6400パイ トとなる。 この場合、 1つの GOVには、 8フレー ムの画像が格納される。
フレームレートが 60 (59. 94) のプログレッシブスキャン画像である画像デー タの場合、 バリューのデータ量は、 384000バイ トであり、 すなわち、 1つの GOVのデータ量は、 6400バイ トとなる。 この場合、 1つの GOVには、 2 0フレ ームの画像が格納される。
総走査線数/フレームレートが 625/50である画像データの場合、 バリユーの データ量は、 384000バイトであり、 すなわち、 1つの GOVのデータ量は、 76800バイ トとなる。 この場合、 1つの GOVには、 1 0フレームの画像が格納さ れる。
図 2 4は、 サウンドエッセンスの構成を示す図である。 ローレゾデータフアイ ノレのサゥンドエッセンスは、 2チャンネノレの、 ITU-T (International Tel ecommuni cation Union, Telecommuni cation Standardizat ion Sector) G. 711の規格に基づいた方式のデータである。 サウンドエッセンスは、 4つに分 割され、 それぞれが、 KLV構造とされる。 そして、 KLV構造とされた、 分割され ているデータのそれぞれに、 KLV構造とされたフィラーが付されている。
バリューには、 2チャンネルのサンプルが交互に配置される。 総走査線数/フ レームレートが 525/60 (59. 94) であるピクチャエッセンスに対するサウンド エッセンスの場合、 フレームレートが 24 (23. 97) のプログレッシブスキャン画 像であるピクチャエッセンスに対するサウンドエッセンスの場合、 またはフレー ムレートが 60 (59. 94) のプログレッシブスキャン画像であるピクチャエッセン スに対するサウンドエッセンスの場合、 4つに分割されたうちの 1つのサウンド エッセンスには、 16016のサンプルが配置される。 一方、 総走査線数/フレーム レートが 625/50 であるピクチャエッセンスに対するサウンドエッセンスの場合、 4つに分割されたうちの 1つのサゥンドエッセンスには、 ' 16000のサンプルが配 置される。
図 2 5は、 ローレゾデータ生成部 1 4 2の構成を示すプロック図である。
バッファ 1 6 1は、 フォーマツ ト変換部 1 2から供給される AV独立フォーマ ットのファイル (マスタフアイノレ、 フアイノレ単位のメタデータフアイノレ、 フレー ム単位のメタデータフアイノレ、 ォグジユアリファイノレ、 ビデオフアイノレ、 8チヤ ネルそれぞれのオーディオファイル) を一時記憶する。
フアイル取得部 1 6 2は、 ノ ッファ 1 6 1に記憶されたマスタフアイルを参照 することにより、 ファイル単位のメタデータファイル、 フレーム単位のメタデー タファイル、 ォグジユアリファイノレ、 ビデオフアイノレ、 8チヤネノレそれぞれのォ 一ディォファイルのファイル名を認識し、 そのファイル名に基づき、 ファイル単 位のメタデータファイル、 フレーム単位のメタデータファイル、 ォグジユアリフ アイル、 ビデオファイル、 8チャネルそれぞれのオーディオファイルを、 バッフ ァ 1 6 1を介し、 フォーマッ ト変換部 1 2から取得する。 さらに、 ファイル取得 部 1 0 2は、 取得したファイル単位のメタデータファイルとフレーム単位のメタ 3
43
データファイルをメタデータファイル処理部 1 6 3に、 ビデオファイルをビデオ ファイル処理部 1 6 4に、 8チャネルそれぞれのオーディオファイルをオーディ ォファイル処理部 1 6 5に、 それぞれ供給する。
メタデータファイル処理部 1 6 3は、 ファイル取得部 1 6 2から供給されるフ アイル単位のメタデータファイルからファイル単位のメタデータを抽出するとと もに、 フレーム単位のメタデータファイルからフレーム単位のメタデータが配置 されたシステムアイテムを抽出し、 データ合成部 1 6 6に供給する。
ビデオファィル処理部 1 6 4は、 フアイル取得部 1 6 2カゝら供給されるビデオ ファイルからピクチャアイテムを抽出し、 抽出されたピクチャアイテムからロー レゾデータのファイルのピクチャエッセンスを生成して、 データ合成部 1 6 6に 供給する。
オーディオファイル処理部 1 6 5は、 ファイル取得部 1 6 2から供給される 8 チヤネルそれぞれのオーディォファイルから、 各チャネルのオーディオデータを 抽出し、 抽出されたピクチャアイテムから低ビットレートのオーディオデータを 生成して、 さらに、 その各チャネルのオーディオデータを多重化して配置したサ ゥンドエッセンスを構成して、 データ合成部 1 6 6に供給する。
データ合成部 1 6 6は、 メタデータファイル処理部 1 6 3から供給されるファ ィル単位のメタデータおよびシステムアイテム、 ビデオファイル処理部 1 6 4か ら供給されるピクチャエッセンス、 並びにオーディオファイル処理部 1 6 5から 供給されるサウンドエッセンスを用いて、 ローレゾデータのファイルを構成し、 ノ ッファ 1 6 7に供給する。
バッファ 1 6 7は、 データ合成部 1 6 6から供給されるローレゾデータのファ ィルを一時記憶し、 メモリコントローラ 1 1 6に供給する。
図 2 6は、 ビデオファイル処理部 1 6 4の構成を説明するプロック図である。 分解部 1 8 1は、 ファイル取得部 1 6 2から供給されるビデオファイルをピクチ ャアイテムに分解し、 分解されたピクチャアイテムをデータ変換部 1 8 2に供給 する。 データ変換部 1 8 2は、 分解されたピクチャアイテムを MPEG4方式の画 2004/008403
44
像データに変換し、 KLV エンコーダ 1 8 3に供給する。 KLV エンコーダ 1 8 3は、 データ変換部 1 8 2から供給されたピクチャエッセンスを KLV構造に KLVェン コードし、 KLV構造とされたピクチャエッセンスをデータ合成部 1 6 6に供給す る。
図 2 7は、 オーディオファイル処理部 1 6 5の構成を説明するブロック図であ る。 KLVデコーダ 2 0 1は、 ファイル取得部 1 6 2から供給される各チャネルの オーディオファイルのボディの KLV構造を分解し、 これにより得られる各チヤ ネルの VE形式のオーディオデータを、 データ変換部 2 0 2に供給する。
データ変換部 2 0 2は、 KLVデコーダ 2 ,0 1から供給される、 WAVE形式の各 チャネルのオーディォデータを、 ITU-T G. 71 1形式の 2チャネルのオーディオ データに変換し、 チャンネル多重化部 2 0 3に供給する。 チャンネル多重化部 2 0 3は、 データ変換部 2 0 2から供給される 2チャネルのオーディオデータを、 サンプル単位で多重化し、 その結果得られる多重化オーディオデータを、 KLVェ ンコーダ 2 0 4に供給する。 KLVエンコーダ 2 0 4は、 チャンネル多重化部 2 0 3から供給されるオーディオデータを、 4つに区切り、 区切られたオーディオデ ータ毎に KLV構造に KLVコーディングし、 フィラー生成部 2 0 5に供給する。 フィラー生成部 2 0 5は、 KLV構造とされたオーディオデータ毎にフィラーを 生成して、 フィラーをオーディオデータに付加し、 KLVエンコーダ 2 0 6に供給 する。 KLVエンコーダ 2 0 6は、 オーディオデータに付加されたフイラ一を KLV 構造に KLVコーディングし、 KLV構造とされたフィラーが付加されたサウンドェ ッセンスを出力する。
図 2 8は、 データ合成部 1 6 6の構成を示すブロック図である。 多重化部 2 2 1は、 メタデータファイル処理部 1 6 3から供給されたシステムアイテム、 ビデ ォファイル処理部 1 6 4から供給されたビデオエッセンス、 およびオーディオフ アイル処理部 1 6 5から供給されたサウンドエッセンスを多重化して、 ボディパ 一テーシヨンを付加して、 ボディを生成し、 生成したボディをフッタ生成部 2 2 2に供給する。 フッタ生成部 2 2 2は、 フッタを生成して、 ボディにフッタを付 加し、 ボディおょぴフッタをヘッダ生成部 2 2 3に供給する。
へッダ生成部 2 2 3は、 へッダを生成して、 ボディおよびフッタにへッダを付 加し、 ボディ、 フッタ、 およびヘッダをフイラ一生成部 2 2 4に供給する。 フィ ラー生成部 2 2 4は、 ヘッダに付加するフイラ一を生成して、 生成したフィラー をヘッダに付加し、 フィラーが付加されたローレゾファイルを出力する。
図 2 9は、 ビデオファイルの処理を説明するフローチャートである。 ステップ S 1 0 1において、 ファイル取得部 1 6 2は、 バッファ 1 6 1を介し、 フォーマ ット変換部 1 2からビデオファイルのボディを取得して、 ステップ S 1 0 2に進 む。 ステップ S 1 0 2では、 分解部 1 8 1が、 ファイル取得部 1 6 2から供給さ れるビデオファイルをピクチャアイテムに分解して、 ステップ S 1 0 3に進む。 ステップ S 1 0 3では、 データ変換部 1 8 2が、 分解されたピクチャアイテムを MPEG4方式の画像データに変換して、 ステップ S 1 0 4に進む。 ステップ S 1 0 4では、 KLVエンコーダ 1 8 3が、 データ変換部 1 8 2から供給されたピクチャ アイテムを KLV構造に KLVエンコードし、 ピクチャエッセンスとして、 ビデオ ファイルの処理は終了する。
図 3 0は、 オーディオファイルの処理を説明するフローチャートである。 ステ ップ S 1 2 1において、 ファイル取得部 1 6 2は、 ノ ッファ 1 6 1を介し、 フォ 一マツト変換部 1 2からオーディオファイルのボディを取得して、 ステップ S 1 2 2に進む。 ステップ S 1 2 2において、 10^デコーダ2 0 1は、 ファイル取得 部 1 6 2から供給される各チャネルのオーディオファイルのボディの KLV構造 を分解し、 ステップ S 1 2 3に進む。
ステップ S 1 2 3では、 データ変換部 2 0 2力 KLVデコーダ 2 0 1から供給 される、 WAVE形式の各チャネルのオーディオデータを、 ITU-T G. 711形式の 2 チャネルのオーディオデータに変換して、 ステップ S 1 2 4に進む。 ステップ S 1 2 4では、 チャンネル多重化部 2 0 3が、 データ変換部 2◦ 2から供給される 2チャネルのオーディオデータを、 サンプル単位で多重化して、 ステップ S 1 2 5に進む。 ステップ S 1 2 5では、 KLVエンコーダ 2 0 4は、 チャンネル多重化 PC蘭議 08403
46
部 2 0 3から供給されるオーディオデータを、 4つに区切り、 区切られたオーデ ィォデータ毎に KLV構造に KLNコーディングして、 ステップ S 1 2 6に進む。 ステップ S 1 2 6では、 フィラー生成部 2 0 5力 KLV構造とされたオーディ ォデータ毎にフィラーを生成して、 フィラーをオーディオデータに付加して、 ス テツプ S 1 2 7に進む。 ステップ S 1 2 7では、 KLVエンコーダ 2 0 6が、 ォー ディォデータに付加されたフイラ一を KLV構造に KLVコーディングして、 サゥ ンドエッセンスとして、 オーディオファイルの処理は終了する。
図 3 1は、 メタデータファイルの処理を説明するフローチャートである。 ステ ップ S 1 4 1において、 ファイル取得部 1 6 2は、 バッファ 1 6 1を介し、 フォ 一マット変換部 1 2からメタデータファイルのボディを取得して、 システムアイ テムとし、 ステップ S 1 4 2に進む。 ステップ S 1 4 2では、 メタデータフアイ ル処理部 1 6 3力 フィラーを生成して、 ステップ S 1 4 3に進む。 ステップ S 1 4 3では、 メタデータファイル処理部 1 6 3が、 システムアイテムに付加され たフイラ一を KLV構造に KLVコーデイングして、 フィルアイテムとして、 フィ ルアイテムが付加されたシステムアイテムを出力して、 メタデータファイルの処 理は終了する。
図 3 2は、 ローレゾデータファイル合成の処理を説明するフローチャートであ る。 ステップ S 1 6 1では、 多重化部 2 2 1が、 メタデータファイル処理部 1 6 3から供給されたシステムアイテム、 ビデオファイル処理部 1 6 4から供給され たビデオエッセンス、 およびオーディオファイル処理部 1 6 5から供給されたサ ゥンドエッセンスを多重化して、 エッセンスコンテナを生成して、 ステップ S 1 6 2に進む。 ステップ S 1 6 2では、 多重化部 2 2 1力、 エッセンスコンテナに ^ディパーテーシヨンを付加して、 ボディを生成して、 ステップ S 1 6 3に進む。 ステップ S 1 6 3では、 データ合成部 1 6 6は、 ボディを出力して、 ステップ S 1 6 4に進む。 ステップ S 1 6 4では、 フッタ生成部 2 2 2が、 フッタを生成 して、 ステップ S 1 6 5に進む。 ステップ S 1 6 5では、 データ合成部 1 6 6力 フッタを出力して、 ステップ S 1 6 6に進む。 ステップ S 1 6 6では、 ヘッダ生成部 2 2 3が、 ヘッダを生成して、 ステップ S 1 6 7に進む。 ステップ S 1 6 7では、 フィラー生成部 2 2 4が、 ヘッダに付 加するフイラ一を生成して、 ステップ S 1 6 8に進む。 ステップ S 1 6 8では、 データ合成部 1 6 6が、 フィラーが付加されたヘッダを出力して、 ローレゾデー タファイル合成の処理は終了する。
次に、 図 3 3のフローチャートを参照して、 制御部 1 1 9が行う記録処理につ いて説明する。
操作部 1 2 0が操作されることによって、 記録処理開始を指令する旨の操作信 号が、 操作部 1 2 0から制御部 1 1 9に供給されると、 制御部 1 1 9は、 記録処 理を開始する。
即ち、 制御部 1 1 9は、 まず最初に、 ステップ S 2 3 1において、 音声年輪サ ィズ T saおよび画像年輪サイズ T sv、 さらには、 ローレゾ年輪サイズ T slとメタ 年輪サイズ T smを設定する。 '
ここで、 音声年輪サイズ T saは、 光ディスク 7にひとまとめで配置して記録す るオーディオファイルのデータ量を決定する変数で、 例えば、 オーディオフアイ ルの再生時間によって表される。 画像年輪サイズ T svも、 同様に、 光ディスク 7 にひとまとめで配置して記録するビデオファイルのデータ量を決定する変数で、 例えば、 ビデオファイルの再生時間によって表される。
なお、 音声年輪サイズ T saと画像年輪サイズ T svを、 例えば、 ビット数やバイ ト数などのデータ量そのものによって表すのではなく、 再生時間によって、 いわ ば間接的に表すようにしたのは、 次のような理由による。
即ち、 図 3 3の記録処理によれば、 後述するように、 光ディスク 7には、 ォー ディォファイルの系列から抽出された音声年輪サイズ T saに基づくデータ量ごと のオーディォファイルのまとまりである音声年輪データと、 ビデオファイルの系 列から抽出された画像年輪サイズ T svに基づくデータ量ごとのビデオフ了ィルの まとまりである画像年輪データとが周期的に配置されて記録される。
このように、 光ディスク 7に、 音声年輪データと画像年輪データとが周期的に 04 008403
48
配置されて記録される場合、 画像と音声の再生を考えると、 その再生は、 ビデオ ファイルとそのビデオファィルに付随するオーディオファィルとが揃わないと行 うことができない。 かかる再生の観点からは、 ある再生時間帯の音声年輪データ と、 その再生時間帯の画像年輪データとは、 光ディスク 7上の近い位置、 即ち、 例えば、 隣接する位置に記録すべきである。
しかしながら、 同一'の再生時間分のオーディオフアイルとビデオフアイルのデ 一タ量を比較した場合、 それらのデータ量は、 一般に大きく異なる。 即ち、 ある. 再生時間分のオーディォファイルのデータ量は、 その再生時間分のビデオファィ ルのデータ量に比較してかなり少ない。 さらに、 オーディオファイルやビデオフ アイルのデータレートが、 固定ではなく、 可変となっているケースもある。
従って、 音声年輪サイズ T saと画像年輪サイズ T svを、 データ量で表し、 その データ量ごとの音声年輪データと画像年輪データを、 オーディオファイルとビデ ォファイルの系列それぞれから順次抽出すると、 各再生時間帯の画像年輪データ に対して、 再生時刻が徐々に進んだ (先の) 再生時間帯の音声年輪データが得ら れるようになり、 その結果、 同一の再生時間帯に再生されるべきオーディオファ ィルとビデオファイルとを、 光ディスク 7上の近い位置に配置することが困難と なる。
一方、 音声年輪サイズ T saと画像年輪サイズ T svを、 再生時間で表し、 その再 生時間分のデータ量ごとの音声年輪データと画像年輪データを、 オーディオファ ィルとビデオファイルの系列それぞれから順次抽出した場合には、 同じような再 生時間帯の音声年輪データと画像年輪データとをセットで得ることができ、 その 結果、 同一の再生時間帯に再生されるべきオーディオファイルとビデオファイル とを、 近い位置に配置することができる。
ここで、 音声年輪サイズ T saは、 それが表す再生時間分のデータ量の音声年輪 データを、 光ディスク 7から読み出すよりは、 シークして読み飛ばした方が早く なるような値とするのが望ましい。 画像年輪サイズ T svも、 同様であり、 そのよ うな画像年輪サイズ T svは、 本件発明者の経験上、 例えば、 1 . 5秒から 2秒程 08403
49
度である。
また、 同じような再生時間帯の音声年輪データと画像年輪データとを構成する 場合には、 音声年輪サイズ T sa と画像年輪サイズ T svを、 同一の値とすればよく、 この場合、 同じような再生時間帯の音声年輪データと画像年輪データは、 上述の 再生の観点から、 光ディスク 7上に、 交互に配置するのが望ましい。
さらに、 音声年輪サイズ T saと画像年輪サイズ T svは、 異なる値とすることが 可能であり、 オーディオファイルのデータレートがビデオファィルのデ一タレー トよりもかなり低いことが一般的であることを考えると、 音声年輪サイズ T saは、 画像年輪サイズ T svの、 例えば 2倍などにすることが可能である。 この場合、 あ る 1つの音声年輪データに対して、 その再生時間帯と同じような再生時間帯の画 像年輪データは 2つとなるが、 この 1つの音声年輪データと、 対応する 2つの画 像年輪データとは、 上述の再生の観点からは、 やはり、 光ディスク 7上の近い位 置に配置するのが望ましい。 具体的には、 1つの音声年輪データと、 対応する 2 つの画像年輪データとは、 例えば、 音声年輪データ、 対応する 2つの画像年輪デ ータのうちの一方、 その他方という順番や、 2つの画像年輪データのうちの一方、 音声年輪データ、 2つの画像年輪データのうちの他方という順番で、 周期的に配 置するのが望ましい。
なお、 ステップ S 1で設定する音声年輪サイズ T saと画像年輪サイズ T svの値 は、 あらかじめ定められた固定の値でも良いし、 可変の値でも良い。 音声年輪サ ィズ T saと画像年輪サイズ T svの値を可変とする場合には、 その可変の値は、 例 えば、 操作部 1 2 0を操作することによって入力するようにすることができる。 また、 ローレゾ年輪サイズ T slは、 光ディスク 7にひとまとめで配置して記録 するローレゾデータのデータ量を決定する変数で、 例えば、 上述の音声年輪サイ ズ T saおよび画像年輪サィズ T svと同様に、 そのローレゾデータの元となったビ デォファイル (またはオーディオファイル) の再生時間によって表される。 メタ 年輪サイズ T sも、 同様に、 光ディスク 7にひとまとめで配置して記録するメタ データのデータ量を決定する変数で、 例えば、 上述の音声年輪サイズ T saおよび 画像年輪サイズ T svと同様に、 そのメタデータによって各種の情報 (例えば、 画 像の撮像が行われた日時など) が説明されるビデオファイル (またはオーディオ ファイル) の再生時間によって表される。
なお、 ローレゾ年輪サイズ T slとメタ年輪サイズ T sraを、 例えば、 ビッ ト数や バイト数などのデータ量そのものによって表すのではなく、 再生時間によって、 いわば間接的に表すようにしたのは、 上述した音声年輪サイズ T saと画像年輪サ ィズ T svにおける場合と同様の理由による。
即ち、 図 3 3の記録処理によれば、 後述するように、 オーディオファイルの系 列から抽出された音声年輪サイズ T saに基づくデータ量ごとのオーディオフアイ ルのまとまりである音声年輪データと、 ビデオファイルの系列から抽出された画 像年輪サイズ T svに基づくデータ量ごとのビデオファイルのまとまりである画像 年輪データの他、 口ーレゾデータのデータ系列から抽出された口ーレゾ年輪サイ ズ T slに基づくデータ量ごとのローレゾデータのまとまり'であるローレゾ年輪デ ータと、 メタデータのデータ系列から抽出されたメタ年輪サイズ T smに基づくデ ータ量ごとのメタデータのまとまりであるメタ年輪データも、 光ディスク 7に周 期的に配置されて記録される。
このように、 光ディスク 7に、 音声年輪データ、 画像年輪データ、 ローレゾ年 輪データ、 メタ年輪データが周期的に配置されて記録される場合、 ローレゾ年輪 データは、 音声年輪データや画像年輪データのデータ量を少なく したものである から、 ある再生時間帯の音声年輪データおよび画像年輪データと、 その再生時間 帯の音声年輪データや画像年輪データのデータ量を少なく したローレゾ年輪デー タとは、 光ディスク 7上の近い位置に記録すべきである。 さらに、 メタ年輪デー タは、 音声年輪データや画像年輪データに関する情報を表すものであるから、 や はり、 ある再生時間帯の音声年輪データおょぴ画像年輪データと、 その再生時間 帯の音声年輪データや画像年輪データに関する情報を表すメタ年輪データとは、 光ディスク 7上の近い位置に記録すべきである。
しかしながら、 同一の再生時間分のオーディオフアイルゃビデオフアイルのデ ータレートと、 ローレゾデータやメタデータのデータレートとを比較した場合、 オーディオファイルやビデオファイルのデータレートに比較して、 ローレゾデー タゃメタデータのデータレートは小である。
従って、 ローレゾ年輪サイズ Tsl とメタ年輪サイズ Tsraを、 データ量で表すと、 上述した音声年輪サイズ Tsaおよび画像年輪サイズ Tsvをデータ量で表した場合 と同様に、 同じような再生時間帯に再生されるべきオーディオファイル、 ビデオ ファイル、 ローレゾデータ、 およびメタデータを、 光ディスク 7上の近い位置に 配置することが困難となる不都合が生じる。
そこで、 図 3 3の実施の形態では、 ローレゾ年輪サイズ Tslとメタ年輪サイズ Tsmも、 音声年輪サイズ Tsaおよび画像年輪サイズ Tsvと同様に、 再生時間で表 し、 これにより、 同じような再生時間帯に再生されるべきオーディオファイル、 ビデオファイル、 ローレゾデータ、 およびメタデータを、 光ディスク 7上の近い 位置に配置することができるようにしている。 '
なお、 ステップ S 2 3 1で設定する音声年輪サイズ Tsa、 画像年輪サイズ Tsv、 ローレゾ年輪サイズ Tsl、 およびメタ年輪サイズ Tsmの値は、 あらかじめ定めら れた固定の値でも良いし、 可変の値でも良い。 音声年輪サイズ Tsaや、 画像年輪 サイズ Tsv、 ローレゾ年輪サイズ Tsl、 メタ年輪サイズ Tsmの値を可変とする場 合には、 その可変の値は、 例えば、 操作部 1 20を操作することによって入力す るようにすることができる。
ステップ S 2 3 1の処理後は、 ステップ S 2 3 2に進み、 制御部 1 1 9は、 フ ォーマツト変換部 1 2からディスクドライブ装置 1 1に供給されるオーディオフ アイルとビデオファイルからローレゾデータの系列を生成するローレゾデータ生 成処理とを開始させるとともに、 メモリ コントローラ 1 1 6を制御して、 データ 変換部 1 1 8で取得されたオーディオファイルとビデオファイルをメモリ 1 1 7 に供給して記憶させるオーディオフアイル記憶処理とビデオファィル記憶処理を それぞれ開始させる。 さらに、 ステップ S 2 3 2では、 制御部 1 1 9は、 メモリ コントローラ 1 1 6を制御して、 データ変換部 1 1 8で得られたメタデータと口 ーレゾデータをメモリ 1 1 7に供給して記憶させるメタデータ記憶処理とローレ ゾデータ記憶処理をそれぞれ開始させる。
そして、 ステップ S 2 3 3 , S 2 3 4に順次進み、 制御部 1 1 9は、 ステップ S 2 3 3において、 オーディオファイルを光ディスク 7に記録させる制御タスク であるオーディオファイル記録タスクを開始するとともに、 ステップ S 2 3 4に おいて、 ビデオファイルを光ディスク 7に記録させる制御タスクであるビデオフ アイル記録タスクを開始し、 ステップ S 2 3 5に進む。 ステップ S 2 3 5では、 制御部 1 1 9は、 ローレゾデータを光ディスク 7に記録させる制御タスクである ローレゾデータ記録タスクを開始し、 ステップ S 2 3 6に進む。 ステップ S 2 3 6では、 制御部 1 1 9は、 メタデータを光ディスク 7に記録させる制御タスクで あるメタデータ記録タスクを開始し、 ステップ S 2 3 7に進む。 なお、 ステップ S 2 3 3におけるオーディオファイル記録タスク、 ステップ S 2 3 4におけるビ デォファイル記録タスク、 ステップ S 2 3 5におけるローレゾデータ記録タスク、 およびステップ S 2 3 6におけるメタデータ記録タスクの詳細については、 後述 する。
ステップ S 2 3 7では、 制御部 1 1 9は、 操作部 1 2 0力、ら、 データの記録の 終了を指令する操作信号が供給されたかどうかを判定し、 供給されていないと判 定した場合、 ステップ S 2 3 8に進み、 制御部 1 1 9は、 すべての記録タスクが 終了したかどうかを判定する。 ステップ S 2 3 8おいて、 すべての記録タスクが 終了していないと判定された場合、 ステップ S 2 3 7に戻り、 以下、 同様の処理 が繰り返される。
また、 ステップ S 2 3 8において、 すべての記録タスクが終了したと判定され た場合、 即ち、 ステップ S 2 3 3で開始されたオーディオファイル記録タスク、 ステップ S 2 3 4で開始されたビデオファイル記録タスク、 ステップ S 2 3 5で 開始されたローレゾデータ記録タスク、 およびステップ S 2 3 6で開始されたメ タデータ記録タスクのすべてが終了している場合、 記録処理を終了する。
—方、 ステップ S 2 3 7において、 データの記録の終了を指令する操作信号が 供給されたと判定された場合、 即ち、 例えば、 ユーザが、 データの記録を終了す るように、 操作部 1 2 0を操作した場合、 ステップ S 2 3 9に進み、 制御部 1 1 9は、 ステップ S 2 3 2で開始させたローレゾデータ生成処理、 並びにオーディ ォファイル記憶処理、 ビデオファイル記憶処理、 メタデータ記憶処理、 およぴロ ーレゾデータ記憶処理を終了させ、 ステップ S 2 4 0に進む。
ステップ S 2 4 0では、 ステップ S 2 3 8における場合と同様に、 すべての記 録タスクが終了したかどうかを判定する。 ステップ S 2 4 0において、 すべての 記録タスクが終了していないと判定された場合、 ステップ S 2 4 0に戻り、 すべ ての記録タスクが終了するまで待ち時間がおかれる。
また、 ステップ S 2 4 0において、 すべての記録タスクが終了したと判定され た場合、 即ち、 ステップ S 2 3 3で開始されたオーディオファイル記録タスク、 ステップ S 2 3 4で開始されたビデオファイル記録タスク、 ステップ S 2 3 5で 開始されたローレゾデータ記録タスク、 およびステップ S 2 3 6で開始されたメ タデータ記録タスクのすべてが終了した場合、 記録処理を終了する。
次に、 図 3 4のフローチャートを参照して、 図 3 3のステップ S 2 3 3で開始 されるオーディォファイル記録タスクについて説明する。
オーディオファイル記録タスクが開始されると、 まず最初に、 ステップ S 2 5 1において、 制御部 1 1 9は、 後で行われるステップ S 2 5 7の処理で、 1ずつ インクリメントされる変数 Naを、 例えば 1に初期化し、 ステップ S 2 5 2に進 む。
ステップ S 2 5 2では、 制御部 1 1 9は、 図 5のステップ S 1 2における場合 と同様に、 T sa x Na力 T SV X NV以下であるかどうかを判定し、 さらに、 T sa X Naが、 T sl x Nt以下で、 かつ T sra x Nm以下であるかどうかを判定する。
ここで、 T saは、 音声年輪サイズであり、 オーディオファイルの、 ある再生時 間を表す。 また、 変数 Naは、 後述するように、 音声年輪サイズ T saに基づくデ ータ量のオーディオファイル (音声年輪データ) が光ディスク 7に記録されるご とに、 1ずつィンクリメントされていく。 同様に、 T svは、 画像年輪サイズであ り、 変数 Nvは、 後述するように、 ビデオファイル記録タスクにおいて、 画像年 輪サイズ T svに基づくデータ量のビデオファイル (画像年輪データ) が光デイス ク 7に記録されるごとに、 1ずつインクリメントされていく。 従って、 T sa x Na は、 オーディオファイルを、 音声年輪サイズ T sa単位で記録していった場合に、 これから光ディスク 7に記録しようとしている音声年輪データの最後の再生時刻 に相当し、 T SV X NVは、 ビデオファイルを、 画像年輪サイズ T sv単位で記録して いった場合に、 これから光ディスク 7に記録しようとしている画像年輪データの 最後の再生時刻に相当する。
また、 T slは、 ローレゾ年輪サイズであり、 変数 N は、 後述するように、 口 ーレゾデータ記録タスクにおいて、 ローレゾ年輪サイズ T seに基づくデータ量の ローレゾデータ (ローレゾ年輪データ) が光ディスク 7に記録されるごとに、 1 ずつインクリメントされていく。 さらに、 T smは、 メタ年輪サイズであり、 変数 Nmは、 後述するように、 メタデータ記録タスクにおいて; メタ年輪サイズ T sm に基づくデータ量のメタデータ (メタ年輪データ) が光ディスク 7に記録される ごとに、 1ずつインクリメントされていく。 従って、 T X r^は、 ローレゾデ ータを、 ローレゾ年輪サイズ T se単位で記録していった場合に、 これから光ディ スク 7に記録しようとしているローレゾ年輪データの最後の再生時刻に相当し、 T sm x Nmは、 メタデータを、 メタ年輪サイズ T sm単位で記録していった場合に、 これから光ディスク 7に記録しようとしているメタ年輪データの最後の再生時刻 に相当する。
一方、 いま、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 および メタ年輪データを、 同じような再生時間帯のものが、 光ディスク 7上の近い位置 に記録されるように、 周期的に配置するものとする。 さらに、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 およびメタ年輪データについては、 その 再生時刻が早いものほど、 光ディスク 7の前の位置 (光ディスク 7に対するデー タの読み書き順で、 先の位置) に配置され、 さらに、 同じような再生時間帯の音 声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 およびメタ年輪データに TJP2004/008403
55
ついては、 例えば、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 メ タ年輪データの順番で、 光ディスク 7のより前の位置に配置されるものとする。 この場合、 これから記録しようとする音声年輪データである注目音声年輪デー 'タは、 再生時刻 TsaXNa以前の最近の (再生時刻 TsaxNaに最も近い) 再生時 間帯の音声年輪データとなるが、 この注目音声年輪データは、 再生時刻 TsaX Na 以前の最近の再生時間帯の画像年輪データ、 ローレゾ年輪データ、 およびメタ年 輪データが記録される直前、 つまり、 再生時刻 TsaxNa以前の 2番目に新しい 再生時間帯の画像年輪データ、 ローレゾ年輪データ、 およびメタ年輪データが記 録された直後に記録する必要がある。
ところで、 これから記録される画像年輪データは、 TSVXNV以前の最近の再 生時間帯の画像年輪データである。 また、 これから記録されるローレゾ年輪デー タは、 TslXNi以前の最近の再生時間帯のローレゾ年輪データであり、 これか ら記録されるメタ年輪データは、 TsmXNm以前の最近の再生時間帯のメタ年輪 データである。 同じような再生時間帯の年輪データについては、 上述したように、 音声年輪データが、 光ディスク 7のより前の位置に配置されるから、'注目音声年 輪データの記録は、 音声年輪データの再生時刻 TsaXNaが、 画像年輪データの 再生時刻 TSVXNV以下となっており、 さらに、 ローレゾ年輪データの再生時刻 以下であり、 かつ、 メタ年輪データの再生時刻 TsmX Nm以下となって いるタイミングで行う必要がある。
そこで、 ステップ S 2 5 2では、 上述したように、 音声年輪データの再生時刻 TsaX Naが、 画像年輪データの再生時刻 TSVXNV以下であり、 さらに、 ローレ ゾ年輪データの再生時刻 TslX 以下であり、 かつ、 メタ年輪データの再生時 刻 TsmxNm以下であるかどうかが判定され、 これにより、 現在のタイミングが、 注目音声年輪データの記録を行うべきタイミングであるかどうかが判定される。 ステップ S 2 5 2において、 音声年輪データの再生時刻 TsaxNaが、 画像年 輪データの再生時刻 TSVX Nv、 ローレゾ年輪データの再生時刻 TslX Νい または メタ年輪データの再生時刻 TsmxNmのうちのいずれか以下 (以前) でないと判 8403
56
定された場合、 即ち、 現在のタイミングが、 注目音声年輪データの記録を行うベ きタイミングでない場合、 ステップ S 2 5 2に戻り、 以下、 同様の処理が繰り返 される。
また、 ステップ S 2 5 2において、 音声年輪データの再生時刻 TsaXNaが、 画像年輪データの再生時刻 TSVXNV、 ローレゾ年輪データの再生時刻 TslXNい およびメタ年輪データの再生時刻 TsmX Nmのすべての時刻以下であると判定さ れた場合、 即ち、 現在のタイミングが、 注目音声年輪データの記録を行うべきタ イミングである場合、 ステップ S 2 5 3に進み、 制御部 1 1 9は、 データ変換部 1 1 8からメモリコントローラ 1 1 6を介して、 メモリ 1 1 7に、 オーディオフ アイルが供給されているか否かを判定し、 供給されていると判定した場合、 ステ ップ S 2 5 4に進む。
ステップ S 2 54では、 制御部 1 1 9は、 メモリ 1 1 7に、 通算して、 音声年 輪サイズ Tsax Na分の再生に必要なオーディオファイルのオーディォファイル が記憶されたか否かを判定し、 まだ、 その分のオーディオファイルがメモリ 1 1 7に記憶されていないと判定された場合、 ステップ S 2 5 2に戻り、 それ以降の 処理が繰り返される。 また、 ステップ S 2 5 4において、 再生時間 TsaxNaに 対応する分のオーディオファイルがメモリ 1 1 7に記憶されたと判定された場合、 処理はステップ S 2 5 5に進む。
なお、 データ変換部 1 1 8のデータ量検出部 1 4 1は、 通算して、 再生時間 T saxNa分の再生に必要なオーディオファイルを検出したとき、 その旨を、 メモ リコントローラ 1 1 6に通知する。 メモリコントローラ 1 1 6は、 その通知に基 づいて、 通算して、 再生時間 Tsax Na分の再生に必要なオーディオファイルを メモリ 1 1 7に記憶させたか否かの判定を行い、 その判定結果を制御部 1 1 9に 通知する。 すなわち制御部 1 1 9は、 メモリコントローラ 1 1 6からのその判定 結果に基づいて、 ステップ S 2 5 4における判定を行う。
ここで、 図 3 5は、 メモリ 1 1 7に記憶されるオーディオファイルの通算のデ ータ量 (通算データ量) L aと時間 (再生時間) との関係を示している。 なお、 図 6中右側の上下方向を示す小さな矢印 (水平方向の点線の間隔を示す矢印) は、 ECCプロックのデータ量 Buを表している。 また、 図 3 5における点線 L Vは、 後述する図 9において実線で示してある、 メモリ 1 1 7に記憶されるビデオファ ィルの通算のデータ量 (通算データ量) L vを示している。 さらに、 図 3 5では、 オーディオファイルの通算データ量 L aが直線となっており、 従って、 オーディ ォファイルのデータレートが、 固定であるものとしてある。 伹し、 オーディオフ アイルは、 可変のデータレートのものとすることが可能である。
図 3 5において、 例えば、 Na= 1のときの時間 Tsa x Na (= 1 ) 分の再生に 必要なオーディオファイルのデータ量は、 ΑΝ である。 従って、 Na= lのとき のステップ S 2 5 4では、 通算データ量が ΑΝ のオーディオファイ^^が、 メモ リ 1 1 7に記憶されたとき、 再生時間 Tsa X Naに対応する分のオーディオファ ィルがメモリ 1 1 7に記憶されたと判定され、 ステップ S 2 5 5に進む。
ステップ S 2 5 5では、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御し て、 メモリ 1 1 7に記憶されているオーデ'ィォファイルから、 光ディスク 7に対 して読み書きを行う単位としての、 例えば 1つの ECCブロックのデータ量 Buの 整数倍 (n倍) のデータ量であって、 メモリ 1 1 7から読み出すことのできる最 大のデータ量のオーディオファイルを、 時間的に先に入力された方から読み出さ せることにより抽出し、 ステップ S 2 5 6に進む。 なお、 この ECCブロックの 整数倍のデータ量であって、 メモリ 1 1 7から読み出すことのできる最大のデー タ量のオーディオファイルとして、 メモリ 1 1 7から読み出される音声年輪デー タが、 上述した、 再生時刻 T sa X Na以前の最近の音声年輪データである。
ここで、 上述の図 3 5において時刻が 1 x Tsaのとき、 メモリ 1 1 7には、 少 なくともデータ量 AN1'のオーディオファイルが記憶されている。 データ量 Μ は、 1つの ECCブロックのデータ量より大であるが、 2つの ECCブロックのデ ータ量より小であるため、 ステップ S 2 5 5では、 1つの ECCブロックのデー タ量 Buである AN1分のオーディオファイルが、 メモリ 1 1 7から、 注目音声年 輪データとして読み出されることにより抽出される。 2004/008403
58
なお、 ステップ S 2 5 5において読み出されなかったオーディオファイル、 即 ち、 図 3 5の時刻が 1 X T saのときにおいては、 1つの ECCプロックのデータ量 Buに満たないデータ量 A af lのオーディオファイルは、 そのままメモリ 1 1 7に 残される。
図 3 4に戻り、 ステップ S 2 5 6では、 制御部 1 1 9が、 ステップ S 2 5 5で 得られた、 ECCブロックの整数倍のデータ量の注目音声年輪データを、 メモリコ ントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCプ 口ックの整数倍のデータ量の注目音声年輪データが、 その整数倍の数の ECCプ ロックに記録されるように記録制御を行う。
ここで、 図 3 5の時刻が 1 X T saのときには、 1つの ECCブロックのデータ量 Buのオーディオファイルが、 注目音声年輪データとして、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給される。 そして、 この 1つの ECCブロック のデータ量 Buの注目音声年輪データは、 ピックアップ部' 1 1 2に供給され、 図 3 6に示すように、 光ディスク 7の 1つの ECCプロックである ECCブロック # 1に、 音声年輪データの境界と、 光ディスク 7の ECCブロック # 1の境界とが 一致するように記録される。
なお、 ここでは、 説明を簡単にするために、 光ディスク 7には、 物理的に連続 した、 十分大きな空き領域が存在するものとする。 また、 光ディスク 7に対する データの読み書きが、 例えば、 その内周から外周方向に行われるものとすると、 データの記録は、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給される データの順番で、 空き領域の内周側から外周側に連続して行われていくものとす る。
ステップ S 2 5 6において、 上述のように、 注目音声年輪データの記録制御が 行われた後は、 ステップ S 2 5 7に進み、 制御部 1 1 9は、 変数 Naを 1だけィ ンクリメントし、 ステップ S 2 5 2に戻り、 それ以降の処理を実行する。
一方、 ステップ S 2 5 3において、 オーディオファイルがメモリ 1 1 7に供給 されていないと判定された場合、 即ち、 データ変換部 1 1 8からメモリ コント口 TJP2004/008403
59
ーラ 1 1 6へのオーディオファイルの供給が停止した場合、 ステップ S 2 5 8に 進み、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御することにより、 メモ リ 1 1 7にいま残っているオーディオファイルのすべてを読み出し、 その音声年 輪データを、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これ により、 その ECCプロックの整数倍のデータ量の音声年輪データが、 その整数 倍の数の ECCプロックに記録されるように記録制御を行う。
上述したように、 オーディオファイルは、 ECCブロックの整数倍のデータ量と されているので、 ステップ S 2 5 3において、 ECCプロックの整数倍のデータ量 の音声年輪データが、 その整数倍の数の ECC ブロックに記録されることになる。 その後、 ステップ S 2 5 9に進み、 制御部 1 1 9は、 変数 Naに、 無限大に相 当する値 (非常に大きな値) をセットして、 オーディオファイル記録タスクを終 了する。
これにより、 図 3 4のオーディオファイル記録タスクにおいて、 光ディスク 7 に対して読み書きを行う単位としての、 例えば、 ECCブロックの整数倍のデータ 量の音声年輪データが、 その整数倍の数の ECCプロックに、 音声年輪データの 境界と、 光ディスク 7の ECCブロックの境界とがー致するように、 周期的に記 録される。
次に、 図 3 6のフローチャートを参照して、 図 3 3のステップ S 2 3 4で開始 されるビデオファイル記録タスクについて説明する。
ビデオファイル記録タスクが開始されると、 まず最初に、 ステップ S 2 6 1に おいて、 制御部 1 1 9は、 後で行われるステップ S 2 6 7の処理で、 1ずつイン クリメントされる変数 Nvを、 例えば 1に初期化し、 ステップ S 2 6 2に進む。 ステップ S 2 6 2では、 制御部 1 1 9は、 TSVX NV力 S、 Tsax Na未満であり、 さらに、 丁^ !^カ、
Figure imgf000061_0001
以下で、 かつ TsmxNm以下であるかどうかを判 定する。
ここで、 TsaxNaは、 オーディオファイルを、 音声年輪サイズ Tsa単位で記録 していった場合に、 これから光ディスク 7に記録しようとしている音声年輪デー タの最後の再生時刻に相当し、 TSVXNVは、 ビデオファイルを、 画像年輪サイ ズ Tsv単位で記録していった場合に、 これから光ディスク 7に記録しようとして いる画像年輪データの最後の再生時刻に相当する。
いま、 上述したように、 音声年輪データと画像年輪データとを、 同じような再 生時間帯のものが、 光ディスク 7上の近い位置に記録されるように、 周期的に配 置し、 さらに、 同じような再生時間帯の音声年輪データと画像年輪データについ ては、 音声年輪データが先に配置され、 その後に、 画像年輪データが配置される ものとする。 そして、 これから記録しょうとする画像年輪データを、 注目画像年 輪データというものとすると、 注目画像年輪データは、 再生時刻 TsvxNv以前 の最近の (再生時刻 TSVXNVに最も近い) 再生時間帯の画像年輪データとなる 1 この注目画像年輪データは、 再生時刻 TsaxNa以前の最近の再生時間帯の 音声年輪データが記録された直後に記録する必要がある。 従って、 注目画像年輪 データの記録は、 画像年輪データの再生時刻 TSVXNVが、'音声年輪データの再 生時刻 T sa X Na未満となっているタイミングで行う必要がある。
そこで、 ステップ S 2 6 2では、 上述したように、 画像年輪データの再生時刻 TSVX Nvが、 音声年輪データの再生時刻 Tsa X Na未満であるかどうかが判定さ れ、 これにより、 現在のタイミングが、 注目画像年輪データの記録を行うべきタ ィミングであるかどうかが判定される。
さらに、 TSVXNVが、 TslX 以下であるというのは、 図 3 4のステップ S 2 5 2における場合と同様に、 これから記録しょうとする画像年輪データである 注目画像年輪データ、 即ち、 再生時刻 TSVXNV以前の最近の (再生時刻 TSVX N vに最も近い) 再生時間帯の画像年輪データを、 再生時刻 TSVX Nv以前の最近の 再生時間帯のローレゾ年輪データ直前、 つまり、 再生時刻 TSVXNV以前の 2番 目に新しい再生時間帯のローレゾ年輪データが記録された直後に記録するための 条件である。
また、 TSVX NV力 Tsmx Nm以下であるというのは、 図 34のステップ S 2 5 2における場合と同様に、 これから記録しようとする画像年輪データである注 2004/008403
61
目画像年輪データ、 即ち、 再生時刻 TSVX NV以前の最近の再生時間帯の画像年 輪データを、 再生時刻 TSVX NV以前の最近の再生時間帯のメタ年輪データ直前、 つまり、 再生時刻 TSVXNV以前の 2番目に新しい再生時間帯のメタ年輪データ が記録された直後に記録するための条件である。
ステップ S 2 6 2において、 画像年輪データの再生時刻 TsvxNvが、 音声年 輪データの再生時刻 Tsa X Na未満、 ローレゾ年輪データの再生時刻 Tsl X NL以 下、 またはメタ年輪データの再生時刻 TsmxNm以下のうちのいずれかではない と判定された場合、 即ち、 現在のタイミングが、 注目画像年輪データの記録を行 うべきタイミングでない場合、 ステップ S 26 2に戻り、 以下、 同様の処理が繰 り返される。
また、 ステップ S 2 6 2において、 画像年輪データの再生時刻 TSVXNVが、 音声年輪データの再生時刻 TsaXNa未満であり、 さらに、 ローレゾ年輪データ の再生時刻
Figure imgf000063_0001
以下であり、 かつメタ年輪データの再生時刻 TsmxNm以下 であると判定された場合、 即ち、 現在のタイミングが、 注目画像年輪データの記 録を行うべきタイミングである場合、 ステップ S 2 6 3に進み、 制御部 1 1 9は、 データ変換部 1 1 8からメモリコントローラ 1 1 6を介して、 メモリ 1 1 7に、 ビデオファィルが供給ざれているか否かを判定し、 供給されていると判定した場 合、 ステップ S 24に進む。
ステップ S 2 64では、 制御部 1 1 9は、 メモリ 1 1 7に、 通算して、 画像年 輪サイズ Tsv X Nv分の再生に必要なビデオファィルのビデオファィルが記憶さ れたか否かを判定し、 まだ、 その分のビデオファイルがメモリ 1 1 7に記憶され ていないと判定された場合、 ステップ S 2 6 2に戻り、 それ以降の処理が繰り返 される。 また、 ステップ S 2 6 4において、 再生時間 TSVXNVに対応する分の ビデオファイルがメモリ 1 1 7に記憶されたと判定された場合、 処理はステップ S 2 6 5に進む。
なお、 データ変換部 1 1 8のデータ量検出部 1 4 1は、 通算して、 再生時間 T SVXNV分の再生に必要なビデオファイルを検出したとき、 その旨を、 メモリコ P T/JP2004/008403
62
ントローラ 1 1 6に通知する。 メモリコントローラ 1 1 6は、 その通知に基づい て、 通算して、 再生時間 TSVXNV分の再生に必要なビデオファイルをメモリ 1 1 7に記憶したか否かの判定を行い、 その判定結果を制御部 1 1 9に通知する。 すなわち制御部 1 1 9は、 メモリコントローラ 1 1 6からのその判定結果に基づ いて、 ステップ S 2 64における判定を行う。
ここで、 図 4 0は、 メモリ 1 1 7に記憶されるビデオファイルの通算のデータ 量 (通算データ量) L aと時間 (再生時間) との関係を示している。 なお、 図 4 0中右側の上下方向を示す小さな矢印 (水平方向の点線の間隔を示す矢印) は、 図 3 5における場合と同様に、 ECC ブロックのデータ量 Bu を表している。 また、 図 40における点線 L aは、 上述の図 3 5において実線で示した、 メモリ 1 1 7 に記憶されるオーディオファイルの通算データ量 L aである。
図 4 0において、 例えば、 Nv= 1のときの時間 TSVXNV (= 1) 分の再生に 必要なビデオファイルのデータ量は、 VN1'である。 従って、 Nv== lのときのス テツプ S 2 6 4では、 通算データ量が VN1,のビデオファイルが、 メモリ 1 1 7 に記憶されたとき、 再生時間 TSVXNVに対応する分のビデオファイルがメモリ 1 1 7に記憶されたと判定され、 ステップ S 2 6 5に進む。
ステップ S 2 6 5では、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御し て、 メモリ 1 1 7に記憶されているビデオファイルから、 光ディスク 7に対して 読み書きを行う単位としての、 例えば 1つの ECCプロックのデータ量 Buの整数 倍 (n倍) のデータ量であって、 メモリ 1 1 7から読み出すことのできる最大の データ量のビデオファイルを、 時間的に先に入力された方から読み出させること により抽出し、 ステップ S 2 6 6に進む。 なお、 この ECCブロックの整数倍の データ量であって、 メモリ 1 1 7から読み出すことのできる最大のデータ量のビ デォファイルとして、 メモリ 1 1 7から読み出される画像年輪データが、 上述し た、 再生時刻 TSVX NV以前の最近の画像年輪データである。
ここで、 上述の図 40において時刻が 1 X Tsvのとき、 メモリ 1 1 7には、 少 なくともデータ量 VN1'のビデオファイルが記憶されている。 データ量 VN1'は、 4つの ECCプロックのデータ量より大であるが、 5つの ECCプロックのデータ 量より小であるため、 ステップ S 2 6 5では、 4つの ECCプロックのデータ量 Buである VN1分のビデオファイルが、 メモリ 1 1 7力 ら、 注目画像年輪データ として読み出されることにより抽出される。
なお、 ステップ S 2 6 5において読み出されなかったビデオファイル、 即ち、 図 4 0の時刻が 1 X Tsvのときにおいては、 1つの ECCプロックのデータ量 Bu に満たないデータ量 V a lのビデオファイルは、 そのままメモリ 1 1 7に残され る。
図 3 9に戻り、 ステップ S 2 6 6では、 制御部 1 1 9力 ステップ S 2 6 5で 得られた、 ECCブロックの整数倍のデータ量の注目画像年輪データを、 メモリコ ントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCブ 口ックの整数倍のデータ量の注目画像年輪データが、 その整数倍の数の ECCブ ロックに記録されるように記録制御を行う。 '
ここで、 図 4 0の時刻が 1 X T svのときには、 4つの ECCブロックのデータ量 Buのビデオファイルが、 注目画像年輪データとして、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給される。 そして、 この 4つの ECCブロックのデ ータ量 Buの注目画像年輪データは、 ピックアップ部 1 1 2に供給され、 上述し た図 3 6に示すように、 光ディスク 7の 4つの ECCプロックである ECCプロッ ク # 2, # 3, # 4, # 5に、 画像年輪データの境界と、 光ディスク 7の ECC ブロック # 2乃至 # 5の領域の境界 (ECCブロック # 2の先頭側の境界および ECCプロック # 5の終わり側の境界) とが一致するように記録される。
即ち、 いま、 説明を簡単にするため、 音声年輪サイズ T saと画像年輪サイズ T svとが等しいものとすると、 図 3 4のオーディオファイル記録タスクと、 図 3 9 のビデオファイル記録タスクの開始後、 Na = Na = lのときに、 図 3 6に示した ように、 ECCブロック # 1に、 再生時刻 T sa x Na以前の最近の音声年輪データが 記録される。 ECCブロック # 1に音声年輪データが記録されることにより、 図 3 4のオーディオファイル記録タスクのステップ S 2 5 7では、 変数 Naが 1だけ インクリメントされ、 Na= 2とされる。 このとき、 変数 Nvは、 まだ 1のままで あり、 従って、 再生時刻 TsaxNaは、 再生時刻 Tsax Na未満となる。 その結果、 図 3 9のビデオファイル記録タスクでは、 ステップ S 2 6 6において、 再生時刻 TSVX Nv以前の最近の画像年輪データが、 ECCプロック # 2乃至 # 5に記録され る。
即ち、 ここでは、 上述したように、 光ディスク 7において、 データの記録が、 メモリ コントローラ 1 1 6から信号処理部 1 1 5に供給されるデータの順番で、 空き領域の内周側から外周側に連続して行われていくものとしているため、 再生 時刻 T sv X Νν以前の最近の画像年輪データである 4つの ECCプロック分の画像 年輪データは、 直前に、 音声年輪データが記録された ECCプロック # 1の直後 の ECCブロック # 2から開始され、 これにより、 図 3 6に示したように、 ECCプ 口ック # 2乃至 # 5に記録される。
以上から、 Na = Na= 1の場合に得られる音声年輪データと画像年輪データ、 即ち、 再生時刻 TsaxNa以前の最近の音声年輪データと、 その再生時刻 Tsax N aに等しい再生時刻 TSVXNV以前の最近の画像年輪データ、 つまりは、 同じよう な再生時間帯の音声年輪データと画像年輪データは、 光ディスク 7の隣接する位 置に配置ざれて記録される。
ステップ S 2 6 6において、 上述のように、 注目画像年輪データの記録制御が 行われた後は、 ステップ S 2 6 7に進み、 制御部 1 1 9は、 変数 Nvを 1だけィ ンクリメントし、 ステップ S 2 6 2に戻り、 それ以降の処理を繰り返す。
一方、 ステップ S 2 6 3において、 ビデオファイルがメモリ 1 1 7に供給され ていないと判定された場合、 即ち、 データ変換部 1 1 8からメモリ コントローラ 1 1 6へのビデオファイルの供給が停止した場合、 ステップ S 2 6 8に進み、 制 御部 1 1 9は、 メモリコントローラ 1 1 6を制御することにより、 メモリ 1 1 7 にいま残っているビデオファイルのすべてを読み出し、 そのビデオファイルを、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCプロックの整数倍のデータ量の画像年輪データが、 その整数倍の数の ECCブ ロックに記録されるように記録制御を行う。
ビデオファイルは、 ECCプロックの整数倍のデータ量とされているので、 ステ ップ S 268においては、 ECCブロックの整数倍のデータ量の画像年輪データが、 その整数倍の数の ECCプロックに記録される。
その後、 ステップ S 269に進み、 制御部 1 1 9は、 変数 Nvに、 無限大に相 当する値をセットして、 ビデオファイル記録タスクを終了する。
これにより、 図 36のビデオファイル記録タスクでも、 図 34のビデオフアイ ル記録タスクにおける場合と同様に、 光ディスク 7の読み書きの単位としての、 例えば、 ECCプロックの整数倍のデータ量の画像年輪データが、 その整数倍の数 の ECCブロックに、 画像年輪データの境界と、 光ディスク 7の ECCプロックの 境界とがー致するように、 周期的に記録される。
次に、 図 39のフローチャートを参照して、 ローレゾデータファイルとされた ローレゾデータを記録する、 図 3 3のステップ S 23 5で開始されるローレゾデ ータ記録タスクについて説明する。
ローレゾデータ記録タスクが開始されると、 まず最初に、 ステップ S 27 1に おいて、 制御部 1 1 9は、 後述するステップ S 277の処理で、 1ずつインクリ メントされる変数 を、 例えば 1に初期化し、 ステップ S 27 2に進む。
ステップ S 272では、 制御部 1 1 9は、
Figure imgf000067_0001
力 TsaxNa未満であり、 さらに、 TdXNiが、 TSVXNV未満で、 かつ TsmXNra以下であるかどうかを判 定する。
ここで、 TslxNi力 TsaX Na未満であるというのは、 図 3 7のステップ S 262で説明した場合と同様に、 これから記録しようとするローレゾ年輪データ である注目ローレゾ年輪データを、 再生時刻 Tslx 以前の最近の再生時間帯 の音声年輪データが記録された直後に記録するための条件である。 また、 TslX NLが、 TSVXNV未満であるというのは、 やはり、 図 37のステップ S 26 2で 説明した場合と同様に、 これから記録しようとするローレゾ年輪データである注 目ローレゾ年輪データを、 再生時刻 T^XNi以前の最近の再生時間帯の画像年 PC蘭議 08403
66
輪データが記録された直後に記録するための条件である。
さらに、 Ί^ΧΝ 力 TsraX Nra以下であるというのは、 図 3 4のステップ S 2 5 2における場合と同様に、 これから記録しようとするローレゾ年輪データで ある注目ローレゾ年輪データ、 即ち、 再生時刻
Figure imgf000068_0001
以前の最近の (再生時 刻 に最も近い) 再生時間帯のローレゾ年輪データを、 再生時刻 Tslx N L以前の最近の再生時間帯のメタ年輪データ直前、 つまり、 再生時刻!^ !^以 前の 2番目に新しい再生時間帯のメタ年輪データが記録された直後に記録するた めの条件である。
ステップ S 2 7 2において、 ローレゾ年輪データの再生時刻 TslX NLが、 音 声年輪データの再生時刻 TsaXNa未満、 画像年輪データの再生時刻 TSVX Nv未 満、 またはメタ年輪データの再生時刻 TsraXNra以下のうちのいずれかではない と判定された場合、 即ち、 現在のタイミングが、 注目ローレゾ年輪データの記録 を行うべきタイミングでない場合、 ステップ S 2 7 2に戻り、 以下、 同様の処理 が繰り返される。
また、 ステップ S 2 7 2において、 ローレゾ年輪データの再生時刻 TslxNi 力 音声年輪データの再生時刻 TsaXNa未満であり、 さらに、 画像年輪データ の再生時刻 TSVXNV未満であり、 かつメタ年輪データの再生時刻 TsmXNm以下 であると判定された場合、 即ち、 現在のタイミングが、 注目ローレゾ年輪データ の記録を行うべきタイミングである場合、 ステップ S 2 7 3に進み、 制御部 1 1 9は、 データ変換部 1 1 8からメモリコントローラ 1 1 6を介して、 メモリ 1 1 7に、 ローレゾデータが供給されているか否かを判定し、 供給されていると判定 した場合、 ステップ S 2 74に進む。
ステップ S 2 74では、 制御部 1 1 9は、 メモリ 1 1 7に、 通算して、 ローレ ゾ年輪サイズ T sl X N i分の再生に必要なローレゾデータが記憶されたか否かを 判定し、 まだ、 その分のローレゾデータがメモリ 1 1 7に記憶されていないと判 定された場合、 ステップ S 2 7 2に戻り、 以下、 同様の処理が繰り返される。 ま た、 ステップ S 2 7 4において、 再生時間 Τ^ ΧΓ^に対応する分のローレゾデ ータがメモリ 1 1 7に記憶されたと判定された場合、 ステップ S 2 7 5に進む。 なお、 データ変換部 1 1 8のデータ'量検出部 1 4 1は、 通算して、 再生時間 T al i分の再生に必要なビデオフアイルぉよびオーディォファイルを検出した とき、 その旨を、 メモリコントローラ 1 1 6に通知する。 メモリコントローラ 1 1 6は、 その通知に基づいて、 通算して、 再生時間 Ts l x 分の再生に必要な ローレゾデータをメモリ 1 1 7に記憶したか否かの判定を行い、 その判定結果を 制御部 1 1 9に通知する。 そして、 制御部 1 1 9は、 メモリコントローラ 1 1 6 からのその判定結果に基づいて、 ステップ S 2 7 4における判定処理を行う。 な お、 本実施の形態では、 ビデオファイル等のデータ量を少なく したビデオフアイ ル等を圧縮符号したものを、 ローレゾデータとするようにしたが、 その他、 ビデ ォファイル等のデータ量を少なく したビデオファイル等を、 そのまま、 ローレゾ データとするようにすることも可能である。
ステップ S 2 7 5では、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御し て、 メモリ 1 1 7に記憶されているローレゾデータから、 光ディスク 7に対して 読み書きを行う単位としての、 例えば 1つの ECCブロックのデータ量 Buの整数 倍 (n倍) のデータ量であって、 メモリ 1 1 7から読み出すことのできる最大の データ量のローレゾデータを、 時間的に先に入力された方から読み出させること により抽出し、 ステップ S 2 7 6に進む。
なお、 この ECCブロックの整数倍のデータ量であって、 メモリ 1 1 7力 ら読 み出すことのできる最大のデータ量のローレゾデータとして、 メモリ 1 1 7から 読み出されるローレゾ年輪データが、 上述し ίこ、,再生時刻 T sl X Ni以前の最近 のローレゾ年輪データである。
また、 ステップ S 2 7 5において読み出されなかったローレゾデータは、 その ままメモリ 1 1 7に残される。
ステップ S 2 7 6では、 制御部 1 1 9力 ステップ S 2 7 5で得られた、 ECC プロックの整数倍のデータ量の注目ローレゾ年輪データを、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCブロックの整 数倍のデータ量の注目ローレゾ年輪データが、 その整数倍の数の ECCブロック に記録されるように記録制御を行う。 これにより、 ECCプロックの整数倍のデー タ量のローレゾ年輪データが、 その整数倍の数の ECCブロックに、 ローレゾ年 輪データの境界と、 光ディスク 7の ECCプロックの境界とがー致するように記 録される。
その後、 ステップ S 277に進み、 制御部 1 1 9は、 変数 Niを 1だけインク リメントし、 ステップ S 272に戻り、 以下、 同様の処理を繰り返される。
一方、 ステップ S 27 3において、 ローレゾデータがメモリ 1 1 7に供給され ていないと判定された場合、 即ち、 データ変換部 1 1 8からメモリコントローラ 1 16へのローレゾデータの供給が停止した場合、 ステップ S 278に進み、 制 御部 1 1 9は、 メモリ コントローラ 1 1 6を制御することにより、 メモリ 1 1 7 にいま残っているローレゾデータのすべてを読み出し、 そのローレゾデータを、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCプロックの整数倍のデータ量のローレゾ年輪データが、 その整数倍の数の ECCブロックに記録されるように記録制御を行う。
ローレゾデータファイルは、 ECCブロックの整数倍のデータ量とされているの で、 ステップ S 278において、 ECCブロックの整数倍のデータ量のローレゾ年 輪データが、 その整数倍の数の ECCプロックに記録される。
その後、 ステップ S 279に進み、 制御部 1 1 9は、 変数 1^に、 無限大に相 当する値をセットして、 ローレゾデータ記録タスクを終了する。
次に、 図 40のフローチャートを参照して、 図 33のステップ S 236で開始 されるメタデータ記録タスクについて説明する。
メタデータ記録タスクが開始されると、 まず最初に、 ステップ S 28 1におい て、 制御部 1 1 9は、 後述するステップ S 28 7の処理で、 1ずつインクリメン トされる変数 を、 例えば 1に初期化し、 ステップ S 282に進む。
ステップ S 28 2では、 制御部 1 1 9は、 TsmxNm力 TsaXNa未満であり、 さらに、 TsraxNmが、 TSVXNV未満で、 かつ TslxN,未満であるかどうかを判 定する。
ここで、 TsmxNm力 TsaxNa未満であるというのは、 図 3 7のステップ S 2 6 2で説明した場合と同様に、 これから記録しようとするメタ年輪データであ る注目メタ年輪データを、 再生時刻 TsmX Nm以前の最近の再生時間帯の音声年 輪データが記録された直後に記録するための条件である。 また、 TsmxNm力 TSVXNV未満であるというのは、 やはり、 図 3 7のステップ S 2 6 2で説明し た場合と同様に、 これから記録しようとするメタ年輪データである注目メタ年輪 データを、 再生時刻 Tsmx Nm以前の最近の再生時間帯の画像年輪データが記録 された直後に記録するための条件である。 同様に、 Tsmx Nm力 S、 TslXN1*H であるというのは、 これから記録しょうとするメタ年輪データである注目メタ年 輪データを、 再生時刻 T sm X Nm以前の最近の再生時間帯のローレゾ年輪データ が記録された直後に記録するための条件である。
ステップ S 2 8 2において、 メタ年輪データの再生時刻 TsmXNraが、 音声年 輪データの再生時刻 T sa X Na未満、 画像年輪データの再生時刻 T sv X Nv未満、 またはメタ年輪データの再生時刻 T sl X N i未満のうちのいずれかではないと判 定された場合、 即ち、 現在のタイミングが、 注目メタ年輪データの記録を行うベ きタイミングでない場合、 ステップ S 2 8 2に戻り、 以下、 同様の処理が繰り返 される。
また、 ステップ S 2 8 2において、 メタ年輪データの再生時刻 TsmxNmが、 音声年輪データの再生時刻 TsaXNa未満であり、 さらに、 画像年輪データの再 生時刻 T sv X Nv未満でもあり、 かつローレゾ年輪データの再生時刻 T sl X 未 満であると判定された場合、 即ち、 現在のタイミングが、 注目メタ年輪データの 記録を行うべきタイミングである場合、 ステップ S 2 8 3に進み、 制御部 1 1 9 は、 データ変換部 1 1 8からメモリコントローラ 1 1 6を介して、 メモリ 1 1 7 に、 メタデータが供給されているか否かを判定し、 供給されていると判定した場 合、 ステップ S 2 8 4に進む。
ステップ S 2 8 4では、 制御部 1 1 9は、 メモリ 1 1 7に、 通算して、 メタ年 JP2004/008403
70
輪サイズ Tsrax Nm分の再生に必要なメタデータが記憶されたか否かを判定し、 まだ、 その分のメタデータがメモリ 1 1 7に記憶されていないと判定された場合、 ステップ S 2 8 2に戻り、 以下、 同様の処理が繰り返される。 また、 ステップ S 2 84において、 再生時間 TsmxNmに対応する分のメタデータがメモリ 1 1 7 に記憶されたと判定された場合、 ステップ S 2 8 5に進む。
なお、 データ変換部 1 1 8のデータ量検出部 1 4 1は、 通算して、 再生時間 T sm X Nm分の再生に必要なビデオフアイルおよびオーディオファイルを検出した とき、 その旨を、 メモリコントローラ 1 1 6に通知する。 メモリコントローラ 1 1 6は、 その通知に基づいて、 通算して、 再生時間 TsmxNm分の再生に必要な メタデータをメモリ 1 1 7に記憶したか否かの判定を行い、 その判定結果を制御 部 1 1 9に通知する。 そして、 制御部 1 1 9は、 メモリコントローラ 1 1 6から のその判定結果に基づいて、 ステップ S 2 84における判定処理を行う。
ステップ S 2 8 5では、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御し て、 メモリ 1 1 7に記憶されているメタデータから、 光ディスク 7に対して読み 書きを行う単位としての、 例えば 1つの ECCブロックのデータ量 Buの整数倍
(n倍) のデータ量であって、 メモリ 1 1 7から読み出すことのできる最大のデ ータ量のメタデータを、 時間的に先に入力された方から読み出させることにより 抽出し、 ステップ S 2 8 6に進む。
なお、 この ECCプロックの整数倍のデータ量であって、 メモリ 1 1 7から読 み出すことのできる最大のデータ量のメタデータとして、 メモリ 1 1 7から読み 出されるメタ年輪データが、 上述した、 再生時刻 TsmxNra以前の最近のメタ年 輪データである。
また、 ステップ S 2 8 5において読み出されなかったメタデータは、 そのまま メモリ 1 1 7に残される。
ステップ S 2 8 6では、 制御部 1 1 9力 ステップ S 2 8 5で得られた、 ECC プロックの整数倍のデータ量の注目メタ年輪データを、 メモリコントローラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCプロックの整数倍 PC漏 00麵 403
71
のデータ量の注目メタ年輪データが、 その整数倍の数の ECCブロックに記録さ れるように記録制御を行う。 これにより、 ECCプロックの整数倍のデータ量のメ タ年輪データが、 その整数倍の数の ECC ブロックに、 メタ年輪データの境界と、 光ディスク 7の ECC プロックの境界とがー致するように、 周期的に記録される。 その後、 ステップ S 2 8 7に進み、 制御部 1 1 9は、 変数 Nmを 1だけィンク リメントし、 ステップ S 2 8 2に戻り、 以下、 同様の処理を繰り返される。
一方、 ステップ S 2 8 3において、 メタデータがメモリ 1 1 7に供給されてい ないと判定された場合、 即ち、 データ変換部 1 1 8からメモリコントローラ 1 1 6へのメタデータの供給が停止した場合、 ステップ S 2 8 8に進み、 制御部 1 1 9は、 メモリコントローラ 1 1 6を制御することにより、 メモリ 1 1 7にいま残 つているメタデータのすべてを読み出し、 そのメタデータを、 メモリコントロー ラ 1 1 6から信号処理部 1 1 5に供給させ、 これにより、 その ECCプロックの 整数倍のデータ量のメタ年輪データが、 その整数倍の数の ECCブロックに記録 されるように記録制御を行う。
その後、 ステップ S 2 8 9に進み、 制御部 1 1 9は、 変数 Nmに、 無限大に相 当する値をセットして、 メタデータ記録タスクを終了する。
このように、 オーディオファイル記録タスク、 ビデオファィル記録タスク、 口 ーレゾデータ記録タスク、 およびメタデータ記録タスクの処理が行われ、 オーデ ィォファイル、 ビデオファイル、 メタデータ、 およびローレゾデータが、 光ディ スク 7に記録される。 これにより、 例えば、 音声年輪サイズ T saと画像年輪サイ ズ T s vが同一の時間である場合には、 同じような再生時間帯のオーディオフアイ ルのまとまりである音声年輪データと、 ビデオファイルのまとりまりである画像 年輪データとが、 光ディスク 7の隣接した位置に配置されるように、 順次記録さ れる。 さらに、 同じような再生時間帯のローレゾデータのまとまりであるローレ ゾ年輪データ、 およびメタデータのまとまりであるメタデータ年輪データが、 光 ディスク 7の音声年輪データおよび画像年輪データに隣接した位置に配置される ように、 順次記録される。 光ディスク 7には、 木の年輪を形成するかのように、 ビデオファイルとオーデ ィォファイルなどが記録される。 このことから、 光ディスク 7に記録されるォー ディォファイルやビデオファイルなどのひとまとまりを、 音声 「年輪」 データや 画像 「年輪」 データと呼んでいる'。 ローレゾ年輪データやメタ年輪データについ ても、 同様である。 なお、 以下、 適宜、 木の年輪を形成するかのように、 光ディ スク 7に記録される、 あるデータ系列の中のデータのまとまりを、 年輪データと いう。
ここで、 光ディスク 7に形成される年輪の幅 (ある 1つの音声年輪データや画 像年輪データが、 幾つのトラックに亘つて記録されるか) は、 音声年輪サイズ T saと画像年輪サイズ T svによって決定される。 なお、 音声年輪サイズ T saや画像 年輪サイズ T svは、 音声年輪データや画像年輪データを記録する光ディスク 7の 半径位置に応じて変化させることができる。 そして、 音声年輪サイズ T saや画像 年輪サィズ T svによっては、 1つの音声年輪データや画像年輪データが記録され るトラック力 1周分に満たないケースが生じる。
以上のように、 同じような再生時間帯の音声年輪データと画像年輪データが、 光ディスク 7上の近い位置に記録されるので、 光ディスク 7から、 同一の再生時 刻のオーディオファイルとビデオファイルを、 迅速に読み出して再生することが 可能となる。
また、 オーディオファイルとビデオファイルは、 複数の ECCプロックのデー タ量分の年輪データととされ、 その複数の ECCブロックに、 年輪データの境界 と ECC ブロックの境界とが一致するように記録されるので、 光ディスク 7から、 オーディオファイルまたはビデオファイルだけを読み出すことが可能となり、 そ の結果、 オーディオフアイルまたはビデオファイルだけの編集処理を迅速に行う ことが可能となる。
ビデオファイルのヘッダ、 ボディ、 およぴフッタのそれぞれのデータ量が、 ECCブロックの整数倍とされているので、 ヘッダ、 ボディ、 およぴフッタ毎に、 ECCブロックに記録される。 すなわち、 1つの ECCブロックに、 ヘッダ、 ボディ、 およびフッタのいずれか 2つが記録されることはない。
従って、 ヘッダ、 ボディ、 およぴフッタの 1つのを書き込む場合、 または読み 出す場合、 最小の数の ECCブロックに対して、 書き込みまたは読み出しの処理 が実行されることになり、 より効率的に読み書きの処理ができるようになる。 そ の結果、 ファイルの書き込みの処理において、 データが書き換えられるクラスタ の数が最小の数となり、 光ディスク 7の書き換えの回数に物理的 (物性的な) な 制限がある場合、 データの書き換えの回数に対しての光ディスク 7の寿命が長く なるといぅメリツトが得られる。
なお、 図 3 4のオーディオファイル記録タスクにおけるステップ S 2 5 2、 図 3 7のビデオファイル記録タスクにおけるステップ S 2 6 2、 図 3 9のローレゾ データ記録タスクにおけるステップ S 2 7 2、 図 4 0のメタデータ記録タスクに おけるステップ S 2 8 2それぞれの判定処理によって、 同じような再生時間帯の 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、'およびメタ年輪データ どうしが、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 メタ年輪デ ータの順の優先順位で、 光ディスク 7に周期的に記録される。
但し、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 およびメタ年 輪データを光ディスク 7に記録するときの優先順位は、 上述した、 音声年輪デー タ、 画像年輪データ、 ローレゾ年輪データ、 メタ年輪データの順に限定されるも のではない。
例えば、 光ディスク 7に記録するときの優先順位は、 メタ年輪データ、 音声年 輪データ、 画像年輪データ、 およびローレゾ年輪データの順とすることができる 次に、 メモリ コントローラ 1 1 6は、 上述したように、 メモリ 1 1 7からデー タを読み出すことにより、 音声年輪データ、 画像年輪データ、 ローレゾ年輪デー タ、 メタ年輪データを抽出するが、 この音声年輪データ、 画像年輪データ、 ロー レゾ年輪データ、 メタ年輪データを構成 (抽出) する処理について、 図 4 1乃至 図 4 5を参照して、 さらに説明する。
図 4 1は、 メモリ 1 1 7に記憶されるオーディオファイルの通算のデータ量 TJP2004/008403
74
(通算データ量) L a、 ビデオファイルの通算データ量 L v、 ローレゾデータの 通算データ量 L l、 メタデータの通算データ量 Lmそれぞれと、 時間 (再生時 間) tとの関係を示している。 なお、 図 4 1中 (後述する図 4 2乃至図 4 5にお いても同様) 、 右側の上下方向を示す小さな矢印 (水平方向の点線の間隔を示す 矢印) は、 ECCブロックのデータ量 Buを表している。
上述したように、 メモリコントローラ 1 1 6は、 再生時間 TsaXNaの再生に 必要なオーディオファイルがメモリ 1 1 7に記憶されると、 メモリ 1 1 7から読 み出すことのできる ECCプロックの整数倍の最大のデータ量のオーディオファ ィルを読み出し、 その ECCプロックの整数倍の最大のデータ量のオーディオフ アイルを、 音声年輪データとして抽出する。 また、 メモリ コントローラ 1 1 6は、 再生時間 TSVXNVの再生に必要なビデオファイルがメモリ 1 1 7に記憶される と、 メモリ 1 1 7から読み出すことのできる ECCプロックの整数倍の最大のデ ータ量のビデオファイルを読み出し、 その ECCプロックの整数倍の最大のデー タ量のビデオファイルを、 画像年輪データとして抽出する。 さらに、 メモリコン トローラ 1 1 6は、 再生時間 T^x Niの再生に必要なローレゾデータがメモリ 1 1 7に記憶されると、 メモリ 1 1 7から読み出すことのできる ECCブロック の整数倍の最大のデータ量のローレゾデータを読み出し、 その ECCブロックの 整数倍の最大のデータ量のローレゾデータを、 ローレゾ年輪データとして抽出す る。 また、 メモリ コントローラ 1 1 6は、 再生時間 Tsmx Nraの再生に必要なメ タデータがメモリ 1 1 7に記憶されると、 メモリ 1 1 7から読み出すことのでき る ECCプロックの整数倍の最大のデータ量のメタデータを読み出し、 その ECC プロックの整数倍の最大のデータ量のメタデータを、 メタ年輪データとして抽出 する。
従って、 図 4 1に示したように、 メモリ 1 1 7に記憶されるオーディオフアイ ルの通算データ量 L aが変化する場合には、 メモリコントローラ 1 1 6は、 図 4 2に示すように、 時刻 tが、 音声年輪サイズ Tsaの整数倍である i x Tsaとなる タイミングで ( i = l, 2, ■ · · ) 、 メモリ 1 1 7から読み出すことのできる ECCプロックの整数倍の最大のデータ量のオーディオファイルを読み出し、 その ECCプロックの整数倍の最大のデータ量のオーディオファイルを、 音声年輪デー タとして抽出する。
ここで、 図 4 2の実施の形態では、 時刻 tが、 Tsa, 2 X Tsa, 3 X Tsa, 4 X Tsaのタイミングにおいて、 それぞれ、 1つの ECCプロック、 2つの ECCプロッ ク、 1つの ECCブロック、 2つの ECCブロック分のオーディオファイルが、 音 声年輪データ # 1, # 2, # 3, # 4として抽出されている。
なお、 時刻 tが、 Tsa, 2 X Tsa, 3 x Tsa, 4 x Tsaのタイミングにおいて、 音声年輪データ # 1, # 2, # 3, # 4が抽出されることにより、 メモリ 1 1 7 に残ったデータである端数は、 次の年輪に含められる。
また、 図 4 1に示したように、 メモリ 1 1 7に記憶されるビデオファイルの通 算データ量 L Vが変化する場合には、 メモリコントローラ 1 1 6は、 図 4 3に示 すように、 時刻 が、 画像年輪サイズ Tsvの整数倍である ' i X Tsvとなるタイミ ングで、 メモリ 1 1 7から読み出すことのできる ECCプロックの整数倍の最大 のデータ量のビデオファイルを読み出し、 その ECCブロックの整数倍の最大の データ量のビデオファイルを、 画像年輪データとして抽出する。
ここで、 図 4 3の実施の形態では、 時刻 tが、 Tsv, 2 X Tsv) 3 x Tsv, 4 X Tsvのタイミングにおいて、 それぞれ、 4つの ECCブロック、 2つの ECCブロッ ク、 5つの ECCブロック、 2つの ECCプロック分のビデオファイルが、 画像年 輪データ # 1 , # 2, # 3, # 4として抽出されている。
なお、 時刻もが、 Tsv, 2 X Tsv, 3 X Tsv, 4 X Tsvのタイミングにおいて、 画像年輪データ # 1, # 2, # 3, # 4が抽出されることにより、 メモリ 1 1 7 に残つたデータである端数は、 次の年輪に含められる。
さらに、 図 4 1に示したように、 メモリ 1 1 7に記憶されるローレゾデータの 通算データ量 L 1が変化する場合には、 メモリコントローラ 1 1 6は、 図4 4に 示すように、 時刻 tが、 ローレゾ年輪サイズ Tslの整数倍である i X Tslとなる タイミングで、 メモリ 1 1 7から読み出すことのできる ECCブロックの整数倍 の最大のデータ量のローレゾデータを読み出し、 その ECCプロックの整数倍の 最大のデータ量のローレゾデータを、 ローレゾ年輪データとして抽出する。
ここで、 図 44の実施の形態では、 時刻 tが、 Tsl, 2 X TS1のタイミングに おいて、 それぞれ、 1つの ECCプロック、 3つの ECCブロック分のローレゾデ ータが、 ローレゾ年輪データ # 1 , # 2として抽出されている。
なお、 時刻 t力 Tsl, 2 X Tslのタイミングにおいて、 ローレゾ年輪データ # 1, # 2が抽出されることにより、 メモリ 1 1 7に残ったデータである端数は、 次の年輪に含められる。
また、 図 4 1に示したように、 メモリ 1 1 7に記憶されるメタデータの通算デ ータ量 Lmが変化する場合には、 メモリコントローラ 1 1 6は、 図 4 5に示すよ うに、 時刻 tが、 メタ年輪サイズ Tsmの整数倍である i X Tsmとなるタイミング で、 メモリ 1 1 7から読み出すことのできる ECCブロックの整数倍の最大のデ ータ量のメタデータを読み出し、 その ECCプロックの整数倍の最大のデータ量 のメタデータを、 メタ年輪データとして抽出する。
ここで、 図 4 5の実施の形態では、 時刻 tが、 Tsm, 2 x Tsraのタイミングに おいて、 いずれも、 1つの ECCブロック分のメタデータが、 メタ年輪データ # 1 , # 2としてそれぞれ抽出されている。
なお、 時刻 tが、 Tsm, 2 X Tsmのタイミングにおいて、 メタ年輪データ # 1, # 2が抽出されることにより、 メモリ 1 1 7に残ったデータである端数は、 次の 年輪に含められる。
いま、 図 4 2に示した音声年輪サイズ Tsa、 図 4 3に示した画像年輪サイズ T sv、 図 44に示したローレゾ年輪サイズ Tsl、 および図 4 5に示したメタ年輪サ ィズ Tsmについて、 例えば、 画像年輪サイズ Tsvが、 音声年輪サイズ Tsaと等し く、 ローレゾ年輪サイズ Tslおよびメタ年輪サイズ Tsmが、 音声年輪サイズ Tsa の 2倍に等しいという関係があるとすると (2 X Tsa= 2 x Tsv=Tsl=Tsra) 、 図 3 4のオーディオファイル記録タスク、 図 3 7のビデオファイル記録タスク、 図 3 9のローレゾデータ記録タスク、 およぴ図 4 0のメタデータ記録タスクによ れば、 図 4 2の音声年輪データ # 1乃至 # 4、 図 4 3の画像年輪データ # 1乃至 # 4、 図 4 4のローレゾ年輪データ # 1および # 2、 図 4 5のメタ年輪データ # 1および # 2は、 図 2 7に示すように、 光ディスク 7に周期的に記録される。 即ち、 上述したように、 同じような再生時間帯の音声年輪データ、 画像年輪デ ータ、 ローレゾ年輪データ、 およびメタ年輪データについては、 上述したように、 音声年輪データ、 画像年輪データ、 ローレゾ年輪データ、 メタ年輪データの順の 優先順位で、 光ディスク 7のより前の位置に記録される。
さらに、 例えば、 最も優先順位が高い音声年輪データを基準に考えると、 音声 年輪サイズ T saと同一の画像年輪サイズ T svの画像年輪データについては、 音声 年輪データと同一の周期で光ディスク 7に記録される。 即ち、 ある再生時間帯の 音声年輪データが記録されれば、 その音声年輪データに続いて、 その再生時間帯 と同じような再生時間帯の画像年輪データが記録される。
また、 音声年輪サイズ T saの 2倍となっているローレゾ年輪サイズ T slのロー レゾ年輪については、 音声年輪データの 2倍の周期で光ディスク 7に記録される。 即ち、 ある再生時間帯のローレゾ年輪データについては、 その再生時間帯を 2分 するような 2つの再生時間帯の音声年輪データが存在し、 その 2つの再生時間帯 の音声年輪データが記録された後に記録される。
さらに、 音声年輪サイズ T saの 2倍となっているメタ年輪サイズ T smのメタ年 輪については、 やはり、 音声年輪データの 2倍の周期で光ディスク 7に記録され る。 即ち、 ある再生時間帯のメタ年輪データについては、 その再生時間帯を 2分 するような 2つの再生時間帯の音声年輪データが存在し、 その 2つの再生時間帯 の音声年輪データが記録された後に記録される。
以上から、 図 4 2の音声年輪データ # 1乃至 # 4、 図 4 3の画像年輪データ #
1乃至 # 4、 図 4 4のローレゾ年輪データ # 1および # 2、 図 4 5のメタ年輪デ ータ # 1および # 2は、 図 4 6に示すように、 その光ディスク 7の内周側から外 周側に向かって、 音声年輪データ # 1、 画像年輪データ # 1、 音声年輪データ #
2、 画像年輪データ # 2、 ローレゾ年輪データ # 1、 メタ年輪データ # 1、 音声 年輪データ # 3、 画像年輪データ # 3、 音声年輪データ # 4、 画像年輪データ # 4、 ローレゾ年輪データ # 2、 メタ年輪データ # 2, . ■ ' の順番で記録される。 なお、 図 4 1乃至図 4 6の実施の形態では、 画像年輪サイズ Tsvと音声年輪サ ィズ Tsaと等しく し、 ローレゾ年輪サイズ Tslおよびメタ年輪サイズ Tsmを、 音 声年輪サイズ Tsaの 2倍とするようにしたが、 音声年輪サイズ Tsa、 画像年輪サ ィズ Tsv、 ローレゾ年輪サイズ Tsl、 メタ年輪サイズ Tsraそれぞれどうしの関係 は、 これに限定されるものではない。 即ち、 音声年輪サイズ Tsa、 画像年輪サイ ズ Tsv、 ローレゾ年輪サイズ Tsl、 メタ年輪サイズ Tsmは、 例えば、 すべて同一 の時間とすることもできるし、 すべて異なる時間とすることなども可能である。 また、 音声年輪サイズ Tsa、 画像年輪サイズ Tsv、 ローレゾ年輪サイズ Tsl、 お よびメタ年輪サイズ Tsmは、 例えば、 光ディスク 7の用途や使用目的にあわせて 設定することが可能である。
即ち、 ローレゾ年輪サイズ Tslや、 メタ年輪サイズ Tsmは、 例えば、 音声年輪 サイズ Tsaおよび画像年輪サイズ Tsvよりも大とすることが可能である。
ローレゾ年輪サイズ Tslを、 音声年輪サイズ Tsaおよび画像年輪サイズ Tsvよ りも大とした場合 (例えば、 音声年輪サイズ Tsaおよび画像年輪サイズ Tsvが 2 秒であるのに対して、 ローレゾ年輪サイズ Tslを 1 0秒とした場合) には、 例え ば、 ローレゾデータによるシャトル再生速度や、 コンピュータなどの外部の装置 へのローレゾデータの転送速度を向上させることができる。
即ち、 ローレゾデータは、 本線データよりもデータ量が少ないため、 光デイス ク 7からの読み出しを短時間で行うことができ、 さらに、 処理負担も少ないので、 シャ トル再生などの変速再生に利用することができる。 そして、 ローレゾ年輪サ ィズ Tslを大とする場合には、 光ディスク 7からローレゾデータだけを読み出す ときに生じるシークの頻度を少なくすることができるから、 光ディスク 7からの ローレゾデータだけの読み出しを、 より短時間で行うことが可能となり、 その口 ーレゾデータを利用したシャ トル再生を行うときには、 シャ トル再生の速度を向 上させることができる。 さらに、 ローレゾデータをコンピュータなどに転送して 04 008403
79
処理する場合には、 その転送速度を向上させる (転送に要する時間を短くする) ことができる。
また、 メタ年輪サイズ T sを、 音声年輪サイズ T saおよび画像年輪サイズ T sv よりも大とした場合 (例えば、 音声年輪サイズ T saおよび画像年輪サイズ Tsvが 2秒であるのに対して、 メタ年輪サイズ T sraを 2 0秒とした場合) には、 ローレ ゾ年輪サイズ Tslを大とした場合と同様に、 光ディスク 7からメタデータだけを 短時間で読み出すことができる。 従って、 例えば、 そのメタデータに含まれるタ ィムコードなどを用いて、 本線データであるビデオファイルの特定のフレームの 検索などを、 高速で行うことが可能となる。
従って、 ローレゾデータのシャトル再生や外部への転送を高速で行うことが要 求される場合には、 ローレゾ年輪サイズ T slを大にすることにより、 また、 フレ ームの検索の高速性が要求される場合には、 メタ年輪サイズ T sを大とすること により、 その要求に応えた利便性の高い光ディスク 7を提供することが可能とな る。
以上のように、 ローレゾ年輪サイズ T slや、 メタ年輪サイズ T smを大とするこ とにより、 ローレゾデータやメタデータだけなどの特定のデータ系列の読み出し に要する時間 (さらには、 書き込みに要する時間も) を短縮することができる。 従って、 音声年輪サイズ T saや、 画像年輪サイズ T svを大とした場合には、 や はり、 本線データとしてのオーディオファイルやビデオファイルだけの読み出し (さらには、 書き込み) に要する時間を短縮することができる。 その結果、 ォー ディォファイルまたはビデオフアイルだけを編集する、 いわゆる AV (Audio Visual)スプリット編集を行う場合には、 その編集処理の高速化を図ることがで きる。
伹し、 画像と音声の再生を行う場合、 その再生を開指するには、 各再生時刻の ビデオファイルと、 そのビデオファイルに付随するオーディオファイルとが揃う まで待つ必要がある。 音声年輪サイズ Tsaや、 画像年輪サイズ T svを大とすると、 その大きな音声年輪サイズ Tsaのオーディオフアイルまたは画像年輪サイズ Tsv のビデオファイルのうちの一方を読み出し、 さらに、 その後に、 他方を読み出さ なければならず、 ある再生時刻のビデオファイルと、 そのビデオファイルに付随 するオーディオファイルとが揃うまでの時間が大となって、 再生が指令されてか ら、 実際に再生が開始されるまでの遅延時間が大となる。 さらに、 ある再生時刻 のビデオファイルと、 そのビデオファイルに付随するオーディオファイルとを同 時に再生するために、 大きな音声年輪サイズ T saのオーディオファイルまたは画 像年輪サイズ T svのビデオファイルのうちの先に読み出される方は、 少なくとも、 後に読み出される方の読み出しが開始されるまで、 メモリ 1 1 7に記憶しておく 必要がある。 以上から、 音声年輪サイズ T saや、 画像年輪サイズ T svを大とする と、 再生が開始されるまでの遅延時間が大となる他、 メモリ 1 1 7として、 容量 の大きなものが必要となる。
従って、 音声年輪サイズ T saと画像年輪サイズ T svは、 再生が開始されるまで の遅延時間や、 メモリ 1 1 7の容量として許容される値を考慮して決めるのが望 ましい。
なお、 ローレゾデータやメタデータは、 オーディオファイルやビデオファイル に比較してデータ量が十分小さいので、 ローレゾ年輪サイズ T slゃメタ年輪サイ ズ T smを大としても、 音声年輪サイズ T saや画像年輪サイズ T svを大とした場合 に比較して、 メモリ 1 1 7に必要とされる容量の増加は、 それほど問題とならな い。
また、 光ディスク 7に記録するときの優先順位は、 メタ年輪データ、 音声年輪 データ、 画像年輪データ、 およびローレゾ年輪データの順とすることができる。 この場合、 メタ年輪データ # 1および # 2、 音声年輪データ # 1および # 2、 画 像年輪データ # 1および # 4、 ローレゾ年輪データ # 1および # 2は、 例えば、 図 4 7に示すように、 その光ディスク 7の内周側から外周側に向かって、 メタ年 輪データ # 1、 音声年輪データ # 1、 画像年輪データ # 1、 ローレゾ年輪データ # 1、 メタ年輪データ # 2、 音声年輪データ # 2、 画像年輪データ # 2、 ローレ ゾ年輪データ # 2、 · ■ 'の順番で記録される。 PC蘭 004/008403
81
図 4 8は、 ディスクドライブ装置 1 1によって、 光ディスク 7に対するデータ の読み書きが行われる様子を示している。 なお、 図 4 8では、 光ディスク 7に対 して、 メタデータファイル、 ォ一ディォファイル、 ビデオファイル、 およびロー レゾデータの 4つのデータ系列の読み書きが行われるものとしてある。
図 4 8においては、 メタ年輪データ # 1、 音声年輪データ # 1、 画像年輪デー タ # 1、 およびローレゾ年輪データ # 1を、 年輪データ # 1とし、 メタ年輪デー タ # 2、 音声年輪データ # 2、 画像年輪データ # 2、 およびローレゾ年輪データ # 2を、 年輪データ # 2とし、 同様に、 N番目のメタ年輪データ # N、 音声年輪 データ # N、 画像年輪データ # N、 およびローレゾ年輪データ # Nを、 年輪デー タ# Nとして表している。
光ディスク 7にデータが書き込まれる場合には、 光ディスク 7に十分な大きさ の連続した空き領域が存在し、 その空き領域に、 欠陥 (ディフ タト) がないと すれば、 メタデータ、 オーディオファイル、 ビデオファイル、 ローレゾデータの データ系列それぞれから抽出された音声年輪データ、 画像年輪データ、 ローレゾ 年輪データ、 メタ年輪データは、 図 4 8に示すように、 光ディスク 7上の空き領 域に、 いわば一筆書きをするように書き込まれる。 なお、 メタ年輪データ、 音声 年輪データ、 画像年輪データ、 およびローレゾ年輪データは、 いずれも、 光ディ スク 7の ECCブロックの整数倍のデータ量を有し、 さらに、 そのデータの境界 と、 ECCプロックの境界とが一致するように記録される。
図 1 3のメタデータフアイル生成処理のフローチャート、 および図 1 5のビデ ォファイル生成処理のフローチャートを参照して説明したように、 メタデータフ アイル、 およびビデオファイルは、 ボディ、 フッタ、 およびヘッダの順に、 ディ スクドライブ装置 1 1に供給される。
図 1 6のオーディオファイル生成処理のフローチヤ一トを参照して説明したよ うに、 オーディオファイルは、 ボディのオーディオアイテムのバリューおよび KLV構造とされたフィラーが、 ディスク ドライブ装置 1 1に供給されて、 次に、 フッタがディスクドライブ装置 1 1に供給されて、 その後に、 ヘッダ並びにォー ディオアィテムキーおよびレングスがディスク ドライブ装置 1 1に供給される。 図 3 2のローレゾファイル合成の処理のフローチヤ一トを参照して説明したよ うに、 ローレゾファイルは、 ボディ、 フッタ、 およびヘッダの順に、 メモリコン トローラ 1 1 6に供給される。
従って、 メタデータ、 オーディオファイル、 ビデオファイル、 ローレゾデータ のデータ系列それぞれから抽出された音声年輪データ、 画像年輪データ、 ローレ ゾ年輪データ、 メタ年輪データは、 図 4 8に示すように、 ボディ、 フッタ、 へッ ダの順に、 光ディスク 7上の空き領域に書き込まれる。
図 1 3のメタデータファイル生成処理のフローチヤ一ト、 図 1 5のビデオファ ィル生成処理のフローチャート、 図 1 6のオーディオファイル生成処理のフロー チャート、 図 3 2のローレゾファイル合成の処理のフローチャート、 および図 3 3の記録処理のフローチャートで説明される処理をまとめて、 記録の処理として、 図 4 9のフローチャートを参照して説明する。 '
ステップ S 2 9 1において、 ディスク ドライブ装置 1 1の制御部 1 1 9は、 メ タデータフアイノレ、 ビデオフアイノレ、 オーディオフアイ/レ、 およびローレゾファ ィルのボディを光デイス 7に記録して、 ステップ S 2 9 2に進む。 ステップ S 2 9 2において、 制御部 1 1 9は、 メタデータファイル、 ビデオファイル、 オーデ ィォファイル、 およびローレゾファイルのボディの記録が終了したか否かを判定 し、 ボディの記録が終了していないと判定された場合、 ステップ S 2 9 1に戻り、 ボディの記録の処理を繰り返す。
ステップ S 2 9 2において、 ボディの記録が終了したと判定された場合、 ステ ップ S 2 9 3に進み、 制御部 1 1 9は、 メタデータファイル、 ビデオファィル、 オーディオフアイル、 およびローレゾフアイルのフッタを光ディス 7に記録して、 ステップ S 2 9 4に進む。 ステップ S 2 9 4において、 制御部 1 1 9は、 メタデ 一タフアイノレ、 ビデオファイル、 オーディォファイル、 およびローレゾフアイノレ のフッタの記録が終了したか否かを判定し、 フッタの記録が終了していないと判 定された場合、 ステップ S 2 9 3に戻り、 フッタの記録の処理を繰り返す。 ステップ S 2 9 4において、 フッタの記録が終了したと判定された場合、 ステ ップ S 2 9 5に進み、 制御部 1 1 9は、 メタデータファイル、 ビデオファイル、 オーディォファイル、 およびローレゾファイルのヘッダを光ディス 7に記録して、 記録の処理は終了する。
このように、 ヘッダをボディおよびフッタの後に記録するようにしたので、 ォ 一ディォデータの再生時間またはタイムコード (TC) などの、 ボディが確定し なければ決まらないデータを含むヘッダを 1度の処理で記録することができるよ うになる。
また、 光ディスク 7上で、 ヘッダをボディおよびフックに続けて、 言い換えれ ば、 ボディおよびフッタにに近接した位置にヘッダを確実に記録することができ るよつになる。
なお、 光ディスク 7から、 ファイルを読み出す場合には、 ヘッダ、 ボディ、 フ ッタが順にシークされて、 ヘッダ、 ボディ、 およぴフッタが順に読み出される。 また、 本実施の形態では、 メモリコントローラ 1 1 6において、 音声年輪サイ ズ T saの整数倍の時刻ごとに、 ECCブロックなどの読み書きを行う単位の整数倍 のデータ量であって、 メモリ 1 1 7から読み出すことのできる最大のデータ量の オーディオファイルを読み出すことによって、 音声年輪データを抽出するように したが、 即ち、 音声年輪サイズ T saの整数倍の時刻において、 メモリ 1 1 7に、 N個の ECCプロックより大であるが、 N + 1個の ECCプロックより小のデータ 量のオーディオファイルが記憶されている場合に、 N個の ECCプロックのデー タ量のオーディオファイルを、 音声年輪データとして抽出するようにしたが、 そ の他、 例えば、 音声年輪サイズ T saの整数倍の時刻となった後、 N + 1個の ECC ブロック以上のデータ量のオーディオファイルがメモリ 1 1 7に記憶されるのを 待って、 N + 1個の ECCプロックのデータ量のオーディオファイルを読み出す ことにより、 音声年輪データを抽出するようにすることが可能である。 画像年輪 データや、 ローレゾ年輪データ、 メタ年輪データの抽出についても、 同様である。 即ち、 年輪データのデータ量は、 光ディスク 7に対して読み書きを行う単位の整 数倍のデータ量であって、 かつ音声年輪サイズ等として設定された再生時間分の 再生に必要なデータ量に近いデータ量であればよい。
さらに、 メタデータについては、 そのすベての構成要素を、 メタ年輪データに 含める他、 その一部の構成要素だけをメタ年輪データに含め、 他の構成要素は、 メタ年輪データとは別に記録するようにすることが可能である。 即ち、 メタデー タについては、 例えば、 タイムコードなどの、 ビデオファイルのフレームなどの 検索に用いることのできる構成要素と、 その他の構成要素とに分けて、 検索に用 いることのできる構成要素は、 例えば、 光ディスク 7の内周側などにまとめて記 録し、 その他の構成要素は、 メタ年輪データに含めて、 光ディスク 7に周期的に 記録することが可能である。 この場合、 検索に用いることのできる構成要素が、 光ディスク 7にまとめて記録されるので、 検索に要する時間を短縮することがで さる。
なお、 メタデータについては、 そのすベての構成要素を、 光ディスク 7の内周 側などにまとめて記録しても良い。 但し、 メタデータのすべての構成要素を、 光 ディスク 7の内周側などにまとめて記録する場合には、 その記録が終了するまで、 メタデータ以外のデータ系列の記録を待つ必要があるか、 あるいは、 メタデータ 以外のデータ系列の記録が終了するまで、 メタデータのすべての構成要素を記憶 しておく必要がある。 これに対して、 メタデータのうちの検索に用いることので きる構成要素だけを、 光ディスク 7にまとめて記録する場合には、 メタデータの すべての構成要素を、 光ディスク 7にまとめて記録する場合に比較して、 メタデ ータ以外のデータ系列の記録を待つ時間を短くし、 あるいは、 メタデータ以外の データ系列の記録が終了するまで記憶しておく必要のあるメタデータのデータ量 を低減することができる。
または本発明は、 光ディスク以外のディスク状記録媒体に適用することができ る。
また、 以上においては、 ビデオファイルおよびオーディオファイルを、 螺旋状 のトラックに配置する場合を例として説明したが、 同心円状のトラックに交互に 配置することもできる。 この場合、 各トラックは、 内周側のトラックから隣接す る外周側のトラックに連続することになる。
次に、 図 5 0は、 図 7の独立 Z標準変換部 2 2の構成例を示している。
バッファ 3 0 1は、 ディスクドライブ装置 1 1 (図 1 ) から供給される AV独 立フォーマットのフアイノレ (マスタフアイノレ、 フアイノレ単位のメタデータフアイ ル、 フレーム単位のメタデータファイル、 ォグジユアリファイル、 ビデオフアイ ノレ、 8チャネルそれぞれのオーディォファイル、 ローレゾデータフアイノレ) を一 時記憶する。
フアイル取得部 3 0 2は、 バッファ 3 0 1に記憶されたマスタフアイルを参照 することにより、 ファイル単位のメタデータファイル、 フレーム単位のメタデー タファイル、 ォグジユアリファイル、 ビデオファイル、 8チャネルそれぞれのォ 一ディォファイル、 ローレゾファイルのファイル名を認、識し、 そのファイル名に 基づき、 ファイル単位のメタデータファイル、 フレーム単位のメタデータフアイ ル、 ォグジユアリファイル、 ビデオファイル、 8チャネルそれぞれのオーディオ ファイル、 ローレゾファイルを、 バッファ 3 0 1を介し、 ディスク ドライブ装置 1 1に光ディスク 7から読み出させることで取得する。 さらに、 ファイル取得部 3 0 2は、 取得したファイル単位のメタデータファイルとフレーム単位のメタデ ータファイルをメタデータファイル処理部 3 0 3に、 ォグジユアリファイルをォ グジユアリファイル処理部 3 0 4に、 ビデオフアイルをビデオファィル処理部 3 0 5に、 8チャネルそれぞれのオーディオファイルをオーディオファイル処理部 3 0 6に、 それぞれ供給する。 また、 ファイル取得部 3 0 2は、 ローレゾフアイ ルをバッファ 3 0 9に供給する。 '
メタデータファイル処理部 3 0 3は、 ファイル取得部 3 0 2から供給されるフ アイル単位のメタデータファイルからファイル単位のメタデータを抽出するとと もに、 フレーム単位のメタデータファイルからフレーム単位のメタデータが配置 されたシステムアイテムを抽出し、 データ合成部 3 0 7に供給する。
ォグジユアリファイル処理部 3 0 4は、 フアイル取得部 3 0 2から供給される 8403
86
ォグジユアリファイルからォグジユアリアイテムを抽出し、 データ合成部 3 0 7 に供給する。
ビデオファィル処理部 3 0 5は、 フアイル取得部 3 0 2カゝら供給されるビデオ ファイルからピクチャアイテムを抽出し、 データ合成部 3 0 7に供給する。
オーディオファイル処理部 1 0 5は、 ファイル取得部 3 0 2から供給される 8 チャネルそれぞれのオーディォファイルから、 各チャネルのオーディォデータを 抽出し、 さらに、 その各チャネルのオーディオデータを多重化して配置したサゥ ンドアイテムを構成して、 データ合成部 3 0 7に供給する。
データ合成部 3 0 7は、 メタデータファイル処理部 3 0 3から供給されるファ ィル単位のメタデータおよびシステムアイテム、 ォグジユアリファイル処理部 3 0 4から供給されるォグジユアリアイテム、 ビデオファイル処理部 3 0 5から供 給されるピクチャアイテム、 並びにオーディオファイル処理部 3 0 6から供給さ れるサウンドアイテムを用いて、 標準 AV 多重フォーマツ'トのファイルを構成し、 ノ ッファ 3 0 8に供給する。
バッファ 3 0 8は、 データ合成部 3 0 7から供給される標準 AV多重フォーマ ットのファイルまたはファイル取得部 3 0 2から供給されるローレゾファイルを 一時記憶し、 通信 I/F 1 3 (図 1 ) に供給する。
次に、 図 5 1は、 図 5 0のビデオファイル処理部 3 0 5の構成例を示している。 フアイル取得部 3 0 2から供給されるビデオファィルは、 へッダ Zフッタ除去 部 3 1 1に供給される。 ヘッダノフッタ除去部 3 1 1は、 そこに供給されるビデ ォファイルからヘッダとフッタを除去し、 残ったボディを、 分解部 3 1 2に供給 する。 分解部 3 1 2は、 ヘッダ /フッタ除去部 3 1 1から供給されるボディに配 置されたピクチャアイテムのシーケンスを分離することにより、 そのシーケンス から、 他のアイテム (システムアイテム、 サウンドアイテム、 ォグジユアリアィ テム) と多重化する単位、 即ち、 ここでは、 フレーム単位のビデオデータが配置 された個々のピクチャアイテムを抽出し、 データ合成部 3 0 7 (図 5 0 ) に供給 する。 次に、 図 5 2は、 図 5 0のオーディオファイル処理部 3 0 6の構成例を示して いる。
ファイル取得部 3 0 2から供給される 8チャネルそれぞれのオーディオフアイ ルは、 ヘッダ/フッタ除去部 3 2 1に供給される。 ヘッダ Zフッタ除去部 3 2 1 は、 そこに供給される 8チャネルそれぞれのオーディオファイルから、 ヘッダと フッタを除去し、 その結果残る各チャネルのボディを、 KLVデコーダ 3 2 2に供 給する。
KLVデコーダ 3 2 2は、 ヘッダ Zフッタ除去部 3 2 1から供給される各チヤネ ルのボディの KLV構造を分解し、 これにより得られる各チャネルの WAVE形式の オーディオデータを、 データ変換部 3 2 3に供給する。
データ変換部 3 2 3は、 KLVデコーダ 3 2 2から供給されるオーディオデータ に対して、 図 1 0のデータ変換部 6 3における場合と逆の変換処理を施す。 即ち、 データ変換部 3 2 3は、 KLVデコーダ 3 2 2から供給される WAVE形式の各チヤ ネルのオーディォデータを、 AES3形式の各チャネルのオーディォデータに変換 し、 チャネル多重化部 3 2 4に供給する。
チャネル多重化部 3 2 4は、 データ変換部 1 2 4から供給される各チャネルの オーディオデータを、 サンプル単位で多重化し、 その結果得られる多重化オーデ ィォデータを、 KLVエンコーダ 3 2 5に供給する。
KLVエンコーダ 3 2 5は、 チャネル多重化部 3 2 4から供給される多重化ォー ディォデータを、 ビデオデータの各フレームに対応する単位に区切り、 その各フ レームに対応する多重化オーディオデータを KLV構造に KLV コーディングする。 さらに、 KLVエンコーダ 3 2 5は、 各フレームに対応する多重化オーディオデー タの KLV構造に対して、 固定長のサウンドアイテムのデータ長に足りない分の フィラーの KLV構造を付加し、 これにより、 サウンドアイテムを構成して、 デ ータ合成部 3 0 7 (図 5 0 ) に供給する。
次に、 図 5 3は、 図 5 0のデータ合成部 3 0 7の構成例を示している。
ヘッダ/フッタ生成部 3 3 1には、 メタデータファイル処理部 3 0 3が出力す るファイル単位のメタデータが供給される。 ヘッダ フッタ生成部 3 3 1は、 標 準 AV多重フォーマットのフアイノレのヘッダとフッタを生成し、 さらに、 そのへ ッダのヘッダメタデータに、 メタデータファイル処理部 3 0 3からのファイル単 位のメタデータを配置して、 そのヘッダとフッタを、 ヘッダ/フッタ付加部 3 3 3に供給する。
多重化部 3 3 2には、 メタデータファイル処理部 3 0 3が出力するシステムァ ィテム、 ォグジユアリファイル処理部 3 0 4が出力するォグジユアリアイテム、 ビデオファイル処理部 3 0 5が出力するピクチャアイテム、 オーディオファイル 処理部 3 0 6が出力するサウンドアイテムが供給される。 多重化部 3 3 2は、 そ こに供給されるシステムアイレム、 ピクチャアイテム、 サウンドアイテム、 オダ ジユアリアイテムを、 その順で、 順次多重化することにより、 エディットュニッ トのシーケンスを構成し、 そのエディットユニットのシーケンスを、 ボディとし て、 へッダ Zフッタ付加部 3 3 3に供給する。 '
ヘッダ/フック付加部 3 3 3は、 多重化部 3 3 2から供給されるボディに、 へ ッダ /フッタ生成部 3 3 1から供給されるヘッダとフッタを付加し、 これにより、 標準 AV多重フォーマツトのファイルを構成して出力する。
次に、 図 5 0の独立/標準変換部 2 2では、 メタデータファイルを処理するメ タデータファイル処理、 ォグジユアリファイルを処理するォグジユアリファイル 処理、 ビデオファイルを処理するビデオファイル処理、 オーディオファイルを処 理するオーディオファイル処理、 これらの処理結果を用いて標準 AV多重フォー マッ トのファイルを合成 (生成) する合成処理が行われる。
そこで、 図 5 4乃至図 5 8のフローチャートを参照して、 独立/標準変換部 2 2が行うメタデータファイル処理、 ォグジユアリファイル処理、 ビデオファイル 処理、 オーディオファイル処理、 および合成処理について説明する。
まず最初に、 図 5 4のフローチャートを参照して、 メタデータファイル処理に ついて説明する。
メタデータファイル処理は、 例えば、 ディスクドライブ装置 1 1によって光デ イスク 7から、 マスタファイルが読み出され、 バッファ 3 0 1に記憶されると開 始される。
即ち、 まず最初に、 ステップ S 3 0 1において、 ファイル取得部 3 0 2は、 ッファ 3 0 1に記憶されたマスタファイルを参照することにより、 ファイル単位 とフレーム単位それぞれのメタデータファイルのファイル名を認識する。 さらに、 ステップ S 3 0 1では、 ファイル取得部 3 0 2は、 そのファイル名に基づき、 フ アイル単位とフレーム単位それぞれのメタデータファイルを、 バッファ 3 0 1を 介し、 ディスク ドライブ装置 1 1に光ディスク 7から読み出させることで取得し、 メタデータファイル処理部 3 0 3に供給して、 ステップ S 3 0 2に進む。 ステツ プ S 3 0 2では、 メタデータファイル処理部 3 0 3は、 ファイル取得部 3 0 2力 ら供給されるファイル単位のメタデータファイルからファイル単位のメタデータ を抽出するとともに、 フレーム単位のメタデータファイルからフレーム単位のメ タデータが配置されたシステムアイテムを抽出し、 データ合成部 3 0 7に供給し て、 メタデータファイル処理を終了する。
次に、 図 5 5のフローチャートを参照して、 ォグジユアリファイノレ処理につい て説明する。
ォグジユアリファイル処理は、 例えば、 ディスク ドライブ装置 1 1によって光 ディスク 7から、 マスタファイルが読み出され、 バッファ 3 0 1に記憶されると 開始される。
即ち、 まず最初に、 ステップ S 3 1 1において、 ファイル取得部 3 0 2は、 ッファ 3 0 1に記憶されたマスタファイルを参照することにより、 ォグジユアリ ファイルのファイル名を認識する。 さらに、 ステップ S 3 1 1では、 ファイル取 得部 3 0 2は、 そのファイル名に基づき、 ォグジユアリファイルを、 バッファ 3 0 1を介し、 ディスク ドライブ装置 1 1に光ディスク 7から読み出させることで 取得し、 ォグジユアリファイル処理部 3 0 4に供給して、 ステップ S 3 1 2に進 む。
ステップ S 3 1 2では、 ォグジユアリファイル処理部 3 0 4は、 フアイル取得 部 3 0 2から供給されるォグジユアリファイルをォグジユアリアイテム単位に分 解することで、 ォグジユアリファイルからォグジユアリアイテムを抽出 (取得) し、 データ合成部 3 0 7に供給して、 ォグジユアリファイル処理を終了する。 次に、 図 5 6のフローチャートを参照して、 ビデオファイル処理について説明 する。
ビデオファイル処理は、 例えば、 ディスクドライブ装置 1 1によって光デイス ク Ίか 、 マスタファイルが読み出され、 バッファ 3 0 1に記憶されると開始さ れる。
即ち、 まず最初に、 ステップ S 3 2 1において、 ファイル取得部 3 0 2は、 ッファ 3 0 1に記憶されたマスタファイルを参照することにより、 ビデオフアイ ルのファイル名を認識する。 さらに、 ステップ S 3 2 1では、 ファイル取得部 3 0 2は、 そのフアイノレ名に基づき、 ビデオフアイノレを、 ノ ッファ 3 0 1を介し、 ディスクドライブ装置 1 1に光ディスク 7から読み出させることで取得し、 ビデ ォファイル処理部 3 0 5に供給して、 ステップ S 3 2 2に進む。
ステップ S 3 2 2では、 ビデオファイル処理部 3 0 5 (図 5 1 ) のヘッダ フ ッタ除去部 3 1 1が、 ファイル取得部 3 0 2から供給されるビデオファイルから ヘッダとフッタを除去し、 その結果残ったボディを、 分解部 3 1 2に供給して、 ステップ S 3 2 3に進む。 ステップ S 3 2 3では、 分解部 3 1 2は、 ヘッダ フ ッタ除去部 3 1 1から供給されるボディに配置されたピクチャアイテムのシーケ ンスを、 個々のピクチャアイテムに分解し、 データ合成部 3 0 7に供給して、 ビ デォファイル処理を終了する。
次に、 図 5 7のフローチャートを参照して、 オーディオファイル処理について 説明する。
オーディオファイル処理は、 例えば、 ディスク ドライブ装置 1 1によって光デ イスク 7から、 マスタファイルが読み出され、 バッファ 3 ◦ 1に記憶されると開 始される。
即ち、 まず最初に、 ステップ S 3 3 1において、 ファイル取得部 3 0 2は、 バ ッファ 3 0 1に記憶されたマスタファイルを参照することにより、 8チャネルそ れぞれのオーディオファイルのファイル名を認識する。 さらに、 ステップ S 3 3 1では、 ファイル取得部 3 0 2は、 そのファイル名に基づき、 8チャネルそれぞ れのオーディオファイルを、 バッファ 3 0 1を介し、 ディスク ドライブ装置 1 1 に光ディスク 7から読み出させることで取得し、 オーディオファイル処理部 3 0 6に供給して、 ステップ S 3 3 2に進む。
ステップ S 3 3 2では、 オーディファイル処理部 1 0 6 (図 5 2 ) のヘッダ/ フッタ除去部 3 2 1 、 ファイル取得部 3 0 2から供給される 8チャネルそれぞ れのオーディオファイルから、 ヘッダとフッタを除去し、 その結果残る各チヤネ ルのボディを、 KLVデコーダ 3 2 2に供給して、 ステップ S 3 3 3に進む。 ステ ップ S 3 3 3では、 KLVデコーダ 3 2 2は、 ヘッダ/フッタ除去部 3 2 1から供 給される各チャネルのボディの KLV構造を分解し、 これにより得られる各チヤ ネルの WAVE形式のオーディオデータを、 データ変換部 3 2 3に供給して、 ステ ップ S 3 3 4に進む。
ステップ S 3 3 4では、 データ変換部 3 2 3は、 KLVデコーダ 3 2 2から供給 ざれる WAVE形式の各チャネルのオーディオデータを、 AES3形式の各チャネルの オーディオデータに変換し、 チャネル多重化部 3 2 4に供給して、 ステップ S 3 3 5に進む。 ステップ S 3 3 5では、 チャネル多重化部 3 2 4は、 データ変換部 1 2 4から供給される各チャネルのオーディオデータを多重化し、 その結果得ら れる多重化オーディオデータを、 KLVエンコーダ 3 2 5に供給して、 ステップ S 3 3 6に進む。
ステップ S 3 3 6では、 KLVエンコーダ 3 2 5は、 チャネル多重化部 3 2 4力、 ら供給される多重化オーディォデータを、 ビデオデータの各フレームに対応する 単位に区切り、 そのフレームに対応する多重化オーディォデータを KLV構造に KLVコーディングして、 ステップ S 3 3 7に進む。 さらに、 ステップ S 3 3 7で は、 KLVエンコーダ 3 2 5は、 各フレームに対応する多重化オーディオデータの KLV構造に対して、 必要なフィラーの KLV構造を付加し、 これにより、 サウンド アイテムを構成して、 データ合成部 3 0 7に供給し、 オーディオファイル処理を 終了する。
次に、 図 5 8のフローチャートを参照して、 合成処理について説明する。
合成処理は、 例えば、 データ合成部 3 0 7に対して、 メタデータファイル処理 部 3 0 3からファイル単位のメタデータおよびシステムアイテムが、 ォグジユア リファイル処理部 3 0 4からォグジユアリアイテムが、 ビデオファイル処理部 3 0 5からピクチャアイテムが、 オーディオファイル処理部 3 0 6からサウンドァ ィテムが、 それぞれ供給されると開始される。
即ち、 まず最初に、 ステップ S 3 4 1において、 データ合成部 3 0 7 (図 5 3 ) のヘッダ Zフッタ生成部 3 3 1力 標準 AV多重フォーマッ トのファイルの ヘッダとフッタを生成し、 さらに、 そのヘッダのヘッダメタデータに、 メタデー タファイル処理部 3 0 3からのファイル単位のメタデータを配置する。 さらに、 ステップ S 3 4 1では、 ヘッダ Zフッタ生成部 3 3 1が、'以上のようにして得ら れたへッダとフッタを、 へッダ Zフッタ付加部 3 3 3に供給して、 ステップ S 3 4 2に進む。
ステップ S 3 4 2では、 多重化部 3 3 2力 メタデータファイル処理部 3 0 3 が出力するシステムアイテム、 ォグジユアリファイル処理部 3 0 4が出力するォ グジユアリアイテム、 ビデオファイル処理部 3 0 5が出力するピクチャアイテム、 オーディオファイル処理部 3 0 6が出力するサウンドアイテムを多重化し、 その 多重化の結果得られるエディットユニットのシーケンスを、 ボディとして、 へッ ダ /フッタ付加部 3 3 3に供給して、 ステップ S 3 4 3に進む。
ステップ S 3 4 3では、 へッダ /フッタ付加部 3 3 3は、 多重化部 3 3 2から 供給されるボディに、 へッダ /フッタ生成部 3 3 1から供給されるヘッダとフッ タを付加し、 これにより、 標準 AV多重フォーマッ トのファイルを構成して出力 し、 合成処理を終了する。
以上のように、 それぞれのデータ系列についてのデータが周期的に配置される ように記録するようにした場合には、 記録媒体の利便性を向上させることができ る。
次に、 ディスク装置 1による、 いわゆる、 アフレコの処理について説明する。 アフレコの処理は、 記録されている音声または画像を読み出しながら、 読み出し た音声または画像を再生すると共に、 再生している音声または画像に同期する、 他の音声または他の画像を記録する処理である。 例えば、 記録されている画像が 読み出されて、 読み出された画像を再生すると共に、 再生している画像に同期す る他の音声が記録される。 また、 例えば、 記録されている音声が読み出されて、 読み出された音声を再生すると共に、 再生している音声に同期する他の画像が記 録される。
アフレコの処理は、 音声を記録する場合、 一般に、 ボイスオーバー記録とも称 されている。 また、 アフレコの処理は、 後録りまたは別録りとも称されている。 以下の説明において、 記録されている音声または画像を読み出しながら、 これ に同期する他の音声または他の画像を記録する処理をアフレコの処理と称する。 本発明に係るディスク装置 1のアフレコの処理においては、 光ディスク 7に記 録されているローレゾデータファイルが読み出されて、 ローレゾデータによって 音声または画像が再生されると共に、 再生している音声または画像に同期する、 音声または画像が取得されて、 本線データである、 オーディオファイルまたはビ デォファイルに取得された音声または画像が記録される。
図 5 9は、 ディスク装置 1のアフレコの処理を説明する図である。 オーディオ データを記録するアフレコの処理を実行する場合、 ディスク装置 1は、 ディスク ドライブ装置 1 1に装着されている光ディスク 7から、 記録先に指定された本線 データであるオーディオファイルと、 同一内容の画像および音声のデータ系列で あるローレゾデータが格納されているローレゾデータファイルを下地として読み 出し、 読み出したローレゾデータファイルを基に、 画像を再生する。 上述したよ うに、 ローレゾデータは、 光ディスク 7に記録されている、 本線データであるビ デォデータおよびオーディオデータの少なくとも一方と同一内容の低解像度デー タである。 記録をすベき本線データであるオーディォデータが供給されてくるので、 ディ スク装置 1は、 供給されてきたオーディオデータを取得し、 記録先に指定された オーディォファイルに記録する。
ディスク装置 1は、 ローレゾデータファイルの読み出しの処理と、 オーディオ データのオーディオファイルへの記録の処理とを繰り返す。 ローレゾデータファ ィルの読み出しの処理、 およびオーディォデータのオーディオファイルへの記録 の処理は、 見かけ上、 同時に実行される。
また、 ビデオデータを記録するアフレコの処理を実行する場合、 ディスク装置 1は、 ディスクドライブ装置 1 1に装着されている光ディスク 7から、 記録先に 指定された本線データであるビデオファイルと、 同一内容の画像および音声のデ ータ系列であるローレゾデータが格納されているローレゾデータファイルを下地 として読み出し、 読み出したローレゾデータファイルを基に、 音声を再生する。 記録をすベき本線データであるビデオデータが供給されてくるので、 ディスク 装置 1は、 供給されてきたビデオデータを取得し、 記録先に指定されたビデオフ アイルに記録する。
ディスク装置 1は、 ローレゾデータファイルの読み出しの処理と、 ビデオデー タのビデオファイルへの記録の処理とを繰り返す。 ローレゾデータフアイノレの読 み出しの処理、 およびビデオデータのビデオファイルへの記録の処理は、 見かけ 上、 同時に実行される。
すなわち、 ディスク装置 1は、 光ディスク 7に記録されている、 本線データで あるビデオデータおょぴオーディォデータの少なくとも一方と同一内容の低解像 度データであるローレゾデータを読み出して、 光ディスク 7に既に記録されてい る本線データであるビデオデータおよぴオーディォデータの少なくとも一方に同 期する、 供給されたてきたビデオデータまたはオーディオデータを光ディスク 7 に記録する。
例えば、 ディスク装置 1の光ディスク 7への読み書きのデータレートを 7 2 Mbps (Mega b it per second)とした場合、 本;锒データのデータレートとしては、 例えば、 5 O Mbps程度を採用し、 ローレゾデータのデータレートとしては、 例 えば、 2 Mbps程度を採用することができる。
この場合、 アフレコの処理において、 本線データを読み出して、 再生し、 供給 されたデータを本線データに記録するとすれば、 読み出しに 5 O Mbpsのデータ レート、 記録に 5 O Mbpsのデータレートが必要とされ、 合計 1 0 O Mbpsのデー タレ一トが必要とされることになり、 ディスク装置 1のデータレートを超えてし まい、 アフレコの処理を実行することはできない。
一方、 ローレゾデータを読み出して、 再生し、 供給されたデータを本線データ に記録するとすれば、 読み出しに 2 Mbpsのデータレート、 記録に 5 O Mbpsのデ ータレートが必要とされ、 合計 5 2 Mbpsのデータレートが必要とされることに なり、 ディスク装置 1のデータレートの範囲に収まり、 アフレコの処理を十分に 実現することができる。
逆に言えば、 従来は、 アフレコの処理を行う場合、 データレートは、 装置のデ ータレートの半分以下としなければならなかったのに対して、 本発明のディスク 装置 1においては、 このような制約がなくなり、 本線データのデータレートを、 装置のデータレートに対して、 より大きくすることができる。
換言すれば、 本発明によれば、 より高ビッ トレートのオーディオデータまたは ビデオデータを記録するアフレコの処理を実行することができるようになる。 図 6 0は、 オーディオデータを記録するアフレコの処理を説明するフローチヤ ートである。 ステップ S 3 6 1において、 制御部 1 1 9は、 操作部 1 2 0からの 操作信号などに基づき、 オーディオデータを記録するチャンネルの指定を取得し、 ステップ S 3 6 2に進む。 チャンネルの指定は、 既に光ディスク 7に記録されて いるオーディオファイルを特定するものでもよく、 新規のオーディオファイルを 記録させるものであってもよい。
ステップ S 3 6 2において、 制御部 1 1 9は、 操作部 1 2 0からの操作信号な どに基づき、 記録を開始するか否かを判定し、 記録を開始しないと判定された場 合、 記録を開始すると判定されるまで、 判定の処理を繰り返す。 ステップ S 3 6 2において、 記録を開始すると判定された場合、 ステップ S 3 6 3に進み、 制御部 1 1 9は、 サーボ制御部 1 1 4および信号処理部 1 1 5を制 御して、 ステップ S 3 6 1の処理で、 指定されたチャンネルのオーディオフアイ ルと同一内容の音声およぴ画像のデータ系列である口ーレゾデータを光ディスク 7から読み出し、 ステップ S 3 6 4に進む。 ステップ S 3 6 3において、 例えば、 制御部 1 1 9は、 光ディスク 7に記録されているマスタファイルを信号処理部 1 1 5に読み出させ、 マスタファイルの記述を基に、 指定されたチャンネルのォー ディォファイルと同一内容の音声および画像のデータ系列の口一レゾデータファ ィルを特定する。 そして、 制御部 1 1 9は、 特定されたローレゾデータファイル に格納されているローレゾデータを読み出すように、 サーボ制御部 1 1 4および 信号処理部 1 1 5を制御する。
上述したように、 ローレゾデータファイルには、 指定されたチャンネルのォー ディォファイルと同一内容の低解像度の音声データおよび、 指定されたチャンネ ルのオーディォファイルに関連するビデオファイルと同一内容の低解像度の画像 データが多重化されている格納されているので、 ステップ S 3 6 3において、 制 御部 1 1 9は、 低解像度のオーディォデータおよび低解像度のビデオデータが多 重化されているローレゾデータを光ディスク 7から読み出すことになる。 1つの ローレゾデータに低解像度のオーディォデータおよびビデオデータが多重化され ているので、 複数のファイルを読み出すときに発生しやすいシークの処理をより 少なく して、 所望のチャンネルの低解像度のオーディオデータおよび低解像度の ビデオデータのいずれか、 またはその両方を出力することができる。
ステップ S 3 6 4において、 制御部 1 1 9は、 信号処理部 1 1 5に、 読み出さ れたローレゾデータファイルを再生させることにより、 画像を再生させ、 ステツ プ S 3 6 5に進む。 ステップ S 3 6 5において、 制御部 1 1 9は、 再生された画 像を、 メモリコントローラ 1 1 6、 データ変換部 1 1 8を介して、 フォーマツト 変換部 1 2に出力させて、 ステップ S 3 6 6に進む。 再生された画像は、 フォー マット変換部 1 2および通信 I/F 1 3を介して出力され、 出力された画像 (の信 号) によって、 AV装置 5または AV装置 6において、 画像が表示される。
ステップ S 3 6 6において、 ネットワーク 4を介して、 記録しょうとするォー ディォデータが送信されてくるので、 通信 I/F 1 3は、 送信されてきたオーディ ォデータを受信し、 フォーマット変換部 1 2を介して、 ディスクドライブ装置 1 1に受信したオーディオデータを供給する。 制御部 1 1 9は、 フォーマット変換 部 1 2を介して、 供給されてきたオーディオデータをデータ変換部 1 1 8に取得 させて、 ステップ S 3 6 7に進む。
ステップ S 3 6 7において、 制御部 1 1 9は、 ステップ S 3 6 6の処理で取得 されたオーディオデータを、 光ディスク 7の、 ステップ S 3 6 1の処理で指定さ れたチャンネルのオーディオファイルに記録し、 ステップ S 3 6 8に進む。 例え ば、 チャンネルの指定が、 既に光ディスク 7に記録されているオーディオフアイ ルを特定するものである場合、 ステップ S 3 6 7の処理で、 光ディスク 7に記録 されているオーディォファイルに、 ステップ S 3 6 6の処理で取得されたオーデ ィォデータが上書きされる。 例えば、 チャンネルの指定が、 新規のオーディオフ アイルを記録させるものである場合、 ステップ S 3 6 7の処理で、 取得されたォ 一ディォデータを格納する新たなオーディォファイルが光ディスク 7に記録され る。
ディスクドライブ装置 1 1には、 フォーマット変換部 1 2によって、 AV独立 フォーマツトに変換されたオーディオデータが供給されるので、 ステップ S 3 6 7において、 光ディスク 7の、 オーディオデータがまとめて配置されている AV 独立フォーマツトのオーディオファイルにオーディオデータは記録される。 この ようにすることで、 記録において、 シークなどの処理がより少なくなり、 より容 易に、 より安定してオーディオデータを記録することができるようになる。 ステップ S 3 6 8において、 制御部 1 1 9は、 操作部 1 2 0からの操作信号な どに基づき、 記録を終了するか否かを判定し、 記録を終了しないと判定された場 合、 ステップ S 3 6 3に戻り、 上述した処理を繰り返す。
ステップ S 3 6 8において、 記録を終了すると判定された場合、 オーディオデ T/JP2004/008403
98
ータを記録するアフレコの処理は、 終了する。
以上のように、 光ディスク 7から、 記録先に指定された本線データであるォー ディォファイルと同一内容の画像おょぴ音声のデータ系列であるローレゾデータ が格納されているローレゾデータファイルが下地として読み出され、 読み出した ローレゾデータファイルを基に、 画像が再生される。 記録をすべき本線データで あるオーディオデータは、 記録先に指定されたオーディオファイルに記録される。 ステップ S 3 6 3におけるローレゾデータの読み出しの処理と、 ステップ S 3 6 7におけるオーディオデータの記録の処理とが繰り返される。
図 6 1は、 ビデオデータを記録するアフレコの処理を説明するフローチャート である。 ステップ S 3 8 1において、 制御部 1 1 9は、 操作部 1 2 0からの操作 信号などに基づき、 ビデオデータを記録するビデオファイルの指定を取得し、 ス テツプ S 3 8 2に進む。 チャンネルの指定は、 既に光ディスク 7に記録されてい るビデオファィルを特定するものでもよく、 新規のビデオフアイルを記録させる ものであってもよい (アフレコしょうとする対象が音声だけからなる場合など) 。 ステップ S 3 8 2において、 制御部 1 1 9は、 操作部 1 2 0からの操作信号な どに基づき、 記録を開始するか否かを判定し、 記録を開始しないと判定された場 合、 記録を開始すると判定されるまで、 判定の処理を繰り返す。
ステップ S 3 8 2において、 記録を開始すると判定された場合、 ステップ S 3 8 3に進み、 制御部 1 1 9は、 サーポ制御部 1 1 4および信号処理部 1 1 5を制 御して、 ステップ S 3 8 1の処理で、 指定されたビデオファイルと同一内容の画 像および音声のデータ系列であるローレゾデータを光ディスク 7から読み出し、 ステップ S 3 8 4に進む。 ステップ S 3 8 3において、 例えば、 制御部 1 1 9は、 光ディスク 7に記録されているマスタファイルを信号処理部 1 1 5に読み出させ、 マスタフアイルの記述を基に、 指定されたビデオファイルと同一内容の画像およ び音声のデータ系列のローレゾデータファイルを特定する。 そして、 制御部 1 1 9は、 特定されたローレゾデータファイルに格納されているローレゾデータを読 み出すように、 サーボ制御部 1 1 4および信号処理部 1 1 5を制御する。 8403
99
ステップ S 3 8 4において、 制御部 1 1 9は、 信号処理部 1 1 5に、 読み出さ れたローレゾデータファイルを再生させることにより、 音声を再生させ、 ステツ プ S 3 8 5に進む。 ステップ S 3 8 5において、 制御部 1 1 9は、 再生された音 声を、 メモリコントローラ 1 1 6、 データ変換部 1 1 8を介して、 フォーマツト 変換部 1 2に出力させて、 ステップ S 3 8 6に進む。 再生された音声は、 フォー マット変換部 1 2および通信 I/F 1 3を介して出力され、 出力された音声 (の信 号) 力 AV装置 5または AV装置 6において、 音波に変換される。
ステップ S 3 8 6において、 ネットワーク 4を介して、 記録しょうとするビデ ォデータが送信されてくるので、 通信 I/F 1 3は、 送信されてきたビデオデータ を受信し、 フォーマット変換部 1 2を介して、 ディスクドライブ装置 1 1に受信 したビデオデータを供給する。 制御部 1 1 9は、 フォーマツト変換部 1 2を介し て、 供給されてきたビデオデータをデータ変換部 1 1 8に取得させて、 ステップ S 3 8 7に進む。 '
ステップ S 3 8 7において、 制御部 1 1 9は、 ステップ S 3 8 6の処理で取得 されたビデオデータを、 光ディスク 7の、 ステップ S 3 8 1の処理で指定された ビデオファイルに記録し、 ステップ S 3 8 8に進む。 例えば、 ビデオファイルの 指定が、 既に光ディスク 7に記録されているビデオファイルを特定するものであ る場合、 ステップ S 3 8 7の処理で、 光ディスク 7に記録されているビデオファ ィルに、 ステップ S 3 8 6の処理で取得されたビデオデータが上書きされる。 例 えば、 ビデオファイルの指定が、 新規のビデオファイルを記録させるものである 場合、 ステップ S 3 8 ·7の処理で、 取得されたビデオデータを格納する新たなビ デォファイルが光ディスク 7に記録される。
ディスクドライブ装置 1 1には、 フォーマット変換部 1 2によって、 AV独立 フォーマツトに変換されたビデオデータが供給されるので、 ステップ S 3 8 7に おいて、 光ディスク 7の、 ビデオデータがまとめて配置されている AV独立フォ 一マツトのビデオファイルにビデオデータは記録される。 このようにすることで、 記録において、 シークなどの処理がより少なくなり、 より容易に、 より安定して 08403
100
ビデオデータを記録することができるようになる。
ステップ S 3 8 8において、 制御部 1 1 9は、 操作部 1 2 0からの操作信号な どに基づき、 記録を終了するか否かを判定し、 記録を終了しないと判定された場 合、 ステップ S 3 8 3に戻り、 上述した処理を繰り返す。
ステップ S 3 8 8において、 記録を終了すると判定された場合、 ビデオデータ を記録するアフレコの処理は、 終了する。
以上のように、 光ディスク 7から、 記録先に指定された本線データであるビデ ォファイルと、 同一内容の画像および音声のデータ系列であるローレゾデータが 格納されているローレゾデータファイルが下地として読み出され、 読み出した口 ーレゾデータファイルを基に、 音声が再生される。 記録をすべき本線データであ るビデオデータは、 記録先に指定されたビデオファイルに記録される。 ステップ S 3 8 3におけるローレゾデータの読み出しの処理と、 ステップ S 3 8 7におけ るビデオデータの記録の処理とが繰り返される。
なお、 ローレゾデータを読み出して、 ローレゾデータの画像を再生して、 本線 のオーディオデータを記録するか、 ローレゾデータを読み出して、 ローレゾデー タの音声を再生して、 本線のビデオデータを記録すると説明したが、 ローレゾデ ータを読み出して、 ローレゾデータの画像を再生して、 本線のビデオデータを記 録するか、 ローレゾデータを読み出して、 ローレゾデータの音声を再生して、 本 線のオーディオデータを記録するようにしてもよい。 また、 ローレゾデータを読 み出して、 ローレゾデータの画像おょぴ音声を再生して、 本線のビデオデータお よびオーディオデータを記録するようにしてもよい。
例えば、 ディスク装置 1の光ディスク 7への読み書きのデータレートを 7 2 Mbps (Mega b it per second)とした場合、 ビデオデータのデータレートとして は、 例えば、 5 0 Mbps程度とし、 1チャンネルのオーディオデータのデータレ ートとしては、 例えば、 0 . 7 5 Mbps程度とすることができる。 オーディオが 8チャンネルとすれば、 全チャンネルのオーディオデータのデータレートは、 6 Mbps程度となる。 また、 メタデータのデータレートとしては、 例えば、 2 Mbps 程度とし、 ローレゾデータのデータレートとしては、 例えば、 2 Mbps程度とす ることができる。
この場合、 ローレゾデータを読み出して、 ローレゾデータの画像および音声を 再生して、 本線のビデオデータおよび 8チャンネルのオーディォデータを記録す る場合であっても、 ローレゾデータの読み出しに 2 Mbpsのデータレート、 記録 に 5 6 Mbpsのデータレートが必要とされて、 合計 5 6 Mbpsのデータレートが必 要とされることになり、 ディスク装置 1のデータレートの範囲に収まり、 ァフレ コの処理を十分に実現することができる。
また、 この場合、 アフレコの処理において、 メタデータを記録し、 さらにロー レゾデータを更新して記録することができる。
このように、 ローレゾデータを読み出しするようにした場合には、 低解像度デ' ータを基に、 本線データと同一の内容の画像または音声を再生することができる。 また、 記録媒体に記録されている、 第 1の画像データおよび第 1の音声データの 少なくとも一方と同一内容の低解像度データの読み出しを制御し、 記録媒体への、 第 1の画像データおよび第 1の音声データの少なくとも一方に同期する第 2の画 像データまたは第 2の音声データの記録を制御するようにした場合には、 記録媒 体からの読み出しまたは記録媒体への記録のビットレートに対して、 記録媒体に 記録されている第 1の画像データ若しくは第 1の音声データ、 または記録しょう とする第 2の画像データ若しくは第 2の音声データのビットレートが高い場合で あっても、 アフレコの処理を実行することができる。
次に、 上述した一連の処理は、 ハードウェアにより行うこともできるし、 ソフ トウエアにより行うこともできる。 一連の処理をソフトウエアによって行う場合 には、 そのソフトウェアを構成するプログラムが、 汎用のコンピュータ等にイン ス トーノレされる。
そこで、 図 6 2は、 上述した一連の処理を実行するプログラムがインス トール されるコンピュータの一実施の形態の構成例を示している。
プログラムは、 コンピュータに内蔵されている記録媒体としてのハードデイス ク 4 0 5や R O M 4 0 3に予め記録しておくことができる。
あるいはまた、 プログラムは、 フレキシブルディスク、 CD- ROM (Compact Disc Read Only Memory) , M0 (Magneto Opti cal)ディスク, DVD (Digi tal Versati l e Di sc) , 磁気ディスク、 半導体メモリなどのリムーバブル記録媒体 4 1 1に、 一 時的あるいは永続的に格納 (記録) しておくことができる。 このようなリムーバ ブル記録媒体 4 1 1は、 いわゆるパッケージソフトウェアとして提供することが できる。
なお、 プログラムは、 上述したようなリムーバブル記録媒体 4 1 1からコンビ ユータにインストールする他、 ダウンロードサイ トから、 ディジタル衛星放送用 の人工衛星を介して、 コ.ンピュータに無線で転送したり、 LAN (Local Area
Network)、 インターネットといったネットワークを介して、 コンピュータに有 線で転送し、 コンピュータでは、 そのようにして転送されてくるプログラムを、 通信部 4 0 8で受信し、 内蔵するハードディスク 4 0 5にインストールすること ができる。 '
コンピュータは、 CPU (Central Processing Uni t) 4 0 2を内蔵して ヽる。
CPU 4 0 2には、 バス 4 0 1を介して、 入出力ィンタフェース 4 1 0が接続され ており、 CPU 4 0 2は、 入出力インタフェース 4 1 0を介して、 ユーザによって、 キーボードや、 マウス、 マイク等で構成される入力部 4 0 7が操作等されること により指令が入力されると、 それにしたがって、 ROM (Read Only Memory) 4 0 3 に格納されているプログラムを実行する。 あるいは、 また、 CPU 4 0 2は、 ハー ドディスク 4 0 5に格納されているプログラム、 衛星若しくはネットワークから 転送され、 通信部 4 0 8で受信されてハードディスク 4 0 5にインストールされ たプログラム、 またはドライブ 4 0 9に装着されたリムーバブル記録媒体 4 1 1 から読み出されてハードディスク 4 0 5にインス トールされたプログラムを、 RAM (Random Acce ss Memory) 4 0 4にロードして実行する。 これにより、 CPU 4 0 2は、 上述したフローチャートにしたがった処理、 あるいは上述したブロック 図の構成により行われる処理を行う。 そして、 CPU 4 0 2は、 その処理結果を、 必要に応じて、 例えば、 入出力インタフェース 4 1 0を介して、 LCD (Liqui d Crystal Di splay)やスピーカ等で構成される出力部 4 0 6から出力、 あるいは、 通信部 4 0 8から送信、 さらには、 ハードディスク 4 ◦ 5に記録等させる。
また、 プログラムは、 1のコンピュータにより処理されるものであっても良い し、 複数のコンピュータによって分散処理されるものであっても良い。 さらに、 プログラムは、 遠方のコンピュータに転送されて実行されるものであっても良い。 なお、 本実施の形態では、 ディスク装置 1において、 光ディスク 7に対して、 データを読み書きするようにしたが、 データは、 光ディスク 7などのディスク状 の記録媒体に限らず、 ランダムアクセス可能な記録媒体であれば足り、 例えば、 半導体メモリ等に対して読み書きすることが可能である。
また、 図 1の実施の形態では、 ディスクドライブ装置 1 1、 フォーマット変換 部 1 2、 通信 I/F 1 3によって、 1つの装置であるディスク装置 1を構成するよ うにしたが、 ディスクドライブ装置 1 1、 フォーマツト変換部 1 2、 通信 I/F 1 3は、 それぞれ、 独立した 1つの装置とすることが可能である。 産業上の利用可能性
以上のように、 本発明によれば、 低解像度データを基に、 本線データと同一の 内容の画像または音声を再生することができる。
また、 本発明によれば、 記録媒体からの読み出しまたは記録媒体への記録のビ ットレートに対して、 記録媒体に記録されているデータ、 または記録しようとす るデータのビットレートが高い場合であっても、 アフレコの処理を実行すること ができる。

Claims

請求の範囲
1 . 第 1の画像データまたは第 1の音声データが記録されている記録媒体に、 第 2の画像データまたは第 2の音声データを記録する記録装置において、 前記記録媒体に記録されている、 前記第 1の画像データおょぴ前記第 1の音声 データの少なくとも一方と同一内容の低解像度データの読み出しを制御する読み 出し制御手段と、
前記記録媒体への、 前記第 1の画像データおよび前記第 1の音声データの少な くとも一方に同期する前記第 2の画像データまたは前記第 2の音声データの記録 を制御する記録制御手段と
を含むことを特徴とする記録装置。
2 . 前記読み出し制御手段は、 前記第 1の画像データと同一内容の低解像度画 像データおよび前記第 1の音声データと同一内容の低解像度音声データが多重化 されている前記低解像度データの読み出しを制御する
ことを特徴とする請求の範囲第 1項に記載の記録装置。
3 . 前記記録制御手段は、 前記第 2の画像データを、 画像データがまとめて配 置されている第 1のファイルに記録するように記録を制御するか、 または前記第 2の音声データを、 音声データがまとめて配置されている第 2のファイルに記録 するように記録を制御する
ことを特徴とする請求の範囲第 1項に記載の記録装置。
4 . 前記記録媒体は、 光ディスクである
ことを特徴とする請求の範囲第 1項に記載の記録装置。
5 . 前記記録媒体は、 半導体メモリである
ことを特徴とする請求の範囲第 1項に記載の記録装置。
6 . 第 1の画像データまたは第 1の音声データが記録されている記録媒体に、 第 2の画像データまたは第 2の音声データを記録する記録方法において、 前記記録媒体に記録されている、 前記第 1の画像データおよび前記第 1の音声 データの少なくとも一方と同一内容の低解像度データの読み出しを制御する読み 出し制御ステップと、
前記記録媒体への、 前記第 1の画像データおよび前記第 1の音声データの少な くとも一方に同期する前記第 2の画像データまたは前記第 2の音声データの記録 を制御する記録制御ステップと
を含むことを特徴とする記録方法。
7 . 第 1の画像データまたは第 1の音声データが記録されている記録媒体に、 第 2の画像データまたは第 2の音声データを記録する処理を、 コンピュータに行 わせるプログラムにおいて、
前記記録媒体に記録されている、 前記第 1の画像データおよび前記第 1の音声 データの少なくとも一方と同一内容の低解像度データの読み出しを制御する読み 出し制御ステップと、
前記記録媒体への、 前記第 1の画像データおよび前記第 1の音声データの少な くとも一方に同期する前記第 2の画像データまたは前記第 2の音声データの記録 を制御する記録制御ステップと
を含むことを特徴とするプログラム。
8 . 第 1の画像データと同一内容の低解像度の低解像度画像データおよび前記 第 1の画像データが記録されている記録媒体に第 2の画像データを記録する記録 装置において、
前記第 1の画像データおよぴ前記低解像度画像データの読み出しを制御する読 み出し制御手段と、
前記第 1の画像データに同期して前記第 2の画像データの記録を制御する記録 制御手段と
を備えることを特徴とする記録装置。
9 . 前記読み出し制御手段は、 前記第 1の画像データと同一内容の前記低解像 度画像データおよび音声データと同一内容の低解像度音声データが多重化されて いる低解像度データの読み出しを制御する
ことを特徴とする請求の範囲第 8項に記載の記録装置。
1 0 . 前記記録制御手段は、 前記第 2の画像データを、 画像データがまとめて 配置されているファイルに記録するように記録を制御する
ことを特徴とする請求の範囲第 8項に記載の記録装置。
1 1 . 前記記録媒体は、 光ディスクである
ことを特徴とする請求の範囲第 8項に記載の記録装置。
1 2 . 前記記録媒体は、 半導体メモリである
ことを特徴とする請求の範囲第 8項に記載の記録装置。
1 3 . 第 1の画像データと同一内容の低解像度の低解像度画像データおよび前 記第 1の画像データが記録されている記録媒体に第 2の画像データを記録する記 録方法において、
前記第 1の画像データおよび前記低解像度画像データの読み出しを制御する読 み出し制御ステップと、
前記第 1の画像データに同期して前記第 2の画像データの記録を制御する記録 制御ステップと
を含むことを特徴とする記録方法。
1 4 . 第 1の画像データと同一内容の低解像度の低解像度画像データおよび前 記第 1の画像データが記録されている記録媒体に第 2の画像データを記録する処 理を、 コンピュータに行わせるプログラムにおいて、
前記第 1の画像データおよび前記低解像度画像データの読み出しを制御する読 み出し制御ステップと、
前記第 1の画像データに同期して前記第 2の画像データの記録を制御する記録 制御ステップと
を含むことを特徴とするプログラム。
1 5 . 第 1の音声データと同一内容の低解像度の低解像度音声データおよび第 1の音声データが記録されている記録媒体に第 2の音声データを記録する記録装 置において、
前記第 1の音声データおよび前記低解像度音声データの読み出しを制御する読 み出し制御手段と、
前記第 1の音声データに同期して前記第 2の音声データの記録を制御する記録 制御手段と
を備えることを特徴とする記録装置。
1 6 . 前記読み出し制御手段は、 前記第 1の音声データと同一内容の前記低解 像度音声データおよび画像データと同一内容の低解像度画像データが多重化され ている低解像度データの読み出しを制御する
ことを特徴とする請求の範囲第 1 5項に記載の記録装置。
1 7 . 前記記録制御手段は、 前記第 2の音声データを、 音声データがまとめて 配置されているファイルに記録するように記録を制御する
ことを特徴とする請求の範囲第 1 5項に記載の記録装置。
1 8 . 前記記録媒体は、 光ディスクである
ことを特徴とする請求の範囲第 1 5項に記載の記録装置。
1 9 . 前記記録媒体は、 半導体メモリである
ことを特徴とする請求の範囲第 1 5項に記載の記録装置。
2 0 . 第 1の音声データと同一内容の低解像度の低解像度音声データおよび第 1の音声データが記録されている記録媒体に第 2の音声データを記録する記録方 法において、
前記第 1の音声データおよぴ前記低解像度音声データの読み出しを制御する読 み出し制御ステップと、
前記第 1の音声データに同期して前記第 2の音声データの記録を制御する記録 制御ステップと
を含むことを特徴とする記録方法。
2 1 . 第 1の音声データと同一内容の低解像度の低解像度音声データおよび第 1の音声データが記録されている記録媒体に第 2の音声データを記録する処理を、 コンピュータに行わせるプログラムにおいて、
前記第 1の音声データおよぴ前記低解像度音声データの読み出しを制御する読 み出し制御ステップと、
前記第 1の音声データに同期して前記第 2の音声データの記録を制御する記録 制御ステップと
を含むことを特徴とするプログラム。
PCT/JP2004/008403 2003-06-26 2004-06-09 記録装置および方法、並びにプログラム WO2005002217A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04745952A EP1530369A1 (en) 2003-06-26 2004-06-09 Recording device, recording method, and program
US10/525,635 US20060127052A1 (en) 2003-06-26 2004-06-09 Recording device, recording method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-181971 2003-06-26
JP2003181971A JP3777609B2 (ja) 2003-06-26 2003-06-26 記録装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
WO2005002217A1 true WO2005002217A1 (ja) 2005-01-06

Family

ID=33549541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/008403 WO2005002217A1 (ja) 2003-06-26 2004-06-09 記録装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20060127052A1 (ja)
EP (1) EP1530369A1 (ja)
JP (1) JP3777609B2 (ja)
WO (1) WO2005002217A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5022025B2 (ja) * 2006-12-27 2012-09-12 インターナショナル・ビジネス・マシーンズ・コーポレーション コンテンツのデータ・ストリームとメタデータを同期するための方法および装置。
US20080310825A1 (en) * 2007-06-12 2008-12-18 Microsoft Corporation Record quality based upon network and playback device capabilities
US8250410B2 (en) * 2007-07-04 2012-08-21 Panasonic Corporation Video recording and reproducing apparatus and method thereof
KR100964281B1 (ko) 2008-11-19 2010-06-17 주식회사 제머나이소프트 데이터 구조 및 그의 전송방법
KR102300997B1 (ko) * 2015-03-11 2021-09-13 한국전자통신연구원 전정 재활 운동을 위한 실감 효과 장치 및 방법
US10057366B2 (en) * 2015-12-31 2018-08-21 Hughes Network Systems, Llc Accurate caching in adaptive video streaming based on collision resistant hash applied to segment contents and ephemeral request and URL data
JP7247616B2 (ja) * 2019-01-31 2023-03-29 株式会社リコー データ編集処理装置、アプリケーション、及び撮影装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198447A (ja) * 1997-09-25 1999-04-09 Sony Corp 撮像装置、編集装置及び編集システム
JPH11136631A (ja) * 1997-10-31 1999-05-21 Sony Corp 光ディスク装置
JPH11136609A (ja) * 1997-10-30 1999-05-21 Sony Corp 編集装置及び編集方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043616A (ja) * 1999-07-30 2001-02-16 Sharp Corp 記録方法、記録媒体及び記録装置
US7912340B2 (en) * 2002-01-15 2011-03-22 Sony Corporation Data processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198447A (ja) * 1997-09-25 1999-04-09 Sony Corp 撮像装置、編集装置及び編集システム
JPH11136609A (ja) * 1997-10-30 1999-05-21 Sony Corp 編集装置及び編集方法
JPH11136631A (ja) * 1997-10-31 1999-05-21 Sony Corp 光ディスク装置

Also Published As

Publication number Publication date
JP2005020321A (ja) 2005-01-20
US20060127052A1 (en) 2006-06-15
EP1530369A1 (en) 2005-05-11
JP3777609B2 (ja) 2006-05-24

Similar Documents

Publication Publication Date Title
JP4562115B2 (ja) ファイル生成装置および方法、プログラム、並びに記録媒体
US8606079B2 (en) Recording apparatus, recording method, reproduction apparatus, reproduction method, recording and reproduction apparatus, recording and reproduction method, image capturing and recording apparatus, and image capturing and recording method
JPH11146330A (ja) 編集装置及び編集方法
JP4228288B2 (ja) 記録制御装置および方法、プログラム、並びにデータ記録方法
WO2005002217A1 (ja) 記録装置および方法、並びにプログラム
JP3859146B2 (ja) 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
JP4466482B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
WO2004090891A1 (ja) 記録装置および方法
JP4265438B2 (ja) 変換装置、変換補助方法、およびプログラム
JP4645910B2 (ja) 編集装置および編集方法、並びにプログラム
JP3566216B2 (ja) デジタル音声映像情報の記録装置
JP2006352458A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US8224154B2 (en) Recording control device and method, program, and recording medium
JP4204008B2 (ja) 情報記録媒体、情報記録装置、及び情報再生装置
JP4425134B2 (ja) デジタルコンテンツ分割装置、デジタルコンテンツ再生装置、及びデジタルコンテンツ分割方法
JP4228402B2 (ja) データ編集装置及びデータ編集方法
JP4218901B2 (ja) 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造
JP2005236434A (ja) 記録装置、再生装置、伝送システム及び記録方法
JP2004312279A (ja) データ記録制御装置および方法、データ再生装置および方法、プログラム、並びに記録媒体
JP2004319002A (ja) 記録装置および方法、ならびに、再生装置および方法
JP2004310833A (ja) 記録装置および方法
JP2004310832A (ja) 記録装置および方法
JP2006203926A (ja) 情報記録媒体、情報記録装置及び方法、情報再生装置及び方法、情報記録再生装置及び方法、記録又は再生制御用のコンピュータプログラム、並びに制御信号を含むデータ構造

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2004745952

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2004745952

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2006127052

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10525635

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10525635

Country of ref document: US