WO2004047441A1 - 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体 - Google Patents

伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体 Download PDF

Info

Publication number
WO2004047441A1
WO2004047441A1 PCT/JP2003/014320 JP0314320W WO2004047441A1 WO 2004047441 A1 WO2004047441 A1 WO 2004047441A1 JP 0314320 W JP0314320 W JP 0314320W WO 2004047441 A1 WO2004047441 A1 WO 2004047441A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
frame rate
information
transmission
main data
Prior art date
Application number
PCT/JP2003/014320
Other languages
English (en)
French (fr)
Inventor
Junichi Ogikubo
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP03811512A priority Critical patent/EP1460849A4/en
Priority to KR1020047010913A priority patent/KR101055494B1/ko
Priority to US10/501,306 priority patent/US7471314B2/en
Publication of WO2004047441A1 publication Critical patent/WO2004047441A1/ja
Priority to US11/888,062 priority patent/US8223210B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • Transmission device transmission method, reproduction device, reproduction method, program, and recording medium
  • the present invention relates to a transmission device, a transmission method, a reproduction device, a reproduction method, a program, and a recording medium.
  • the content is generated by setting the frame rate higher than the reference frame rate, and the movement of the subject is reproduced by reproducing the content at the reference frame rate. Generate late expressed content.
  • the frame rate is set lower than the reference frame rate to generate content, and the content is reproduced at the reference frame rate to generate content in which the motion of the subject is rapidly expressed. Furthermore, by adjusting the frame rate to be set and the frame rate at the time of playback, it is possible to freely change the movement speed of the subject.
  • the producer can use not only the content generated at the reference frame rate but also the content at which the movement speed of the subject is changed so that the intended effect can be obtained when reproducing at the reference frame rate.
  • Generate content
  • a video camera capable of performing expansion and compression on the time axis so as to generate content with variable frame rates as described above is disclosed in, for example, Japanese Patent Application Laid-Open No. 11 1 770 30. There is.
  • the content to be transmitted is the content generated so as to obtain the intended effect when reproduced at the reference frame rate, as in the case of broadcasting. For this reason, even if it is attempted to reproduce the content portion generated by varying the frame rate at a desired speed different from the speed intended by the author, this portion can not be reproduced at the desired speed. Disclosure of the invention
  • the transmission apparatus comprises transmission data generation means for generating transmission data by concatenating adjunct information including frame rate information of the main data with main data indicating an image or sound. And transmission processing means for outputting transmission data through the path.
  • the transmission method comprises: transmitting data generation steps of generating transmission data by connecting additional information including frame rate information of the main data to main data indicating an image and / or voice; And a transmission processing step of outputting the transmission data via the transmission data.
  • the reproduction apparatus is a main data to be reproduced based on frame rate information of transmission data configured by connecting additional information including frame rate information of the main data to main data indicating an image and / or sound. It comprises setting means for setting a reproduction variable range indicating a range of data frame rates, and reproduction means for reproducing main data at a frame rate within the reproduction variable range.
  • the reproduction method comprises: main data to be reproduced based on frame rate information of transmission data configured by connecting additional information including frame rate information of the main data to main data indicating an image and / or sound.
  • a setting step for setting a playback variable range that indicates a range of data frame rates, and a frame rate within the playback variable range And a reproduction step of reproducing the main data.
  • a program according to the present invention comprises a transmission data generation step of generating transmission data by concatenating additional information including frame rate information of the main data with main data indicating image data Z or sound. And causing the computer to execute a transmission method having a transmission processing step of outputting transmission data via the communication channel.
  • the range of the frame rate of the main data to be reproduced is based on the frame rate information of the transmission data configured by connecting the additional information including the frame rate information of the main data to the main data indicating the image and / or the voice.
  • the reproduction method includes the setting step of setting the reproduction variable range, and the reproduction step of reproducing the main data at the frame rate within the reproduction variable range.
  • a recording medium is recorded with main data representing an image and Z or sound, with attached information including frame rate information of the main data connected.
  • the additional data including the frame rate information of the main data is concatenated with the main data indicating the image or the audio Z and output as transmission data.
  • the main data is temporarily stored, for example, and the stored main data is read according to the bandwidth of the transmission path, and the frame rate of the main data is adjusted.
  • the frame rate information contained in the supplementary information is corrected and linked according to the adjustment.
  • This additional information includes information indicating the recommended playback speed of the main data and information indicating the maximum playback speed of the main data.
  • at least frame rate information and frame identification information of each frame included in the reference frame period are linked to the main data, and the frame identification information is used to respond to the notified bandwidth. By controlling the reading of the main data, the frame rate of the main data is adjusted.
  • a reproduction variable range indicating the range of the frame rate of the main data to be reproduced is set based on the frame rate information, Main data is reproduced at a frame rate within this reproduction variable range. Also, if the additional information includes information indicating the recommended reproduction speed of the main data, and the user does not instruct the reproduction speed by the user, the recommended reproduction speed The main data is reproduced in degrees. In addition, when the additional information includes information indicating the maximum reproducible speed of the main data, the reproduction speed variable range is set using the information indicating the maximum speed. Also, the additional information includes frame identification information of each frame included in the reference frame period, and the main data reproduction speed is varied by performing thinning out and repetition on the main data using the frame identification information. Ru.
  • the additional data including the frame rate information of the main data is concatenated with the main data indicating the image and Z or sound, and output as transmission data.
  • a reproduction variable range indicating the range of the frame rate of the main data to be reproduced is set based on the frame rate information included in the attached information.
  • Main data is played back at a frame rate within the playback variable range. Therefore, by linking the ancillary information to the reproducible part at a speed range different from the speed intended by the content creator, this part can be reproduced at a speed different from the speed intended by the content creator. can do.
  • the main data is temporarily stored, and the stored main data is read according to the bandwidth of the transmission path to adjust the frame rate of the main data.
  • the frame rate of the main data can be easily adjusted.
  • the frame rate information included in the ancillary information is corrected according to the adjustment of the frame rate, ancillary information corresponding to the main data to be transmitted can be linked.
  • the main data is played back at the recommended playback speed. You can specify the playback speed by the creator of.
  • the variable range of reproduction speed is set using the information indicating the maximum speed. Can control the playback speed variable range.
  • At least frame rate information and frame identification information of each frame included in the reference frame period are linked to the main data, and the frame identification information is used to make a frame rate of the main data.
  • the frame identification information is used to make a frame rate of the main data.
  • the playback speed of the main data is varied by thinning out and repeating the main data using the frame identification information. Therefore, the main data can be reproduced at a desired speed with a simple configuration.
  • FIG. 1 is a diagram showing an overall configuration of a content transmission system.
  • FIG. 2 is a diagram showing the configuration of an imaging device.
  • FIG. 3 is a diagram showing an operation of adding subframe numbers.
  • FIG. 4 is a view showing another configuration of the imaging device.
  • 5A to 5E are diagrams showing the relationship (1) of attached information of video data.
  • 6A to 6E are diagrams showing the relationship between video data and attached information (part 2).
  • FIG. 7 is a diagram showing the configuration of the editing apparatus.
  • FIG. 8 is a diagram showing the configuration of a content transmission apparatus.
  • FIG. 9 is a diagram showing a configuration in the case of performing content transmission by software.
  • FIG. 10 is a flowchart showing the content transmission processing operation.
  • FIG. 11 is a diagram showing the configuration of a content reproduction apparatus.
  • FIG. 12 is a diagram showing a configuration in the case where content reproduction is performed by software.
  • FIG. 13 is a flowchart showing the content reproduction processing operation.
  • FIG. 14 shows a display image of the content presentation apparatus.
  • FIG. 15 is a flowchart showing setting operation of reproduction processing conditions for an image.
  • 16A to 16M are diagrams showing an image reproduction operation (part 1).
  • FIG. 17 to FIG. 17G are diagrams showing the image reproduction operation (part 2).
  • 18A to 18M are diagrams showing an image reproduction operation (part 3).
  • FIG. 19 is a flowchart showing setting operation of reproduction processing conditions for audio.
  • Fig. 2 OA to Fig. 20 E are diagrams showing an audio reproduction operation (part 1).
  • FIG. 21A to FIG. 21E are diagrams showing the audio reproduction operation (part 2).
  • FIG. 1 shows the overall configuration of a content transmission system for transmitting content, eg, image and / or audio content.
  • the imaging device 10 generates video data with a variable frame rate, links the attached information related to the video data, and supplies the linked data as material data D Tm to the editing device 30.
  • the voice input device 20 when the voice input device 20 is provided in the imaging device 10, it generates voice data, and this voice data is also supplied to the editing device 30 as material data D Tm.
  • the material data D Tm may be supplied not only from the imaging device 10 but also from other devices.
  • the editing device 30 performs an editing process using the supplied material data D Tm to generate data indicating an image / video or sound desired by the editor. Also, this image and / or sound is generated.
  • the data indicating the data is used as main data, and additional information is connected to the main data to generate content data DC for transmission and supply it to the content transmission apparatus 50.
  • the editing device 30 generates a video signal S vm related to editing and supplies the video signal S vm to the edited image display device 4 0.
  • the user can confirm the progress of the editing of the image, the editing result, and the like by the display image on the editing image display device 40.
  • an audio signal S am relating to editing is generated and supplied to the editing audio output device 41.
  • the user can confirm the progress of the editing of the sound and the editing result by the sound output from the editing sound output device 41.
  • the content transmission device 50 stores the content data DC supplied from the editing device 30. Also, for example, when a request for content data is made from the content reproduction device 70, the frame rate of the content data is adjusted according to the bandwidth of the transmission path 60, and the transmission data D Tc is based on the content data after frame rate adjustment. , And supplies this transmission data D.sub.Tc to the content reproduction apparatus 70 via the wired or wireless transmission path 60.
  • the content reproduction device 70 generates a video signal S vz and an audio signal S az of content based on the transmission data D Tc supplied via the transmission path, and supplies the video signal S vz and the audio signal S az to the content presentation device 80. Also, the content reproduction device 70 is based on the attached information. Control the playback operation of
  • the content presentation device 80 presents content by performing image display based on the video signal S vz and audio output based on the audio signal S az.
  • “concatenation” may be in a state in which the main data and the attached information including frame rate information related to the main data are linked to each other. For example, even if the main data and the attached information are transmitted as transmission data through another transmission path, if the frame number corresponding to the attached information is included, they will be associated with each other later. be able to. In this embodiment, it is said that the connection is made including such a case.
  • FIG. 2 shows a configuration example of the imaging device 10.
  • the light incident through the imaging lens system 11 is incident on the imaging unit 12, and a subject image is formed on the imaging surface of an imaging element such as a CCD (Charge Coupled Device) provided in the imaging unit 12.
  • the imaging device to be imaged generates an imaging charge of an object image by photoelectric conversion.
  • the imaging unit 12 also reads out the generated imaging charge based on a drive signal CR from a timing generator 14 2 described later, generates an imaging signal Sp at a frame rate according to the drive signal CR, and performs signal processing. It is supplied to the camera processing circuit 1 3 1 of part 13.
  • the camera processing circuit 1 31 performs various signal processing in synchronization with the imaging signal Sp based on the timing signal C T supplied from the timing generator 1 42.
  • the camera processing circuit 113 performs processing of removing noise components from the imaging signal Sp by performing correlated double sampling or the like, processing of converting the imaging signal Sp from which noise has been eliminated into digital image data, It performs clamp processing of image data, shading correction, defect correction of the image sensor, ⁇ processing, contour compensation processing, knee correction processing, and the like.
  • the camera processing circuit 13 performs various signal processing under processing conditions and the like based on the operation control signal C S supplied from the imaging control circuit 14 1 of the control unit 14. As described above, the video data D V obtained by performing various signal processing in the camera processing circuit 13 1 is supplied to the output unit 15.
  • the timing generator 14 2 of the control unit 14 generates a drive signal CR according to the operation control signal CS of the imaging control circuit 14 1, etc., and supplies the drive signal CR to the imaging unit 12.
  • the readout cycle of the imaging charge in the unit 12 is varied to The frame rate is controlled to the set frame rate FRs based on the operation signal PS a from the user interface unit 16.
  • the timing generator 142 uses, for example, the frame rate FRs as the frame rate of the reference frame rate FRr as the frame frequency of the frame frequency of 50 Hz or 25 Hz as the frame frequency of 59.94 Hz or 29.97 Hz for the NT SC method and 50 Hz or 25 Hz for the PAL method.
  • the frame rate of the imaging signal Sp is controlled to be k times the reference frame rate FRr.
  • the period of the readout pulse (sensor gate pulse) for moving the imaging charge accumulated in each pixel from each pixel of the imaging device such as CCD to the transfer unit is changed, or the like.
  • the read cycle is varied and the frame rate is varied.
  • CDR Common Data Rate
  • the effective frame rate can be varied, but the frame rate of the signal output from the CCD can be kept unchanged, and the processing rate of the camera processing circuit 131 or the like can be kept constant.
  • This CDR system is disclosed in the PCT application, application number PCT / JP03 / 00551, 2003/1/22.
  • the timing generator 142 generates a timing signal CT synchronized with the drive signal CR and supplies the timing signal CT to the camera processing circuit 131 and the audio processing circuit 132. Furthermore, the timing generator 142 generates frame rate information DM-FRs indicating the set frame rate FRs, which is the frame rate of the video data DV, and supplies the frame rate information DM-FRs to the output unit 15. The timing generator 142 also generates subframe number BN. This subframe number BN is a number that enables identification of each frame included in the frame period of the reference frame rate FRr when the set frame rate FRs is increased with respect to the reference frame rate FRr. This subframe number BN is supplied to the output unit 15 as frame identification information DM-BN.
  • FIG. 3 is a flow chart showing the addition operation of the subframe number in the timing generator 142.
  • the timing generator 142 divides the oscillation signal of a predetermined frequency, for example, and synchronizes and sets the frame period of the reference frame rate FRr and the frame period of the set frame rate FRs, and sets the frame period of the set frame rate FRs. Drive signal generation and reference frame rate FRr based on Generation of frame reference timing indicating the division of the frame period.
  • the timing generator 142 identifies whether or not the frame reference timing is detected in step ST1. If the reference timing is detected here, the process proceeds to step ST2. When the reference timing is not detected, the process returns to step ST 1.
  • step ST2 When the frame reference timing is detected in step ST1 and the process proceeds to step ST2, the timing generator 142 initializes the subframe number BN in step ST2, and sets the subframe number BN to an initial value, for example, "0". Set and proceed to step ST3.
  • step ST3 the timing generator 142 determines whether or not the frame reference timing has been detected by the time when one frame period of the set frame rate FRs has elapsed since the frame reference timing was detected.
  • the process proceeds to step ST4, the timing generator 142 adds "1" to the subframe number BN, updates the subframe number BN, and returns to step ST3. .
  • subframe numbers BN are sequentially assigned every one frame period of the set frame rate FRs.
  • a user interface unit 16 is connected to the imaging control circuit 141 of the control unit 14 shown in FIG. When an operation switching operation or a frame rate variable operation in the imaging device 10 is performed, the user interface unit 16 generates an operation signal PSa corresponding to the operation and supplies the operation signal PSa to the imaging control circuit 141.
  • the user interface unit 16 also receives an operation signal P Sa from an external device such as a remote controller (not shown). When supplied, this operation signal P Sa is supplied to the imaging control circuit 141.
  • the imaging control circuit 141 generates an operation control signal CS based on the operation signal P Sa from the user interface unit 16 so that the operation of the imaging device 10 becomes an operation corresponding to the operation signal PS a, and the camera processing circuit 1 Supply to 31 and timing generator 142.
  • the audio processing circuit 132 is supplied with an analog audio signal Sin from the audio input device 20.
  • the audio processing circuit 132 performs sampling processing of the audio signal Sin based on the timing signal CT supplied from the timing generator 142, generates digital audio data DA, and supplies it to the output unit 15.
  • the output unit 15 generates an attached information DM including frame rate information DM-FRs and frame identification information DM-BN, and links it to video data DV and audio data DA to generate material data DTm to be edited.
  • the attached information DM may include information indicating the imaging date and time, imaging conditions, imaging content, and the like.
  • the video data stream It is conceivable to insert additional information DM into the header, or to insert additional information DM into the header of the data stream.
  • SDTI Supplemental Data Transport Interface
  • SDT I CP Standardized as "Television-Serial Data Transport Interface (SDTI)" If you use SDT I CP format standardized as SMP TE 326M television-SDTI Content Package Format (SDTI-CP), which further limits SDT I format and SDT I format, add information DM to SMP TE 33 OM television-Inserts into the signal of each format as UM ID data standardized as “Umical Material Identifier (UMID)”.
  • UM ID data standardized as “Umical Material Identifier (UMID)”.
  • the method of connecting the adjunct information DM to the video data DV and the audio data DA is not limited to this, and various methods can be considered, and the present invention is not limited to the above example.
  • linkage is something that shows the relationship between them in some way, that is, it is good if links can be taken. For example, even if they are sent via different transmission paths, they can be related as long as they have the same UMI D, which is
  • the above-described imaging device 10 generates the material data D Tm of a desired set frame rate FRs by changing the readout period of the imaging charge in the imaging unit 12, and the set frame rate FRs is continuously generated. Can be varied. However, if it is only necessary to change the set frame rate FRs in a step-like manner, it is possible to generate material data DTm of a desired set frame rate FRs by performing frame skipping. That is, the frame rate is higher than the set frame rate FRs, and the video data DVa having a constant frame rate is generated, and the video data is extracted from the video data DVa by the set frame rate FRs. Video data DV of rate FRs can be generated. The configuration in this case is shown in Fig.4. In FIG. 4, the parts corresponding to those in FIG. 2 are assigned the same reference numerals and detailed explanations thereof will be omitted.
  • the timing generator 182 of the control unit 18 generates a drive signal C Ra corresponding to the maximum value of the set frame rate F Rs set via the user interface unit 16 and supplies the drive signal C Ra to the imaging unit 12.
  • the imaging unit 12 generates an imaging signal based on the drive signal CRa, generates an imaging signal Spa of a fixed frame rate FRq whose frame rate is higher than the reference frame rate FRr, and generates a camera processing circuit of the signal processing unit 17. Supply to 1 3 1
  • the imaging unit 12 when the set frame rate FRs can be changed to n (n is a positive number) times of the reference frame rate FRr, the imaging unit 12 generates an imaging signal Spa having a frame rate of n times the reference frame rate FRr.
  • the camera processing circuit 13 Supply to 1. That is, the imaging unit 12 generates an imaging signal Spa having a fixed frame rate without being influenced by the set frame rate FRs set via the user interface unit 16.
  • the timing generator 182 generates a timing signal CTa synchronized with the drive signal CRa, and supplies the timing signal CTa to the camera processing circuit 131 of the signal processing unit 17, the sound processing circuit 132 and the effective frame signal generation circuit 183.
  • the camera processing circuit 131 supplies the video data DVa of the fixed frame rate FRq generated based on the imaging signal Spa to the effective data selection circuit 171.
  • the audio processing circuit 132 performs sampling based on the constant frequency timing signal CTa and supplies the generated audio data DAa to the effective data selection circuit 171.
  • the imaging control circuit 181 generates a setting information signal CF indicating the setting frame rate FRs based on the operation signal P Sa from the user interface unit 16 and supplies the setting information signal CF to the effective frame signal generation circuit 183.
  • the effective frame signal generation circuit 183 extracts data from the video data DVa in frame units based on the ratio of the frame rate FRq, which is a fixed value of the video data DVa, to the set frame rate FRs indicated by the setting information signal CF.
  • An extraction control signal CC is generated to generate video data DV of the set frame rate FRs. Further, the effective frame signal generation circuit 183 supplies the extraction control signal CC to the effective data selection circuit 171 in synchronization with the timing signal CTa.
  • the effective frame signal generation circuit 183 From the DVa, an extraction control signal CC for extracting data in frame units is generated every one frame, and is supplied to the valid data selection circuit 171 in synchronization with the timing signal CTa.
  • the effective frame signal generation circuit 183 generates frame rate information DM-FRs indicating the set frame rate FRs based on the setting information signal CF, and supplies the frame rate information DM-FRs to the output unit 15. Furthermore, since the number of frames in the frame period of the reference frame rate FRr can be identified by the extraction control signal CC, the effective frame signal generation circuit 1 83 can generate the frame for each frame period of the reference frame rate FRr.
  • the subframe number BN is set, and this subframe number BN is also supplied to the output unit 15 as frame identification information DM-BN.
  • the effective data selection circuit 171 extracts the video data DVa and the audio data DAa of the frame indicated by the extraction control signal CC, and supplies the video data DV and the audio data DA to the output unit 15 as the video data DV and the audio data DA. Also, although not shown, frame rate information DM-FR indicating the set frame rate FRs is supplied from the effective frame signal generation circuit 183 to the effective data selection circuit 1 ⁇ 1 and the setting is performed by the effective data selection circuit 171.
  • the audio data DAa may be thinned according to the ratio between the frame rate FRs and the frame rate when the audio data DAa is generated.
  • the frame rate FRq at which the voice data D Aa is generated is n times the reference frame rate FRr, and the set frame rate FRs is (n / 2) times the reference frame rate FRr, voice data DAa is generated.
  • the decimation interval can be made smaller than in the case of decimating the audio data in frame units, so that the sound based on the audio data DA can be made to have a good sound quality.
  • the video data DV may be generated by adding video data for each predetermined frame.
  • the frame rate variable range of the imaging signal Sp can be narrowed. That is, if the imaging signal Sp for n frames is added and the signal level is multiplied by (lZn), the frame rate of the imaging signal Sp is not reduced by 1 / n, It is possible to obtain a signal multiplied by Zn).
  • the set frame rate F Rs may be, for example, one time the reference frame rate F Rr or If it is doubled, the frame rate information DM-FRs of FIG. 5C showing the set frame rate FRs with respect to the video data DV shown in FIG. 5B (in the figure, a frame image based on the video data DV is shown).
  • Attached information DM including the frame identification information DM-BN shown in Fig. 5D showing subframe number BN is concatenated.
  • Fig. 5E shows the relationship between time lapse and frame images.
  • the frame rate information DM-FRs may indicate not only the setting frame rate FRs but also the scaling factor of the setting frame rate FRs with respect to the reference frame rate FRr.
  • the video data DV shown in FIG. 6B (frames based on the video data DV in the figure
  • the frame rate information DM-FRs of FIG. 6C showing the set frame rate FRs, and the subframe identification information DM-BN of FIG. 6D showing the subframe number BN. are linked.
  • Figure 6 E shows the relationship between time lapse and frame image.
  • FIG. 7 shows the configuration of the editing device 30.
  • the material data D Tm supplied to the editing device 30 is supplied to the information detection circuit 31 1 of the material taking-in unit 31.
  • the information detection circuit 311 detects the attached information DM from the material data DTm.
  • the detected additional information DM is supplied to the database processing circuit 312.
  • the video data DV and the audio data DA included in the material data DTm are supplied to the database processing circuit 312.
  • the database processing circuit 312 associates the video data DV, the audio data DA, and the attached information DM detected by the information detection circuit 311, and stores them in the data storage device 321 of the editing processing unit 32. Also, the database processing circuit 312 can easily execute the contents of the material data based on the additional information DM stored in the data storage device 321 and the video data DV and audio data DA related to the additional information DM.
  • Database information DB that can be confirmed is generated and supplied to the editing control unit 33.
  • database information DB is information from which information of material data can be identified (for example, thumbnail), time length of material data, set frame rate FRs, subframe number BN, storage location in data storage device 321, etc. It is comprised.
  • the editing control unit 33 generates video output signals by generating video data DVg for enabling editing processing in a GU I (Graphical User Interface) environment, and video data DVi for displaying the contents of database information. Supply to the circuit 351.
  • the video output signal generation circuit 351 generates a video signal Svm based on the supplied video data DVg, DVi, and outputs the video signal Svm to the edited image display device 40.
  • the video signal Svm to the edited image display device 40, it is possible to display on the screen of the edited image display device 40 what material data is stored and the like.
  • the edit control unit 33 controls post production processing. That is, an operation signal P Se using the display in the GU I environment is supplied from the user interface unit 34 connected to the editing control unit 33, and any material data can be selected by the operation signal P Se. When it is indicated, the edit control unit 33 generates a read control signal RC corresponding to the operation signal P Se and supplies the read control signal RC to the write / read processing circuit 322 of the edit processing unit 32. Further, when the operation signal PSe relates to editing operation such as processing or combination of the material data read out, the editing control unit 33 generates the editing control signal ET according to the operation signal PSe, and the editing processing unit The signal is supplied to 32 signal editing circuits 323.
  • the editing control unit 33 outputs the operation signal PSe. And generates a write control signal WC corresponding to the read / write processing circuit 322. Further, when the operation signal PSe indicates the output of content data, the edit control unit 33 generates an output control signal RP corresponding to the operation signal PSe and supplies the output control signal RP to the write / read processing circuit 322.
  • the editing control unit 33 When the operation signal PSe defines the reproduction speed range of the content data, the editing control unit 33 generates a speed range setting signal LP corresponding to the operation signal PSe, and supplies it to the signal editing circuit 323.
  • the write / read processing circuit 322 reads the requested material data from the data storage device 321 based on the read control signal RC, and supplies the read material data to the signal editing circuit 323.
  • the write / read processing circuit 322 stores the completed content data DC in the data storage device 321 based on the write control signal WC.
  • the write / read processing circuit 322 also writes the requested content data DC on the basis of the output control signal RP. Read from storage device 2 1 1 and output.
  • the signal editing circuit 3 2 3 uses the video data DV and / or the audio data DA contained in the material data read out from the data storage device 3 1 2 to edit and process images and sounds or delete combined images etc. Processing is performed based on the editing control signal ET.
  • the signal editing circuit 3 2 3 supplies the video data D Ve before editing, during editing or after editing to the video output signal generation circuit 3 51, and the audio data before editing, during editing or after editing
  • the DAe is supplied to the audio output signal generation circuit 3 52.
  • the signal editing circuit 3 2 3 changes the attached information DM according to the video data and the audio data after the editing.
  • the signal editing circuit 3 2 3 is a frame rate information DM-FR s that indicates a set frame rate FR s corresponding to the video data DV after editing and the audio data DA and the video data DV after editing and the audio data DA.
  • Frame identification information DM-BN attached information DMc is concatenated to generate content data DC.
  • the signal editing circuit 33 2 also connects speed range information indicating the reproduction speed range of the content data D C as the additional information DMc based on the speed range setting signal L P.
  • the signal editing circuit 323 links these pieces of information as additional information DMc.
  • this information may be connected as the additional information DMc. Furthermore, when the maximum speed at which the content data can be reproduced is input, this maximum speed is also linked as attached information DMc. Also, when the sub-frame number BN is not added to the material data, the signal editing circuit 323 or the editing control unit 33 performs the processing shown in FIG. 3 described above, sets the sub-frame number BN, and identifies the frame. Information DMc-BN.
  • the video output signal generation circuit 351 of the editing output signal generation unit 35 generates the video signal Svm based on the video data D Vg, D Vi supplied from the editing control unit 33 and edits the video signal S vm.
  • Image display device 40 is supplied. Therefore, information about material data can be displayed in the GUI environment.
  • the video output signal generation circuit 3 51 generates a video signal S vm based on the video data D Ve supplied from the signal editing circuit 3 2 3. This Thus, the user can edit the image before editing, during editing or after editing
  • the audio output signal generation circuit 3 52 converts the audio data D Ae supplied from the signal editing circuit 3 2 3 into an analog audio signal S am and uses, for example, a speaker or headphone as a desired signal level. It is supplied to the edited voice output device 41 configured as described above. For this reason, the user can confirm the audio before editing, during editing or after editing by the audio output from the editing audio output device 41.
  • FIG. 8 shows the configuration of the content transmission apparatus 50.
  • the transmission content data DC supplied from the editing device 30 is supplied to the writing processing unit 51.
  • the write processing unit 51 is connected to the content storage device 52 1 of the transmission data generation unit 52, and stores the supplied content data for transmission in the content storage device 5 21.
  • the content data DC is not limited to the one supplied from the editing device 30. Material data or the like generated by the imaging device 10 may be used as the content data DC.
  • the transmission data generation unit 52 generates the transmission data D Tz based on the content data DC.
  • the content storage device 52 1 of the transmission data generation unit 52 is connected to the read processing circuit 52 2. It is done.
  • the readout processing circuit 52 2 is supplied with band information WB of the transmission path when transmitting the content data for transmission and a content request signal RQ from the content reproduction apparatus side from the transmission processing unit 53 described later. .
  • the readout processing circuit 52 2 controls frame rate adjustment by controlling readout of the requested content data based on the bandwidth information WB and the additional information DMc of the requested content data stored in the content storage device 5 21. Then, the frame rate adjusted content data DC za is supplied to the information correction circuit 5 2 3.
  • the amount of data for one frame is B Dbit, and the set frame indicated by the frame rate information DMc-FRs.
  • the frame rate FRs is n (n is a positive number) times the reference frame rate FRr
  • the amount of data to be transmitted per unit time BT is "BT2 BDXnXFRr + BH".
  • the data amount BH collectively indicates header information and the like added when the content data is bucketed and transmitted.
  • the transmittable data amount (bandwidth) BA indicated by the band information WB is not smaller than the data amount BT
  • the frame rate adjustment of the content data is not performed, and the content data is output from the content storage device 521. It is read out sequentially and supplied to the information correction circuit 523.
  • the bandwidth BA is smaller than the data volume BT
  • the frame rate adjustment is performed on the video data of the content data, etc., and the video and audio may be interrupted at the time of the streaming operation to play back while receiving the transmission data.
  • the adjusted data volume BT is larger than the bandwidth BA
  • sample thinning is performed according to the frame rate adjustment for the video data, and audio data after frame rate adjustment is generated. For example, when video data is read every other frame, audio data is read every other sample. When video data is read every 2 frames, audio data is read every 2 samples to generate audio data after frame rate adjustment.
  • the information correction circuit 523 corrects the additional information DMza of the content data DCza to correspond to the adjusted frame rate when the frame rate adjustment is performed by the read processing circuit 522, and the additional information DMz correctly indicates the frame rate.
  • the frame identification information DMz a-BN is also changed along with the change of the set frame rate F Rs. That is, frame identification information DMz ⁇ BN in which subframe number BN “0 to 9” is replaced with subframe number BN “0 to 4”. Furthermore, using this post-change frame rate information DMz-FRs and frame identification information DMz-BN, the attached information D Mc is changed to attached information D Mz.
  • the encoder 524 encodes the supplied video data DVz and audio data DAz of the supplied content data DCz into a signal suitable for transmission to generate encoded data DZ. For example, it is encoded into a signal suitable for streaming transmission using an encoding method standardized as MP EG (Moving Picture Experts Group 4).
  • the additional information DMz is connected to the encoded data DZ obtained by this code processing, and is supplied to the transmission processing unit 53 as transmission data DTz.
  • the content data can be efficiently transmitted by performing the encoding process.
  • the transmission processing unit 53 reads out the content request signal RQ indicating the requested content data when a request for content data is made by the transmission signal T Mrq supplied from the content reproduction device 70. Supply to 2.
  • the transmission processing unit 53 generates band information WB related to the band of the transmission line 60 and supplies the band information WB to the read processing circuit 52. Furthermore, based on the request for content data, the transmission processing unit 53 requests the content data via the transmission path 60 by using the transmission data DT z supplied from the encoder 5 24 as a transmission signal of a predetermined protocol. Supply to the content playback device 70 that performed the
  • the band information WB supplied to the read processing circuit 52 is, for example, a transmission processing unit 53 using a network device such as a router, and obtained from a management information base (MIB Management Information Base) possessed by the network device. Traffic information that can be used can be used as bandwidth information WB. Also, a bucket for measurement is sent to the content reproduction device 70, a bandwidth is identified by measuring a response time from the content reproduction device 70, etc., and this identification result is used as the bandwidth information WB. You can also.
  • MIB Management Information Base Management Information Base
  • the data amount BT can be adjusted according to the bandwidth BA by varying the data compression rate with the encoder 5 24 based on the band information WB. It may be variable. In this case, since the control of the amount of data can be more finely controlled, it is possible to reduce the degradation of the quality of the image and sound to be transmitted even if the bandwidth B A becomes narrow. Furthermore, during the frame period in which the setting frame rate F R s remains the same, the adjustment of the data amount B T can be performed by the encoder 5 24 with the adjusted frame rate being constant regardless of the band information WB. In this case, it is possible to prevent the content portion set to the desired frame rate by the imaging device 10 or the editing device 30 from being adjusted to a different frame rate according to the bandwidth B A.
  • the encoder 542 may be used to adjust the amount of data BT. In this case, the bandwidth of transmission line 60 The content can be played back at the recommended playback speed even if
  • the content transmission process of the above-mentioned content transmission apparatus 50 can be realized by software processing using a computer.
  • Fig. 9 shows the configuration when content transmission is performed by this software processing.
  • the computer incorporates a CPU (Central Processing Unit) 551 as shown in FIG. 9, and this CPU 551 is a hard disk drive with a large storage capacity, such as ROM 552, RA M553, via a path 560.
  • a CPU Central Processing Unit
  • the CPU 551 executes a program stored in the ROM 552, the RAM 553 or the data storage unit 554 to perform content transmission processing.
  • Signal input is a program stored in the ROM 552, the RAM 553 or the data storage unit 554 to perform content transmission processing.
  • the data is stored in the data storage unit 554 via 60.
  • the CPU 551 reads the requested content data from the content data stored in the data storage unit 554, and controls this reading. Then, the frame rate adjustment is performed so that the content data of the data amount corresponding to the transmission path 60 is obtained.
  • CPU 55 1 is the coding suitable transmission to generate the means pursuant transmission data DT Z.
  • the generated transmission data DT z is output through the communication unit 562.
  • the program for performing content transfer processing is stored in advance in the ROM 552 or the data storage unit 554, or the program for content transfer processing is recorded on the recording medium by the recording medium drive 563 or recorded on the recording medium.
  • the program may be read out and executed.
  • the program may be transmitted or received by the communication unit 562 via a wired or wireless transmission path, and the received program may be executed by a computer.
  • FIG. 10 is a flowchart showing the content transmission processing operation.
  • the CPU 551 fetches the content data DC and inputs a signal.
  • the content data DC input to the unit 561 is stored in the data storage unit 554.
  • the content data is not limited to the data supplied from the editing device 30. Material data or the like generated by the imaging device 10 may be stored in the data storage unit 554 as content data.
  • step ST12 the CPU 551 determines whether a request for content data has been made.
  • the process returns to step ST12, and when a request for content data is made via the communication unit 562, for example, the process proceeds to step ST13.
  • step ST13 the CPU 551 reads the additional information of the requested content data and proceeds to step ST14.
  • the CPU 551 detects the bandwidth of the transmission path, and controls the content data read from the data storage unit 554 according to the detected bandwidth by using frame identification information to adjust the frame rate. I do.
  • the CPU 551 corrects the read-out content data DCza attached information DMza so as to correspond to the adjusted frame rate to obtain attached information DMz.
  • the CPU 551 performs coded data processing according to the transmission path using the content data DCz in which the attached information has been corrected, and generates coded data DZ. Furthermore, using the generated encoded data DZ and the adjunct information DMz after correction, the transmission data DTz is generated, and the process proceeds to step ST17.
  • the CPU 551 outputs the generated transmission data DTz from the communication unit 562 toward the content data request destination.
  • FIG. 11 shows the configuration of the content reproduction apparatus 70.
  • the transmission signal TM z supplied from the content transmission device 50 is supplied to the communication circuit 71 1 of the input unit 71.
  • the input unit 71 takes in content data, and the communication circuit 71 1 of the input unit 71 generates transmission data DT z from the supplied transmission signal T Mz, and generates encoded data D Z from this transmission data DT z.
  • additional information Extract DMz Further, the communication circuit 71 1 supplies the extracted additional information DMz to the information storage circuit 712 and supplies the encoded data DZ to the data holding circuit 71 3.
  • the communication circuit 71 1 is a content from the reproduction control unit 72 described later.
  • the transmission signal TMrq is generated based on the request signal RQ and supplied to the content transmission apparatus 50.
  • the information storage circuit 712 stores the supplied additional information DMz.
  • the data holding circuit 7 13 stores the supplied encoded data D Z.
  • a user interface unit 73 is connected to the reproduction control unit 72.
  • the reproduction control unit 72 When the operation signal PSp from the user interface unit 73 requests content data, the reproduction control unit 72 generates a content request signal RQ based on the operation signal PSp, and the communication circuit 7 1 1 Request the content transmission device 50 to transmit content data.
  • the reproduction control unit 72 supplies the read control signal CN to the data holding circuit 713 to instruct reproduction.
  • the encoded data DZ of the content is read from the data holding circuit 713 and supplied to the reproduction processing unit 74.
  • the reproduction control unit 72 reads out the attached information DMz corresponding to the read out encoded data DZ from the information storage circuit 722, and displays the video data D Vs displaying the information contained in the attached information DMz,
  • the additional information DMz includes time information such as a time code
  • the total time indicated in the time information is video data indicating the reproducible speed range based on the limit information included in the additional information D Mz.
  • the reproducible speed range, the total time, the time of the reproduction position, etc. are displayed on the screen of the content presentation apparatus 80 such as a television apparatus or a monitor apparatus.
  • the reproducible speed range is set as shown in the above-mentioned editing device 30.
  • the set reproducible speed range is displayed on the screen of the content presentation device 80.
  • the playback control section 72 sets the maximum speed of the variable range of the playback speed FP to the maximum speed indicated by the additional information DM Z. .
  • the additional information DMz indicates the recommended playback speed If the playback speed is not instructed by the operation signal PSp, the playback control unit 72 generates the presentation control signal CP so as to perform the playback operation at this recommended playback speed.
  • the reproduction control unit 72 causes the information on the screen of the content presentation device 80 to be displayed.
  • the reproduction processing unit 74 for performing variable-speed reproduction of content decodes the encoded data D Z supplied from the data holding circuit 7 13 and generates video data D V z of content and audio data D Az.
  • the playback processing unit 74 further performs decimation and repetition processing using frame identification information DMz-BN on the generated video data D Vz and audio data D Az based on the presentation control signal CP, and is set by the user.
  • Content presentation is performed by generating a video signal S vz and an audio signal S az according to a playback speed FP equal to the playback speed FP or the recommended playback speed and supplying the video signal S vz and the audio signal S az to the content presentation device 80.
  • the playback processing unit 74 displays the video signal S vz that displays the variable range of the playback speed FP on the screen of the content presentation device 80.
  • the reproduction processing unit 74 thins out the encoded data DZ in units of frames based on the presentation control signal CP from the data holding circuit 7 13. It may be read out. In this case, there is no need to decode decimated video data, and the decoding process can be easily performed.
  • the content reproduction apparatus 70 may use a recording medium in which content data is recorded.
  • the additional information DMz and the encoded data DZ are separated from the reproduction signal obtained by reproducing the recording medium, and the additional information DMz is stored in the information storage circuit 722, and the encoded data DZ is stored.
  • the same processing can be performed by storing in the holding circuit 7 13.
  • the content reproduction processing of the above-described content reproduction apparatus 70 can also be realized by software processing using a computer.
  • the configuration for playing back content by this software processing is shown in Figure i2.
  • the computer has a built-in CPU 751, as shown in Figure 12; ROM 752, RAM 753, data storage unit 7 via bus 760 to U 751
  • I / O interface 755 is connected. Furthermore, in the input / output interface 755, the communication unit 761, the user interface unit 762, the signal output unit 7
  • recording medium drive 764 is connected.
  • the CPU 751 executes a program stored in the ROM 752, the RAM 753 or the data storage unit 754 to perform a content transfer processing operation based on the operation signal P Sp from the user interface unit 762.
  • the communication unit 761 extracts the encoded data DZ and the additional information DMz.
  • the encoded data DZ and attached information DMz extracted by the communication unit 761 are stored in the data storage unit 754.
  • the CPU 751 reads out and decodes the encoded data DZ stored in the data storage unit 754 based on the operation signal P Sp from the user interface unit 762 and performs the video data D Vz and the sound processing.
  • Voice data DAz is generated and supplied to the signal output unit 763.
  • the signal output unit 763 generates and outputs a video signal Svz and an audio signal Saz according to the content presentation device 80 based on the video data DVz and the audio data DAz.
  • the program for performing content reproduction processing is stored in advance in the ROM 752 or the data storage unit 754, or the recording medium drive 764 records the program for content reproduction processing on a recording medium or records it on a recording medium.
  • the program may be read out and executed.
  • the program may be transmitted or received by the communication unit 761 via a wired or wireless transmission path, and the received program may be executed by a computer.
  • FIG. 13 is a flowchart showing the content reproduction processing operation.
  • the CPU 751 displays an image for configuring the GU I environment on the content presentation device 80 and performs an operation corresponding to the displayed image in the user interface 762. Perform operation input with.
  • FIG. 14 exemplifies the display image of the content presentation device 80, and the content presentation device 80 displays an image for GU I.
  • the view part 801 for displaying the image of the content On the screen of the content presentation device 80, the view part 801 for displaying the image of the content, playback speed FP
  • a variable speed console unit 802 which is an interface for changing, a reproduction speed display unit 803 for displaying the reproduction speed FP, an operation control / relay unit 804 for switching the operation mode and the volume etc., a title display showing the content title A section 805, a time display section 806 for displaying the playback time of the content and the current time, and a playback position display section 807 for indicating the current playback position are provided.
  • the CPU 751 reads the attached information DMz of the content from the data storage unit 754 in step ST 21 of FIG. 13 and transmits the signal output unit 763 to the content presentation device 80 through the input / output interface 755 based on the attached information DMz. It outputs the generated video signal Svz and audio signal Saz.
  • the content presentation device 80 displays the information according to the attached information DMz. For example, the title of the content or the time length of the content is displayed on the title display unit 805 or the time display unit 806. In addition, the minimum speed and the maximum speed are displayed on the speed variable console unit 802 based on the speed range information.
  • step ST22 the CPU 751 uses the operation control unit 804 to identify based on the operation signal PSp whether the content reproduction start operation has been performed.
  • the CPU 751 returns to step ST22.
  • the reproduction start operation is performed, the CPU 751 proceeds to step ST23.
  • step ST23 the CPU 751 sets the reproduction processing conditions according to the reproduction speed FP and the set frame rate FR s, that is, the video data DV z and the audio data D Az obtained by decoding the encoded data DZ. It determines the number of repetitions of data thinning interval and data which are performed when generating the signal S vz and the audio signal S az.
  • the CPU 751 reads out the encoded data DZ from the data storage section 754 and decodes it to generate video data DVz and audio data DAz, and based on the reproduction processing conditions determined at step ST23.
  • the frame identification information DMz-BN is used to thin out the data and repeat the data to generate the video signal Svz for content presentation and the audio signal Saz.
  • the CPU 751 supplies the generated video signal S vz and audio signal Saz to the content presentation device 80 so that the reproduced image of the reproduction speed FP indicated by the cursor position (indicated by a thick line) of the variable speed console unit 802 is displayed. It is displayed on the view part 801 of the content presentation device 80.
  • the playback speed at this time The degree FP is displayed on the reproduction speed display unit 803, and the reproduction time and the reproduction position are displayed on the time display unit 800 and the reproduction position display unit 807.
  • the content presentation device 80 outputs the playback audio at the playback speed FP indicated by the cursor position of the variable-speed console unit 802.
  • the CPU 751 determines whether or not the cursor position of the variable-speed console unit 802 has been moved to change the playback speed FP.
  • the CPU 751 identifies that the change of the playback speed FP has been performed, the CPU 751 returns to step ST23.
  • the CPU 751 does not identify that the change of the playback speed FP has been performed, the CPU 751 proceeds to step ST26.
  • step ST26 the CPU 751 determines whether the reproduction operation has ended.
  • the CPU 751 determines whether the reproduction operation has ended.
  • the CPU 751 returns to step ST 25.
  • the stop operation is performed or when the reproduction position reaches the end position, the CPU 751 ends the variable speed reproduction operation.
  • FIG. 15 is a flowchart showing setting operation of reproduction processing conditions for an image.
  • the CPU 751 identifies the reproduction speed FP based on the cursor position of the variable speed console unit 802, and proceeds to step ST32.
  • the reference frame rate FRr is set to 1 ⁇ speed
  • the initial position of the cursor on the variable speed console unit 802 is set to 1 ⁇ speed position, for example, to set the playback speed FP at the start of playback operation.
  • the CPU 751 sets the position of the recommended playback speed FP as the initial position of the cursor, and the recommended playback speed FP at the start of the playback operation. Set the playback speed as FP.
  • the CPU 751 sets the speed corresponding to the cursor position as the reproduction speed F P.
  • the CPU 751 identifies the set frame rate FRs based on the frame rate information DMz-FRs contained in the attached information DMz, and proceeds to step ST33.
  • the CPU 751 multiplies the reproduction speed FP by the set frame rate FRs to calculate an identification value FD for determining the reproduction processing condition.
  • the CPU 751 determines the reproduction processing conditions based on the identification value FD. Set.
  • the identification value FD is 1 or more and does not include the value after the decimal point, the CPU 751 determines the reproduction processing condition so as to thin out and output the image at frame intervals according to the identification value FD.
  • the CPU 751 thins the image using frame identification information DMz-BN at frame intervals according to the integer value part of the identification value FD, and When an image of the number of frames corresponding to the reproduction speed is obtained, the reproduction processing condition is determined so as to move the position of the image to the initial value next to the subframe number BN.
  • the identification value FD is less than 1, the CPU 751 determines the reproduction processing condition so as to repeatedly output the same image until the number of frames corresponds to the desired reproduction speed.
  • FIG. 16 to 16M show the reproduction operation in the case where the identification value FD is 1 or more and does not include the value after the decimal point.
  • FIG. 16A shows an image based on the video data DVz when the set frame rate FRs is 10 times faster than the reference frame rate FRr.
  • Fig. 16B shows frame rate information DMz-FRs showing the set frame rate FRs of the frame image
  • Fig. 16C shows frame identification information DMz-BN showing the subframe number BN of the frame image
  • Fig. 16D shows the absolute frame number AN. Each is shown.
  • the reproduction speed FP is set to (1Z5) double speed
  • 16E is the frame identification information DMz-BN of the displayed image
  • FIG. 16F is the absolute frame number AN of the displayed image
  • FIG. 16F is the frame identification information DMz-BN of the displayed image.
  • 16G indicates a frame image displayed by the video signal Svz.
  • a double-speed reproduced image can be displayed on the content presentation device 80.
  • 16K shows frame identification information DMz-BN of the displayed image
  • FIG. 16L shows an absolute frame number of the displayed image AN
  • FIG. 16M shows a frame image displayed by the video signal Svz.
  • Figure 17G shows the playback operation when the identification value FD is 1 or more and does not contain the value after the decimal point.
  • Fig. 17A shows a frame image when the set frame rate FRs is 7 times faster than the reference frame rate FRr.
  • Fig. 17 B is frame rate information DMz-FRs showing the set frame rate F Rs of the frame image
  • Fig. 17 C is frame identification information showing the subframe number BN of the frame image DMz-BN
  • Fig. 17 D is absolute Frame numbers AN are shown respectively.
  • the number of frames according to the desired playback speed that is, (1Z3) double speed
  • the next to subframe number BN Move the position of the video data DVz to be used to the initial value.
  • the video signal Svz is sequentially generated using the video data DVz of the subframe numbers BN “0” “2” “4”, and the (1 ⁇ 3) -speed reproduced image is displayed on the content presentation device 80. It can be displayed.
  • 17E shows the frame identification information of the displayed image DM z-BN
  • FIG. 17F shows the absolute frame number of the displayed image AN
  • FIG. 17G shows the frame image displayed by the video signal Svz.
  • 18A to 18M show the reproduction operation in the case where the identification value FD is less than 1, and the level is shown.
  • FIG. 18A shows a frame image when the set frame rate FRs is set to (1 ⁇ 4) the speed of the reference frame rate FRr.
  • FIG. 18 B is frame rate information DMz-FRs showing the set frame rate FRs of the frame image
  • Fig. 18 C is frame identification information DMz-BN showing the subframe number BN of the frame image
  • Fig. 18 D absolute frame number AN Each is shown.
  • 18E shows frame identification information DMz-BN of the displayed image
  • FIG. 18F shows an absolute frame number of the displayed image AN
  • FIG. 18G shows a frame image displayed by the video signal Svz.
  • FIG. 18H shows the frame identification information DMz-BN of the displayed image
  • FIG. 18I shows the absolute frame number AN of the displayed image
  • FIG. 18J shows the displayed image by the video signal Svz. The frame image is shown.
  • FIG. 18 K shows the frame identification information DMz-BN of the displayed image
  • FIG. 18 L shows the absolute frame number AN of the displayed image
  • FIG. 18 M is displayed as the video signal Svz.
  • the frame image is shown.
  • step ST41 the CPU 751 determines the reproduction speed in the same manner as at step ST31, and proceeds to step ST42.
  • the CPU 751 reads the set frame rate FRs as at step ST32, and proceeds to step ST43.
  • step ST43 the CPU 751 calculates the identification value FD in the same manner as at step ST33, and proceeds to step ST44.
  • the CPU 751 determines the reproduction processing conditions based on the identification value FD.
  • the identification value FD is 1 or more and does not contain the value after the decimal point
  • the reproduction processing condition is determined so as to thin the audio data at the sample interval according to the identification value FD.
  • the discriminant value FD is 1 or more and includes decimal values
  • decimation of voice data is performed at a sample interval according to the integer value part of the discriminant value FD from frames corresponding to multiples of the set frame rate FRs with respect to the reference frame rate Determine playback processing conditions so as to read out audio data for playback speed.
  • the reproduction processing conditions are determined so that the voice data is repeatedly used so that the number of samples corresponds to the number of frames corresponding to the desired reproduction speed.
  • FIGS. 20A to 20E show the audio reproduction operation in the case where the identification value FD is 1 or more and does not include the value after the decimal point.
  • Fig. 2 OA shows absolute frame number AN
  • Fig. 2 OB shows frame rate information DMz_FRs indicating the set frame rate F Rs of the frame image
  • Fig. 20 C shows frame identification information DMz-BN showing the subframe number BN of the frame image. ing.
  • FIG. 20D shows a frame used to generate the video signal Svz
  • FIG. 20E shows audio data used by the audio signal Saz when the audio data DAz is 14 samples / frame. .
  • FIGS. 21A to 21E show the audio reproduction operation in the case where the identification value F D is 1 or more and the value after the decimal point is included.
  • Fig. 21 A absolute frame number AN
  • Fig. 2 IB frame rate information indicating frame image setting frame rate F Rs DMz-FRs
  • Fig. 2 1 C frame identification information indicating frame number BN of frame image DMz -Show BN respectively.
  • FIG. 21C shows a frame used for generating the video signal Svz
  • FIG. 2 ID shows audio data used for the audio signal Saz when the audio data DAz is 14 samples / frame.
  • the audio signal Saz is generated so that the intervals of the audio data DAz are not wide and the reproduced sound is not discontinuous. Decimation is performed so that the interval of the audio data to be used becomes substantially constant. You may use it as a bowl.
  • the setting frame rate FR s is set to KA times the reference frame rate FR r and the reproduction speed FP is set to (1 / KB) times
  • the voice data D Az of consecutive KB samples is approximately equally spaced.
  • the speech data of KB samples is taken out, and based on the taken out speech data, a speech signal S az is generated. In this way, compared with the case shown in FIG. 21A to FIG. 21E, the processing becomes complicated, and it is possible to output reproduced voice with better sound quality.
  • identification value FD is less than 1, it is possible to generate audio data D Az of a desired reproduction speed by repeating and sequentially using each audio data for the number of frame repetitions of the image, not shown.
  • content data DC in which additional information DMz including frame rate information and frame identification information for identifying a frame included in the reference frame period is concatenated with main data indicating image and video or audio. Transmission of z takes place.
  • the image speed Z or audio data is played back with variable playback speed using the additional information DMz including frame rate information and frame identification information. Therefore, not only can an image etc. of a predetermined reproduction speed be watched like a broadcast program, but it is possible to view an image etc. at a reproduction speed desired by the user.
  • the set frame rate F Rs is made larger than the reference frame rate F Rr to generate contents such as sports relay, it is not necessary to wait for the slow reproduction image to be supplied from the content provider as in a conventional broadcast program.
  • the user can usually see only the desired scene in slow while watching at 1x speed.
  • frame rate adjustment according to the bandwidth of the transmission path is performed using frame identification information, so frame rate adjustment can be easily performed.
  • frame identification information data thinning and the like can be easily performed in frame units, so the content reproduction speed can be easily varied.
  • the present invention is useful for transmitting and reproducing image content and the like, and is particularly suitable for changing the frame rate at the time of reproduction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

 画像および/または音声を示す主データに、フレームレート情報と基準フレーム期間内に含まれるフレームのフレーム識別情報とを含む付属情報を連結して構成された伝送データを生成して出力する。この伝送データを用いて主データの再生を行う場合、フレームレート情報に基づき再生速度可変範囲を設定する。再生速度可変範囲内で指示された再生速度に応じて、画像や音声のデータに対する間引きや繰り返しを、フレーム識別情報を利用して行い、主データの再生速度を容易に可変して、映像信号や音声信号を生成する。

Description

明 細 書 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体 技術分野
本発明は、 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録 媒体に関する。 背景技術
従来、 放送に用いる画像おょぴ/または音声のコンテンツ生成では、 制作者の 意図する効果を出すため、 部分的に被写体の動きの速度を変えたコンテンツ (content) を作ることが多々行われている。
この被写体の動きの速度を変えたコンテンッの生成では、 例えば基準フレーム レートに対してフレームレートを高く設定してコンテンツを生成し、 このコンテ ンッを基準フレームレートで再生することにより、 被写体の動きを遅く表現した コンテンツを生成する。 また、 基準フレームレートに対してフレームレートを低 く設定してコンテンツを生成し、 このコンテンツを基準フレームレートで再生す ることにより、 被写体の動きを速く表現したコンテンツを生成する。 さらに、 設 定するフレームレートゃ再生時のフレームレートを調整することで、 被写体の動 きの速度を自由に可変できる。
このようにして、 制作者は、 基準フレームレートで再生したとき意図する効果 が得られるように、 基準フレームレートで生成したコンテンツだけでなく被写体 の動きの速度を変えたコンテンツも用いて放送用のコンテンツを生成する。 また、 このようにフレームレートを可変したコンテンツを生成できるように、 時間軸の伸張や圧縮を行うことができるビデオカメラが、 例えば特開平 1 1一 1 7 7 9 3 0号公報に示されている。
ところで、 通信網の広帯域化や低価格化に伴い、 この通信網を介してコンテン ッをインタラクティブに伝送することが実用化されてきている。 通信網を介した コンテンッの伝送では、 伝送されたコンテンツをバッファに一時蓄えてから再生 することにより、 通信網で生じるゆらぎ (データの到着のばらつき) を吸収して コンテンツの再生を連続して行うことが出来るようになされている。 また、 通信 網の広帯域化によって、 より多くのデータを伝送することが可能となってきてい る。
しかし、 このィンタラタティブなコンテンツの伝送でも、 伝送されるコンテン ッは、 放送の場合と同様に、 基準フレームレートで再生したとき意図する効果が 得られるように生成されたコンテンツが用いられている。 このため、 フレームレ ートを可変して生成されているコンテンツ部分について、 制作者の意図した速度 とは異なる所望の速度で再生しようとしても、 この部分を所望の速度で再生でき ない。 発明の開示
この発明に係る伝送装置は、 画像おょぴ または音声を示す主データに、 該主 データのフレームレート情報を含む付属情報を連結することで、 伝送データを生 成する伝送データ生成手段と、 伝送路を介して伝送データの出力処理を行う伝送 処理手段とを有するものである。
この発明に係る伝送方法は、 画像および または音声を示す主データに、 該主 データのフレームレート情報を含む付属情報を連結することで、 伝送データを生 成する伝送データ生成ステップと、 伝送路を介して伝送データの出力処理を行う 伝送処理ステップとを有するものである。
この発明に係る再生装置は、 画像および/または音声を示す主データに、 該主 データのフレームレート情報を含む付属情報を連結して構成された伝送データの フレームレート情報に基づき、 再生される主データのフレームレートの範囲を示 す再生可変範囲を設定する設定手段と、 再生可変範囲内のフレームレートで、 主 データを再生する再生手段とを備えるものである。
この発明に係る再生方法は、 画像および/または音声を示す主データに、 該主 データのフレームレート情報を含む付属情報を連結して構成された伝送データの フレームレート情報に基づき、 再生される主データのフレームレートの範囲を示 す再生可変範囲を設定する設定ステップと、 再生可変範囲内のフレームレートで 主データを再生する再生ステップとを備えるものである。
この発明に係るプログラムは、 画像おょぴ Zまたは音声を示す主データに、 該 主データのフレームレート情報を含む付属情報を連結することで、 伝送データを 生成する伝送データ生成ステップと、 伝送路を介して伝送データの出力処理を行 う伝送処理ステツプとを有する伝送方法をコンピュータに実行させるものである。 また、 画像および または音声を示す主データに、 該主データのフレームレート 情報を含む付属情報を連結して構成された伝送データのフレームレート情報に基 づき、 再生される主データのフレームレートの範囲を示す再生可変範囲を設定す る設定ステップと、 再生可変範囲内のフレームレートで、 主データを再生する再 生ステップとを備える再生方法をコンピュータに実行させるものである。
この発明に係る記録媒体は、 画像および Zまたは音声を示す主データに、 該主 データのフレームレート情報を含む付属情報が連結された状態で記録されたもの である。
この発明においては、 画像おょぴ Zまたは音声を示す主データに、 この主デー タのフレームレート情報を含む付属情報が連結されて伝送データとして出力され る。 ここで、 主データは、 例えば一時的に蓄積されて、 この蓄積されている主デ 一タが伝送路の帯域に応じて読み出されて主データのフレームレートが調整され て、 このフレームレートの調整に応じて、 付属情報に含まれているフレームレー ト情報が修正されて連結される。 この付属情報には、 主データの推奨再生速度を 示す情報や主データの再生可能な最高速度を示す情報が含まれる。 また、 付属情 報として、 少なくとも、 フレームレート情報と、 基準フレーム期間内に含まれる 各フレームのフレーム識別情報が主データに連結されて、 このフレーム識別情報 を利用して、 通知された帯域に応じて主データの読み出しを制御することにより、 主データのフレームレートが調整される。
付属情報が主データに連結されている伝送データを用いて主データの再生を行 う場合、 フレームレート情報に基づき、 再生される主データのフレームレートの 範囲を示す再生可変範囲が設定されて、 この再生可変範囲内のフレームレートで、 主データが再生される。 また、 付属情報が主データの推奨再生速度を示す情報を 含み、 ユーザによる再生速度の指示がなされていない場合には、 この推奨再生速 度で、 主データが再生される。 また、 付属情報が主データの再生可能な最高速度 を示す情報を含むとき、 最高速度を示す情報を用いて再生速度可変範囲が設定さ れる。 また、 付属情報は、 基準フレーム期間内に含まれる各フレームのフレーム 識別情報を含み、 主データに対する間引きや繰り返しを、 フレーム識別情報を利 用して行うことで、 主データの再生速度が可変される。
この発明によれば、 画像および Zまたは音声を示す主データに、 この主データ のフレームレート情報を含む付属情報が連結されて伝送データとして出力される。 また、 この伝送データを用いて主データの再生を行うときには、 付属情報に含ま れているフレームレート情報に基づき、 再生される主データのフレームレートの 範囲を示す再生可変範囲が設定されて、 この再生可変範囲内のフレームレートで、 主データが再生される。 このため、 コンテンツの制作者が意図した速度とは異な る速度範囲で再生可能な部分に対して付属情報を連結することにより、 この部分 をコンテンッの制作者が意図した速度とは異なる速度で再生することができる。 また、 主データを一時的に蓄積して、 この蓄積されている主データの読み出し を、 伝送路の帯域に応じて行うことにより主データのフレームレートを調整する。 このため、 主データのフレームレートを容易に調整することができる。 また、 画 像や音声の再生が途切れてしまうことを防止できる。 さらに、 フレームレートの 調整に応じて、 付属情報に含まれているフレームレート情報が修正されるので、 伝送する主データに対応した付属情報を連結できる。
また、 付属情報に主データの推奨再生速度を示す情報を含め、 主データの再生 時にユーザによる再生速度の指示がなされていない場合には、 推奨再生速度で主 データが再生されるので、 主データの制作者側で再生速度を指定できる。
また、 付属情報に主データの再生可能な最高速度を示す情報を含め、 主データ の再生時には、 この最高速度を示す情報を用いて再生速度可変範囲が設定される ので、 主データの制作者側で再生速度可変範囲を規制できる。
さらに、 付属情報として、 少なくとも、 フレームレート情報と、 基準フレーム 期間内に含まれる各フレームのフレーム識別情報とが主データに連結されて、 こ のフレーム識別情報を利用して、 主データのフレームレートが調整されて伝送デ ータが生成される。 また、 伝送データを用いて主データの再生を行うときには、 フレーム識別情報を利用して主データに対する間引きや繰り返しを行い、 主デー タの再生速度が可変される。 このため、 簡単な構成で主データの再生を所望の速 度で行うことができる。 図面の簡単な説明
図 1は、 コンテンツ伝送システムの全体構成を示す図である。
図 2は、 撮像装置の構成を示す図である。
図 3は、 サブフレーム番号の付加動作を示す図である。
図 4は、 撮像装置の他の構成を示す図である。
図 5 A〜図 5 Eは、 映像データの付属情報の関係 (その 1) を示す図である。 図 6 A〜図 6 Eは、 映像データと付属情報の関係 (その 2) を示す図である。 図 7は、 編集装置の構成を示す図である。
図 8は、 コンテンツ伝送装置の構成を示す図である。
図 9は、 ソフトウエアでコンテンツ伝送を行う場合の構成を示す図である。 図 10は、 コンテンツ伝送処理動作を示すフローチャートである。
図 1 1は、 コンテンツ再生装置の構成を示す図である。
図 12は、 ソフトウェアでコンテンツ再生を行う場合の構成を示す図である。 図 1 3は、 コンテンツ再生処理動作を示すフローチャートである。
図 14は、 コンテンツ提示装置の表示画像を示す図である。
図 15は、 画像に対しての再生処理条件の設定動作を示すフローチャートであ る。
図 16A〜図 16Mは、 画像再生動作 (その 1) を示す図である。
図 17 〜図17Gは、 画像再生動作 (その 2) を示す図である。
図 18A〜図 18Mは、 画像再生動作 (その 3) を示す図である。
図 19は、 音声に対しての再生処理条件の設定動作を示すフローチャートであ る。
図 2 OA〜図 20 Eは、 音声再生動作 (その 1) を示す図である。
図 21 A〜図 21 Eは、 音声再生動作 (その 2) を示す図である。 発明を実施するための最良の形態
以下、 添付の図面を用いて本発明を説明する。 図 1は、 コンテンツ (content) の伝送例えば画像および/または音声のコンテンツの伝送を行うコンテンッ伝送 システムの全体構成を示している。 撮像装置 1 0はフレームレートが可変された 映像データを生成して、 この映像データに関する付属情報を連結させて素材デー タ D Tmとして編集装置 3 0に供給する。 また、 音声入力装置 2 0が撮像装置 1 0 に設けられているときには音声データを生成して、 この音声データも素材データ D Tmとして編集装置 3 0に供給する。 なお、 素材データ D Tmは、 撮像装置 1 0 だけでなく他の機器からも供給されるものとしても良い。
編集装置 3 0は、 供給された素材データ D Tmを用いて編集処理を行い、 編集者 が所望する画像おょぴ /"または音声を示すデータを生成する。 また、 この画像お よび/または音声を示すデータを主データとして、 この主データに対して付属情 報を連結して、 伝送用のコンテンッデータ D Cを生成してコンテンッ伝送装置 5 0に供給する。
編集装置 3 0は、 編集に関した映像信号 S vmを生成して編集画像表示装置 4 0 に供給する。 これにより、 ユーザは、 編集画像表示装置 4 0での表示画像によつ て画像の編集経過や編集結果等の確認を行うことができる。 同様に、 編集に関し た音声信号 S amを生成して編集音声出力装置 4 1に供給する。 これにより、 ユー ザは、 編集音声出力装置 4 1から出力される音声によって音声の編集経過や編集 結果等の確認を行うことができる。
コンテンツ伝送装置 5 0は、 編集装置 3 0から供給されたコンテンツデータ D Cを蓄積する。 また、 例えばコンテンツ再生装置 7 0からコンテンツデータの要 求がなされたときには、 伝送路 6 0の帯域に応じてコンテンツデータのフレーム レートを調整し、 フレームレート調整後のコンテンツデータに基づき伝送データ D Tcを生成して、 この伝送データ D Tcを有線あるいは無線の伝送路 6 0を介し てコンテンツ再生装置 7 0に供給する。
コンテンツ再生装置 7 0は、 伝送路を介して供給された伝送データ D Tcに基づ きコンテンツの映像信号 S vzや音声信号 S azを生成して、 コンテンッ提示装置 8 0に供給する。 また、 コンテンツ再生装置 7 0は、 付属情報に基づきコンテンツ の再生動作を制御する。
コンテンツ提示装置 8 0は、 映像信号 S vzに基づいた画像表示や音声信号 S az に基づいた音声出力を行うことでコンテンツの提示を行う。
ここで連結とは、 主データと、 この主データに関するフレームレート情報を含 む付属情報が、 互いにリンクされている状態であれば良い。 例えば主データと付 属情報が、 別の伝送路で伝送データとして伝送されたものであっても、 付属情報 に対応するフレーム番号が含まれているようにしていれば、 後で互いに対応させ ることができる。 本実施の形態では、 このような場合も含めて連結しているとい う。
図 2は、 撮像装置 1 0の構成例を示している。 撮像レンズ系 1 1を通して入射 された光は、 撮像部 1 2に入射されて、 撮像部 1 2に設けられている例えば C C D (Charge Coupled Device) 等の撮像素子の撮像面上に被写体画像が結像される 撮像素子は、 光電変換によって被写体画像の撮像電荷を生成する。 また、 撮像部 1 2は、 後述するタイミングジェネレータ 1 4 2からの駆動信号 C Rに基づいて、 生成した撮像電荷を読み出し、 駆動信号 C Rに応じたフレームレートの撮像信号 S pを生成して信号処理部 1 3のカメラ処理回路 1 3 1に供給する。
カメラ処理回路 1 3 1は、 タイミングジェネレータ 1 4 2から供給されたタイ ミング信号 C Tに基づき、 撮像信号 S pと同期したタイミングで種々の信号処理を 行う。 例えば、 カメラ処理回路 1 3 1は、 相関二重サンプリング等を行うことで 撮像信号 S pからノイズ成分を除去する処理、 ノイズ除去された撮像信号 S pをデ イジタルの映像データに変換する処理、 映像データのクランプ処理、 シエーディ ング補正や撮像素子の欠陥補正、 γ処理や輪郭補償処理およびニー補正処理等を 行う。 また、 カメラ処理回路 1 3 1は、 制御部 1 4の撮像制御回路 1 4 1から供 給された動作制御信号 C Sに基づいた処理条件等で種々の信号処理を行う。 この ように、 カメラ処理回路 1 3 1で種々の信号処理を行って得られた映像データ D Vは、 出力部 1 5に供給される。
制御部 1 4のタイミングジェネレータ 1 4 2は、 撮像制御回路 1 4 1力、らの動 作制御信号 C Sに応じた駆動信号 C Rを生成して撮像部 1 2に供給することによ り、 撮像部 1 2における撮像電荷の読み出し周期を可変して、 撮像信号 S pのフレ ームレートを、 ユーザインタフェース部 16からの操作信号 P S aに基づいた設定 フレームレート FRsに制御する。 タイミングジェネレータ 142は、 例えば NT S C方式ではフレーム周波数 59. 94Hzや 29. 97Hz、 PAL方式では フレーム周波数 50Hzや 25Hzを基準フレームレート FRrのフレーム周波数 として、 設定フレームレート FRsを基準フレームレート FRrの k (kは整数に 限らない正の値) 倍とする操作が行われたときには、 撮像信号 Spのフレームレー トが基準フレームレート FRrの k倍となるように制御する。 なお、 例えば、 CC D等の撮像素子の各画素から転送部へ各画素に蓄積された撮像電荷を移動させる ための読み出しパルス (センサーゲートパルス) の周期を変更する等することで、 撮像電荷の読み出し周期が可変され、 フレームレートが可変される。 また、 この 際に、 CDR (Common Data Rate) 方式を採用しても良い。 CDR方式を用いる と、 有効なフレームレートは可変するが、 CCDから出力される信号のフレーム レートは不変とすることができ、 カメラ処理回路 1 31等の処理レートを一定と することができる。 この CD R方式に関しては、 PCT出願、 出願番号 PCT/JP03 /00551, 2003/1/22出願に開示されている。
また、 タイミングジェネレータ 142は、 駆動信号 CRに同期したタイミング 信号 CTを生成してカメラ処理回路 131や音声処理回路 1 32に供給する。 さ らに、 タイミングジェネレータ 142は、 映像データ DVのフレームレートであ る設定フレームレート FRsを示すフレームレート情報 DM- FRsを生成して、 出力 部 15に供給する。 また、 タイミングジェネレータ 142は、 サブフレーム番号 BNの生成も行う。 このサブフレーム番号 BNは、 基準フレームレート FRrに対 して設定フレームレート FRsを高くしたとき、 基準フレームレート FRrのフレ ーム期間内に含まれる各フレームを識別可能とする番号である。 このサブフレー ム番号 BNをフレーム識別情報 DM- BNとして出力部 15に供給する。
図 3は、 タイミングジヱネレータ 142でのサブフレーム番号の付加動作を示 すフローチャートである。 タイミングジェネレータ 142は、 例えば所定周波数 の発振信号を分周して、 基準フレームレート FRrのフレーム期間と設定フレーム レート F Rsのフレーム期間を同期させて設定し、 設定フレームレート F Rsのフ レーム期間に基づいて駆動信号 CRの生成および基準フレームレート FRrのフレ ーム期間の区切りを示すフレーム基準タイミングの生成を行う。
タイミングジェネレータ 142は、 ステップ ST 1でフレーム基準タイミング を検出したか否かを識別する。 ここで基準タイミングを検出したときにはステッ プ ST 2に進む。 また基準タイミングを検出していないときにはステップ ST 1 に戻る。
ステップ ST 1でフレーム基準タイミングを検出してステップ ST 2に進むと、 タイミングジェネレータ 142は、 ステップ ST 2でサブフレーム番号 BNの初 期化を行い、 サブフレーム番号 BNを初期値例えば 「0」 に設定してステップ S T 3に進む。
ステップ ST 3で、 タイミングジェネレータ 142は、 フレーム基準タイミン グを検出してから設定フレームレート FRsの 1フレーム期間経過時までに、 フレ ーム基準タイミングを検出したか否かを識別する。 ここで、 フレーム基準タイミ ングを検出していないときにはステップ S T 4に進み、 タイミングジェネレータ 142は、 サブフレーム番号 BNに 「1」 を加算して、 サブフレーム番号 BNの 更新を行いステップ S T 3に戻る。 このように、 設定フレームレート FRsの 1フ レーム期間経過時までにフレーム基準タイミングが検出されていないときには、 設定フレームレート FRsの 1フレーム期間毎にサブフレーム番号 BNが順番に割 り当てられる。
その後、 設定フレームレート FRsの 1フレーム期間経過までにフレーム基準タ イミングを検出するとステップ ST 2に戻り、 サブフレーム番号 BNの初期化を 行う。
このため、 基準フレームレート FRrのフレーム期間毎に、 このフレーム期間中 に設けられた設定フレームレート F Rsのフレーム画像に対してサブフレーム番号 B Nを付加することができる。
図 2に示す制御部 14の撮像制御回路 141には、 ユーザインタフェース部 1 6が接続されている。 ユーザインタフェース部 16は、 撮像装置 10での動作切 換操作ゃフレームレート可変操作が行われたとき、 これらの操作に応じた操作信 号 P S aを生成して撮像制御回路 141に供給する。 また、 ユーザインタフェース 部 16は、 図示しないリモートコントローラ等の外部機器から操作信号 P Saが供 給されたとき、 この操作信号 P Saを撮像制御回路 141に供給する。
撮像制御回路 141は、 ユーザインタフェース部 16からの操作信号 P Saに基 づき、 撮像装置 10の動作が操作信号 PS aに応じた動作となるように、 動作制御 信号 CSを生成してカメラ処理回路 1 31やタイミングジェネレータ 142に供 給する。
音声処理回路 1 32には、 音声入力装置 20からアナログの音声信号 Sinが供 給される。 音声処理回路 1 32は、 タイミングジェネレータ 142から供給され たタイミング信号 CTに基づいて音声信号 Sinのサンプリング処理を行い、 ディ ジタルの音声データ D Aを生成して出力部 1 5に供給する。
出力部 15は、 フレームレート情報 DM- FRsやフレーム識別情報 DM- BNを含む 付属情報 DMを生成して、 映像データ DVや音声データ D Aに連結させて素材デ ータ DTmを生成して編集装置に供給する。 なお、 素材データ DTmあるいは素材 データ D Tmに基づいて生成した記録信号を記録媒体に記録すれば、 この素材デー タ DTmあるいは素材データ DTmに基づいて生成した記録信号が記録されている 記録媒体を編集装置で再生することにより、 記録媒体を介して素材データ DTmを 編集装置に供給できる。 また、 付属情報 DMには、 設定フレームレート FRsゃサ ブフレーム番号 B Nの情報だけでなく、 撮像日時や撮像条件およぴ撮像内容等を 示す情報を含めるものとしても良い。
ここで、 映像データ D Vや音声データ D Aに対して付属情報 DMを連結させる 方法の一例として、 映像データ DVや音声データ D Aを圧縮してデータストリー ムとして素材データ DTmを生成するときには映像のデータストリーム中に付属情 報 DMを揷入、 あるいはデータストリームのヘッダ中に付属情報 DMを挿入する ことが考えられる。
また、 非圧縮の映像データや音声データを伝送するために SMPTE
(Society of tao ion Picture and Television Engineers) 259 M
「Television - 10-Bit 4:2:2 Component and 4fsc Composite Digital Signals - Serial Digital Interface] として規格化されている SD Iフォーマツトゃ、 圧縮された映像データや音声データを伝送するために SMPTE 305M
「Television - Serial Data Transport Interface (SDTI) 」 として規格ィ匕され ている SDT Iフォーマツト、 SDT Iフォーマツトを更に限定している SMP TE 326M television - SDTI Content Package Format (SDTI - CP) 」 として 規格化された SDT I一 CPフォーマツトを用いる場合、 付属情報 DMを SMP TE 33 OM television - Unique Material Identifier (UMID) 」 として規格 化されている UM I Dのデータとして、 各フォーマッ トの信号に揷入する。 なお、 映像データ DVや音声データ D Aに対して付属情報 DMを連結する方法はこれに 限られず種々の方法が考えられ、 上記の例に限定されるものではない。 また、 連 結とは、 互いの関係が何らかの方法でわかるもの、 つまり、 リンクがとれれば良 レ、。 例えば、 別の伝送路を介して送られる場合であっても、 夫々に同じ UMI D が付されていれば関連付けることができ、 これも連結に含まれる。
ところで、 上述の撮像装置 10は、 撮像部 12における撮像電荷の読み出し周 期を可変することで、 所望の設定フレームレート F Rsの素材データ D Tmを生成 するものであり、 設定フレームレート FRsを連続的に可変できる。 しかし、 設定 フレームレート F Rsをステツプ状に可変するだけでよい場合には、 フレーム間引 きを行うことで、 所望の設定フレームレート FRsの素材データ DTmを生成でき る。 すなわち、 設定フレームレート FRsよりも高いフレームレートであり、 フレ ームレートが一定である映像データ DVaを生成して、 この映像データ DVaから 設定フレームレート F Rs分だけ映像データを抽出することで、 設定フレームレー ト FRsの映像データ DVを生成できる。 この場合の構成を図 4に示す。 なお、 図 4において、 図 2と対応する部分については同一符号を付し詳細な説明は省略す る。
制御部 18のタイミングジェネレータ 182は、 ユーザィンタフェース部 16 を介して設定される設定フレームレート F Rsの最高値に応じた駆動信号 C Raを 生成して撮像部 12に供給する。 撮像部 12は、 駆動信号 CRaに基づいて撮像信 号の生成を行い、 フレームレートが基準フレームレート FRrよりも高い固定フレ ームレート FRqの撮像信号 Spaを生成して信号処理部 1 7のカメラ処理回路 1 3 1に供給する。 撮像部 12は、 例えば、 設定フレームレート FRsが基準フレーム レート FRrの n (nは正数) 倍まで変更可能であるとき、 基準フレームレート F Rrの n倍のフレームレートである撮像信号 Spaを生成して、 カメラ処理回路 13 1に供給する。 即ち、 撮像部 12は、 ユーザインタフェース部 16を介して設定 される設定フレームレート FRsに影響されることなく、 固定のフレームレートで ある撮像信号 Spaを生成する。
また、 タイミングジェネレータ 182は、 駆動信号 CRaに同期したタイミング 信号 CTaを生成して信号処理部 1 7のカメラ処理回路 1 31や音声処理回路 1 3 2および有効フレーム信号生成回路 1 83に供給する。
カメラ処理回路 131は、 撮像信号 Spaに基づいて生成した固定フレームレー ト FRqの映像データ DVaを有効データ選別回路 1 71に供給する。 音声処理回 路 132は、 一定周波数のタイミング信号 CTaに基づいたサンプリングを行って 生成した音声データ DAaを有効データ選別回路 1 71に供給する。
撮像制御回路 181は、 ユーザインタフェース部 16からの操作信号 P Saに基 づき、 設定フレームレート FRsを示す設定情報信号 CFを生成して有効フレーム 信号生成回路 183に供給する。
有効フレーム信号生成回路 183は、 映像データ DVaの一定値であるフレーム レート FRqと設定情報信号 CFによって示された設定フレームレート FRsとの 比に基づき、 映像データ DVaからフレーム単位でデータ抽出を行って設定フレー ムレート F Rsの映像データ DVを生成するための抽出制御信号 C Cを生成する。 さらに、 有効フレーム信号生成回路 183は、 この抽出制御信号 CCをタイミン グ信号 CTaに同期して有効データ選別回路 1 71に供給する。 例えば、 映像デー タ DVaのフレームレート FRqが基準フレームレート FRrの n倍であり、 設定フ レームレート FRsが基準フレームレート FRrの (nZ2) 倍であるとき、 有効 フレーム信号生成回路 183は、 映像データ DVaから 1フレーム置きにフレーム 単位でデータ抽出を行う抽出制御信号 CCを生成して、 タイミング信号 CTaに同 期して有効データ選別回路 1 71に供給する。
また、 有効フレーム信号生成回路 1 83は、 設定情報信号 CFに基づき設定フ レームレート FRsを示すフレームレート情報 DM- FRsを生成して出力部 15に供 給する。 さらに、 抽出制御信号 CCによって基準フレームレート FRrのフレーム 期間中におけるフレーム数を識別できることから、 有効フレーム信号生成回路 1 83は、 基準フレームレート FRrの各フレーム期間中におけるフレームに対する サプフレーム番号 B Nの設定を行い、 このサプフレーム番号 B Nもフレーム識別 情報 DM-BNとして出力部 15に供給する。
有効データ選別回路 1 71は、 抽出制御信号 CCによって示されたフレームの 映像データ D Vaおよぴ音声データ D Aaを抽出して映像データ D Vおよび音声デ ータ DAとして出力部 15に供給する。 また、 図示せずも、 有効フレーム信号生 成回路 183から有効データ選別回路 1 Ί 1に対して設定フレームレート FRsを 示すフレームレート情報 DM- FRを供給し、 有効データ選別回路 1 71で、 設定フ レームレート FRsと音声データ DAaを生成したときのフレームレートとの比に 応じて音声データ DAaの間引きを行うものとしても良い。 例えば、 音声データ D Aaを生成したときのフレームレート FRqが基準フレームレート FRrの n倍であ り、 設定フレームレート FRsが基準フレームレート FRrの (n/2) 倍である とき、 音声データ DAaに対して 1サンプル置きに間引きを行う。 この場合、 フレ ーム単位で音声データを間引く場合よりも間引き間隔を小さくできるので、 音声 データ D Aに基づく音声を良好な音質とすることができる。
このように、 映像データ DVaのフレーム周波数を一定とすることで、 撮像部 1 2や信号処理部 1 7のカメラ処理回路 1 31での動作周波数を可変する必要がな くなり、 撮像部 1 2やカメラ処理回路 131の構成を簡単にできる。 また、 映像 データ D Vaからフレーム単位でデータ抽出を行うだけで設定フレームレート F R sの映像データ DVを生成できるので、 所望の設定フレームレート FRsの映像デ ータ DVを映像データ DVaから容易に生成できる。
また、 撮像装置に画像メモリや加算器および除算器を設けるものとして、 映像 データを所定フレーム分毎に加算して映像データ DVを生成するようにしても良 い。 この場合には、 撮像信号 Spのフレームレート可変範囲を狭くできる。 すなわ ち、 nフレーム分の撮像信号 Spを加算して信号レベルを (lZn) 倍すれば、 撮 像信号 Spのフレームレートを (1/n) 倍としなくとも、 フレームレ一トを ( 1 Zn) 倍とした信号を得ることが可能となる。
図 5 A〜図 5 Eおよぴ図 6 A〜図 6 Eは、 撮像装置 10, 10aで生成される映 像データ D Vと付属情報 DMの関係を説明するための図である。 図 5Aに示すよ うに設定フレームレート F Rsを例えば基準フレームレート F Rrの 1倍あるいは 2倍とすると、 図 5 Bに示す映像データ DV (図では映像データ DVに基づいた フレーム画像を示している) に対して、 設定フレームレート FRsを示す図 5 Cの フレームレート情報 DM- FRsとサブフレーム番号 BNを示す図 5 Dのフレーム識 別情報 DM-BNとを含んだ付属情報 DMが連結される。 なお、 図 5 Eは、 時間経過 とフレーム画像の関係を示したものである。 また、 フレームレート情報 DM-FRs は、 設定フレームレート FRsを示すだけでなく、 基準フレームレート FRrに対 する設定フレームレート FRsの倍率を示すものとしても良い。 図 5 Cおよび以下 の図で示すフレームレート情報 DM- FRsでは倍率を記している。
図 6 Aに示すように設定フレームレート F Rsを例えば基準フレームレート F R rの 1倍あるいは 1/2倍とすると、 図 6 Bに示す映像データ DV (図では映像デ ータ DVに基づいたフレーム画像を示している) に対して、 設定フレームレート FRsを示す図 6 Cのフレームレート情報 DM-FRsとサブフレーム番号 BNを示す 図 6 Dのフレーム識別情報 DM - BNとを含んだ付属情報 DMが連結される。 図 6 E は、 時間経過とフレーム画像の関係を示したものである。
次に、 編集装置 30について説明する。 図 7は、 編集装置 30の構成を示して いる。 編集装置 30に供給された素材データ D Tmは、 素材取込部 31の情報検出 回路 31 1に供給される。 情報検出回路 31 1は、 素材データ DTmから付属情報 DMを検出する。 この検出した付属情報 DMをデータベース化処理回路 312に 供給する。 また、 素材データ DTmに含まれている映像データ DVと音声データ D Aをデータベース化処理回路 312に供給する。
データベース化処理回路 312は、 映像データ DVと音声データ D Aと情報検 出回路 31 1で検出した付属情報 DMとを関係付けて編集処理部 32のデータ記 憶装置 321に記憶させる。 また、 データベース化処理回路 312は、 データ記 憶装置 321に記憶した付属情報 DMや、 この付属情報 DMに関係付けられてい る映像データ DVや音声データ D Aに基づいて、 容易に素材データの内容を確認 可能とするデータベース情報 DBを生成して編集制御部 33に供給する。 例えば、 データベース情報 DBは、 素材データの内容を識別可能とする情報 (例えばサム ネイル) 、 素材データの時間長、 設定フレームレート FRs、 サブフレーム番号 B N、 データ記憶装置 321における記憶位置等の情報から構成されるものである。 編集制御部 33は、 GU I (Graphical User Interface) 環境で編集処理を可 能とするための映像データ DVgや、 データベース情報の内容を表示するための映 像データ DViを生成して映像出力信号生成回路 351に供給する。 映像出力信号 生成回路 351は、 供給された映像データ DVg, DViに基づき映像信号 Svmを 生成して編集画像表示装置 40に出力する。 このように、 映像信号 Svmを編集画 像表示装置 40に供給することで、 どのような素材データが記憶されているか等 を編集画像表示装置 40の画面上に表示できる。
また、 編集制御部 33は、 ポストプロダクション処理の制御を行う。 すなわち、 編集制御部 33に接続されているユーザインタフェース部 34から、 GU I環境 での表示を利用した操作信号 P Seが供給されて、 操作信号 P Seによっていずれ かの素材データを選択することが示されたときには、 編集制御部 33は、 この操 作信号 P Seに応じた読出制御信号 RCを生成して編集処理部 32の書込読出処理 回路 322に供給する。 また、 操作信号 P Seが読み出した素材データの加工や結 合等の編集操作に関するものであるときには、 編集制御部 33は、 操作信号 P S eに応じた編集制御信号 E Tを生成して編集処理部 32の信号編集回路 323に供 給する。 さらに、 素材データの編集が終了してコンテンツデータが完成されたと き、 操作信号 P Seがコンテンツデータをデータ記憶装置 321に記憶する操作を 示しているときには、 編集制御部 33は、 操作信号 P Seに応じた書込制御信号 W Cを生成して、 書込読出処理回路 322に供給する。 また、 操作信号 PSeがコン テンッデータの出力を示しているときには、 編集制御部 33は、 操作信号 PSeに 応じた出力制御信号 RPを生成して書込読出処理回路 322に供給する。 操作信 号 P Seがコンテンツデータの再生速度範囲を規定するものであるときには、 編集 制御部 33は、 操作信号 P S eに応じた速度範囲設定信号 L Pを生成して信号編集 回路 323に供給する。
書込読出処理回路 322は、 読出制御信号 RCに基づき、 要求された素材デー タをデータ記憶装置 321から読み出して信号編集回路 323に供給する。 また、 書込読出処理回路 322は、 書込制御信号 WCに基づき、 完成されたコンテンツ データ DCをデータ記憶装置 321に記憶させる。 また、 書込読出処理回路 32 2は、 出力制御信号 RPに基づき、 要求されたコンテンツデータ DCをデータ記 憶装置 3 2 1から読み出して出力する。
信号編集回路 3 2 3は、 データ記憶装置 3 2 1から読み出した素材データに含 まれている映像データ D Vおよび または音声データ D Aを用いて、 画像や音声 の加工や結合おょぴ削除等の編集処理を編集制御信号 E Tに基づいて行う。 ここ で、 信号編集回路 3 2 3は、 編集前や編集中あるいは編集後の映像データ D Veを 映像出力信号生成回路 3 5 1に供給し、 編集前や編集中あるいは編集後の音声デ ータ D Aeを音声出力信号生成回路 3 5 2に供給する。 また、 信号編集回路 3 2 3 は、 編集処理によって映像データ D Vや音声データ D Aのフレームレートを変更 したとき、 付属情報 DMも編集後の映像データや音声データに合わせて変更する。 さらに、 信号編集回路 3 2 3は、 編集後の映像データ D Vや音声データ D Aおよ ぴ編集後の映像データ D Vや音声データ D Aに対応する設定フレームレート F R sを示すフレームレート情報 DM- FRsゃフレーム識別情報 DM- BNを含んだ付属情 報 DMcを連結させてコンテンツデータ D Cを生成する。 また、 信号編集回路 3 2 3は、 速度範囲設定信号 L Pが供給されたときには、 この速度範囲設定信号 L P に基づいてコンテンツデータ D Cの再生速度範囲を示す速度範囲情報も付属情報 DMcとして連結させる。 さらに、 信号編集回路 3 2 3は、 ユーザインタフェース 部 3 4からコンテンツのタイトルやコンテンツの推奨再生速度が入力されたとき には、 これらの情報も付属情報 DMcとして連結させる。 また、 編集処理によって コンテンツデータの再生時間長情報が得られているときには、 この情報も付属情 報 DMcとして連結させるものとしても良い。 さらに、 コンテンツデータの再生可 能な最高速度が入力されたときには、 この最高速度も付属情報 DMcとして連結さ せる。 また、 信号編集回路 3 2 3あるいは編集制御部 3 3は、 素材データにサブ フレーム番号 B Nが付加されていない場合、 上述の図 3に示す処理を行い、 サブ フレーム番号 B Nを設定してフレーム識別情報 DMc- BNとする。
編集出力信号生成部 3 5の映像出力信号生成回路 3 5 1は、 上述したように、 編集制御部 3 3から供給された映像データ D Vg, D Viに基づき映像信号 S vmを 生成して編集画像表示装置 4 0に供給する。 このため、 G U I環境で素材データ に関する情報を表示できる。 さらに、 映像出力信号生成回路 3 5 1は、 信号編集 回路 3 2 3から供給された映像データ D Veに基づき映像信号 S vmを生成する。 こ れにより、 ユーザは、 編集前や編集中あるいは編集後の画像を編集画像表示装置
4 0の画面上で確認できる。
音声出力信号生成回路 3 5 2は、 信号編集回路 3 2 3から供給された音声デー タ D Aeを、 アナログの音声信号 S amに変換し、 所望の信号レベルとして、 例えば スピーカやへッドホンを用いて構成された編集音声出力装置 4 1に供給する。 こ のため、 ユーザは、 編集前や編集中あるいは編集後の音声を編集音声出力装置 4 1から出力される音声によって確認できる。
このように、 編集装置 3 0で素材データ D Tmを用いたポストプロダクション処 理が行われ、 コンテンツデータ D Cが完成すると、 この完成したコンテンツデー タ D Cは、 コンテンツ伝送装置 5 0に供給されて、 このコンテンツ伝送装置 5 0 からユーザのコンテンツ再生装置 7 0に供給される。
図 8は、 コンテンツ伝送装置 5 0の構成を示している。 編集装置 3 0から供給 された伝送用のコンテンツデータ D Cは、 書込処理部 5 1に供給される。 書込処 理部 5 1は、 伝送データ生成部 5 2のコンテンツ蓄積装置 5 2 1と接続されてお り、 供給された伝送用のコンテンツデータをコンテンツ蓄積装置 5 2 1に記憶さ せる。 なお、 コンテンツデータ D Cは、 編集装置 3 0から供給されたものに限ら れるものではなく、 撮像装置 1 0で生成された素材データ等をコンテンツデータ D Cとして用いるものとしても良い。
伝送データ生成部 5 2は、 コンテンツデータ D Cに基づき伝送データ D Tzの生 成を行うものであり、 伝送データ生成部 5 2のコンテンツ蓄積装置 5 2 1には、 読出処理回路 5 2 2が接続されている。 この読出処理回路 5 2 2には、 伝送用の コンテンッデータを伝送する際の伝送路の帯域情報 WBやコンテンツ再生装置側 からのコンテンッ要求信号 R Qが後述する伝送処理部 5 3から供給される。
読出処理回路 5 2 2は、 帯域情報 WBやコンテンツ蓄積装置 5 2 1に蓄積され ている要求されたコンテンツデータの付属情報 DMcに基づき、 要求されたコンテ ンッデータの読み出しを制御してフレームレート調整を行い、 フレームレート調 整後のコンテンツデータ D C zaを情報修正回路 5 2 3に供給する。
例えば、 後述するエンコーダ 5 2 4で符号ィヒ処理を行ったときの 1フレーム分 のデータ量が B Dbit、 フレームレート情報 DMc- FRsによって示された設定フレ ームレート FRsが基準フレームレート FRrの n (nは正数) 倍であるとき、 単 位時間で伝送するデータ量 BTは 「BT二 BDXnXFRr+BH」 となる。 なお、 データ量 BHは、 コンテンツデータをバケツト化して伝送するときに付カ卩される ヘッダ情報等をまとめて示したものである。
ここで、 帯域情報 WBで示された伝送可能なデータ量 (帯域幅) B Aがデータ 量 BTより小さくないときには、 コンテンツデータのフレームレート調整を行わ ないものとされ、 コンテンツ蓄積装置 521からコンテンツデータを順次読み出 して情報修正回路 523に供給される。 また、 帯域幅 BAがデータ量 BTよりも 小さいとき、 コンテンツデータの映像データ等に対してフレームレート調整を行 い、 伝送データを受信しながら再生するストリーミング動作時に、 画像や音声が 途切れてしまうことがないようデータ量を少なくする。 例えば付属情報 DMcで示 された設定フレームレート FRsと基準フレームレート F から、 基準フレーム レート FRrに対する設定フレームレート FRsの倍数 「m」 を識別する。 さらに、 識別した倍数 「m」 の約数を求めて、 「m」 を除く約数の最大値と基準フレーム レート FRrを乗算して調整後の設定フレームレートとする。 すなわち 「m=l 0」 であるときには約数の最大値が 「5」 であるので 「m=5」 とするフレーム レート調整を行う。 このフレームレート調整では、 1フレームおき、 すなわちフ レーム識別情報 DMc- BNを利用して、 偶数であるサブフレーム番号 「0, 2, 3, 6, 8」 のコンテンツデータを読み出すことで、 基準フレームレート FRrに対し て 5倍のフレームレートのコンテンツデータを生成する。 また、 「m=9」 であ るときには 「m=3」 に調整して、 2フレームおき、 すなわちフレーム識別情報 DMc- BNを利用して、 サブフレーム番号 「0, 3, 6」 のコンテンツデータを読 み出すことでフレームレート調整後のコンテンツデータを生成する。 また、 調整 後のデータ量 BTが帯域幅 BAよりも大きいときにはさらにフレームレートの調 整を行う。 このように、 「m」 を除く約数の最大値を用いて調整後のフレームレ 一トを決定すれば、 コンテンッデータを読み出す際にフレーム識別情報 DMc - BN を利用してフレーム単位で間引きを行うだけで、 簡単にフレームレート調整後の コンテンツデータを生成できる。
その後、 「m= l」 でも調整後のデータ量 BTが帯域幅 B Aよりも大きいとき には 「m=lZk」 (k : 自然数) となるようにフレーム間引きを行うことで、 データ量 BTを更に少なくできる。 また、 帯域幅 B Aが変化したときには帯域幅 B Aの変化に応じてフレームレートを可変させる。
また、 コンテンツデータの音声データに対しては、 映像データに対するフレー ムレート調整に応じてサンプル間引きを行い、 フレームレート調整後の音声デー タを生成する。 例えば映像データが 1フレームおきに読み出されるときには、 音 声データを 1サンプル置きに読み出す。 また映像データが 2フレームおきに読み 出されるときには、 音声データを 2サンプル置きに読み出してフレームレート調 整後の音声データを生成する。
情報修正回路 523は、 読出処理回路 522によってフレームレート調整が行 われたとき、 調整後のフレームレートに対応するようにコンテンツデータ DCza の付属情報 DMzaを修正して、 フレームレートを正しく示す付属情報 DMzとする。 さらに、 この付属情報 DMzを連結したコンテンツデータ DCzをエンコーダ 52 4に供給する。 例えば 「m=10」 力 S 「m=5」 に調整されたときには、 設定フ レームレート FRsを 「X 10」 から 「X 5」 に変更する修正を行い、 設定フレー ムレート FRsが 「X 10」 であることを示すフレームレート情報 DMza - FRsを、 設定フレームレート FRsが 「X 5」 であることを示すフレームレート情報 DMz - FRsに変更する。 設定フレームレート F Rsの変更に伴いフレーム識別情報 DMz a- BNも変更する。 すなわちサブフレーム番号 BN 「0〜9」 をサブフレーム番号 BN 「0〜4」 に付け替えたフレーム識別情報 DMz - BNとする。 さらに、 この変 更後のフレームレート情報 DMz- FRsとフレーム識別情報 DMz- BNを用いて、 付属 情報 D Mcを付属情報 D Mzに変更する。
エンコーダ 524は、 供給されたコンテンツデータ DCzの映像データ DVzや 音声データ DAzを伝送に適した信号に符号ィ匕して符号化データ D Zを生成する。 例えば MP EG (Moving Picture Experts Group) 4として規格化されている符 号化方式等を用いてス トリーミング伝送に適した信号に符号化する。 この符号ィ匕 処理によって得られた符号化データ D Zに付属情報 DMzを連結させて、 伝送デー タ DTzとして伝送処理部 53に供給する。 このように、 符号化処理を行うことで 効率良くコンテンツデータの伝送を行うことが可能となる。 伝送処理部 5 3は、 コンテンツ再生装置 7 0から供給された伝送信号 T Mrqに よってコンテンツデータの要求がなされたとき、 要求されているコンテンツデー タを示すコンテンツ要求信号 R Qを読出処理回路 5 2 2に供給する。 また、 伝送 処理部 5 3は、 伝送路 6 0の帯域に関する帯域情報 W Bを生成して読出処理回路 5 2 2に供給する。 さらに、 伝送処理部 5 3は、 コンテンツデータの要求に基づ き、 エンコーダ 5 2 4から供給された伝送データ D T zを所定のプロトコルの伝送 信号として、 伝送路 6 0を介してコンテンツデータの要求を行ったコンテンツ再 生装置 7 0に供給する。
この読出処理回路 5 2 2に供給する帯域情報 W Bは、 例えばルータ等のネット ワーク機器を用いて伝送処理部 5 3を構成し、 このネットワーク機器が持つ管理 情報ベース (M I B Management Information Base) から得ることができるトラ フィック情報を帯域情報 W Bとして用いることができる。 また、 計測用のバケツ トをコンテンツ再生装置 7 0に送信し、 コンテンツ再生装置 7 0からのレスボン ス時間などを測定することで帯域を識別して、 この識別結果を帯域情報 W Bとし て用いることもできる。
また、 帯域情報 W Bに基づき読出処理回路 5 2 2でフレームレート調整を行う だけでなく、 帯域情報 W Bに基づきエンコーダ 5 2 4でデータ圧縮率を可変する ことによってデータ量 B Tを帯域幅 B Aに応じて可変するものとしても良い。 こ の場合には、 データ量の制御をさらに細かく制御できるので、 帯域幅 B Aが狭く なっても伝送される画像や音声の品質の劣化を少なくすることが可能となる。 さ らに、 設定フレームレート F R sが等しい状態が続くフレーム期間中は、 調整後の フレームレートを帯域情報 WBにかかわらず一定として、 データ量 B Tの調整を エンコーダ 5 2 4で行うこともできる。 この場合には、 撮像装置 1 0や編集装置 3 0によって所望のフレームレートに設定したコンテンツ部分が、 帯域幅 B Aに 応じて異なるフレームレートに調整されてしまうことを防止できる。
さらに、 付属情報 D Mcに推奨再生速度が設定されているときには、 推奨再生速 度での再生が可能となる範囲でフレームレート調整を行い、 推奨再生速度での再 生時よりもフレーム数を少なくする必要が生じたときには、 データ量 B Tの調整 をエンコーダ 5 2 4で行うものとしても良い。 この場合には、 伝送路 6 0の帯域 が狭くなつても推奨再生速度でコンテンツを再生することができる。
ところで、 上述のコンテンツ伝送装置 50のコンテンツ伝送処理は、 コンビュ ータを用いてソフトウエア処理によっても実現できる。 このソフトウエア処理に よってコンテンッ伝送を行う場合の構成を図 9に示す。
コンピュータは、 図 9に示すように CPU (Central Processing Unit) 551 を内蔵しており、 この C PU 551にはパス 560を介して ROM552, RA M553, 記憶容量が大容量であるハード ·ディスク · ドライブ等を用いて構成 したデータ蓄積部 554, 入出力インタフェース 555が接続されている。 さら に、 入出力ィンタフェース 555には信号入力部 56 1や通信部 562、 記録媒 体ドライブ 563が接続されている。
CPU551は、 ROM 552や RAM 553あるいはデータ蓄積部 554に 記憶されているプログラムを実行して、 コンテンツ伝送処理を行う。 信号入力部
56 1に入力されたコンテンッデータは、 入出力インタフェース 555とバス 5
60を介してデータ蓄積部 554に記憶させる。 また、 CPU551は、 通信部 562を介してコンテンツ要求信号 RQが供給されたとき、 データ蓄積部 554 に記憶されているコンテンツデータから、 要求されたコンテンツデータの読み出 しを行い、 この読み出しを制御して伝送路 60に応じたデータ量のコンテンツデ ータとなるようにフレームレート調整を行う。 さらに、 CPU55 1は、 伝送に 適した符号化を行つて伝送データ D T Zを生成する。 この生成した伝送データ D T zは、 通信部 562を介して出力される。
なお、 コンテンツ伝送処理を行うプログラムは、 予め ROM552やデータ蓄 積部 554に記憶させておくものとしたり、 記録媒体ドライブ 563によって、 コンテンッ伝送処理のプログラムを記録媒体に記録しあるいは記録媒体に記録さ れているプログラムを読み出して実行するものとしても良い。 さらに、 通信部 5 62によって、 プログラムを有線あるいは無線の伝送路を介して送信あるいは受 信するものとし、 受信したプログラムをコンピュータで実行するものとしても良 い。
図 10は、 コンテンツ伝送処理動作を示すフローチャートである。 ステップ S T1 1で、 CPU551は、 コンテンツデータ DCの取り込みを行い、 信号入力 部 561に入力されたコンテンツデータ DCをデータ蓄積部 554に記憶させる。 なお、 コンテンツデータは、 編集装置 30から供給されたデータに限られるもの ではなく、 撮像装置 10で生成された素材データ等をコンテンツデータとしてデ ータ蓄積部 554に記憶するものとしても良い。
ステップ ST 12で、 CPU551は、 コンテンツデータの要求がなされたか 否かを判別する。 ここでコンテンツデータの要求がなされていないときにはステ ップ ST 12に戻り、 コンテンツデータの要求が例えば通信部 562を介してな されたときにはステップ ST 13に進む。
ステップ ST 1 3で、 CPU551は、 要求されたコンテンツデータの付属情 報を読み出してステップ S T 14に進む。
ステップ ST 14で、 CPU551は、 伝送路の帯域を検出し、 検出された帯 域に応じて、 データ蓄積部 554から読み出すコンテンツデータを、 フレーム識 別情報を利用して制御することによりフレームレート調整を行う。
ステップ ST 1 5で、 CPU551は、 読み出したコンテンツデータ DCzaの 付属情報 DMzaを、 調整されたフレームレートと対応するように修正して付属情 報 DMzとする。 ステップ ST 16で、 CPU551は、 付属情報の修正がなされ たコンテンツデータ DCzを用いて伝送路に応じた符号ィヒ処理を行い符号化データ DZを生成する。 さらに、 生成した符号化データ DZと修正後の付属情報 DMzを 用いて、 伝送データ DTzを生成してステップ ST 17に進む。
ステップ ST 1 7で、 CPU551は、 コンテンツデータの要求先に向けて、 生成した伝送データ DTzを通信部 562から出力する。
次に、 コンテンツ再生装置について説明する。 図 1 1は、 コンテンツ再生装置 70の構成を示している。 コンテンツ伝送装置 50から供給された伝送信号 TM zは、 入力部 71の通信回路 71 1に供給される。 入力部 71はコンテンツデータ の取り込みを行うものであり、 入力部 71の通信回路 71 1は、 供給された伝送 信号 T Mzから伝送データ D T zを生成し、 この伝送データ D T zから符号化データ DZと付属情報 DMzを抽出する。 さらに、 通信回路 71 1は、 抽出した付属情報 DMzを情報記憶回路 712に供給し、 符号化データ DZをデータ保持回路 71 3 に供給する。 また通信回路 71 1は、 後述する再生制御部 72からのコンテンツ 要求信号 R Qに基づき伝送信号 TMrqを生成して、 コンテンツ伝送装置 5 0に供 給する。
情報記憶回路 7 1 2は、 供給された付属情報 DMzを記憶する。 またデータ保持 回路 7 1 3は、 供給された符号化データ D Zを記憶する。
再生制御部 7 2にはユーザインタフェース部 7 3が接続されている。 再生制御 部 7 2は、 ユーザインタフェース部 7 3からの操作信号 P S pがコンテンツデータ の要求を行うものであるとき、 操作信号 P S pに基づいたコンテンツ要求信号 R Q を生成して通信回路 7 1 1に供給することで、 コンテンツ伝送装置 5 0に対して コンテンッデータの伝送要求を行う。
また、 操作信号 P S pがコンテンツデータの再生を指示するものであるとき、 再 生制御部 7 2は、 読出制御信号 C Nをデータ保持回路 7 1 3に供給して、 再生の 指示が行われたコンテンツの符号化データ D Zをデータ保持回路 7 1 3から読み 出して再生処理部 7 4に供給する。 さらに、 再生制御部 7 2は、 読み出した符号 化データ D Zに対応する付属情報 DMzを情報記憶回路 7 1 2から読み出して、 付 属情報 DMzに含まれている情報を表示する映像データ D Vs、 例えば付属情報 D Mzに含まれている制限情報に基づき再生可能速度範囲を示す映像データ、 付属情 報 DMzにタイムコード等の時間情報が含まれているとき、 この時間情報で示され た合計時間や再生位置の時間等を示す映像データを生成して再生処理部 Ί 4に供 給する。 これにより、 テレビジョン装置やモニター装置等であるコンテンツ提示 装置 8 0の画面上に再生可能速度範囲や合計時間および再生位置の時間等が表示 される。 また、 付属情報 DMzに速度範囲情報が含まれていないときには、 上述の 編集装置 3 0において示したように再生可能速度範囲の設定を行う。 設定された 再生可能速度範囲は、 コンテンツ提示装置 8 0の画面上に表示される。 操作信号 P S pがコンテンツの再生速度 F Pを可変するものであるとき、 再生制御部 7 2は 再生処理部 7 4の動作を制御する提示制御信号 C Pを付属情報 DMzに基づき生成 して再生処理部 7 4に供給する。
また、 再生制御部 7 2は、 付属情報 DMzによってコンテンツの再生可能な最高 速度が示されているとき、 再生速度 F Pの可変範囲の最高速度を、 付属情報 DM Zで示された最高速度とする。 さらに、 付属情報 DMzによって推奨再生速度が示 されている場合、 操作信号 P S pによって再生速度が指示されていないときには、 再生制御部 7 2は、 この推奨再生速度で再生動作を行うように提示制御信号 C P を生成する。 なお、 付属情報 DMzによって、 コンテンツのタイトルや時間長が示 されているとき、 再生制御部 7 2は、 これらの情報をコンテンツ提示装置 8 0の 画面上に表示させる。
コンテンツの可変速再生を行う再生処理部 7 4は、 データ保持回路 7 1 3から 供給された符号化データ D Zの復号化処理を行い、 コンテンッの映像データ D V zや音声データ D Azを生成する。 再生処理部 7 4は、 さらに、 生成した映像デー タ D Vzや音声データ D Azに対して提示制御信号 C Pに基づきフレーム識別情報 DMz- BNを利用した間引きや繰り返し処理を行い、 ユーザの設定した再生速度 F Pあるいは推奨再生速度と等しい再生速度 F Pに応じた映像信号 S vzや音声信号 S azを生成してコンテンツ提示装置 8 0に供給することで、 コンテンツ提示を行 う。 また、 再生処理部 7 4は、 再生速度 F Pの可変範囲を示す映像データ D Vsが 供給されたとき、 この再生速度 F Pの可変範囲をコンテンツ提示装置 8 0の画面 上に表示する映像信号 S vzの生成を行う。
なお、 符号化データ D Zがフレーム内符号化データで構成されているとき、 再 生処理部 7 4は、 データ保持回路 7 1 3から提示制御信号 C Pに基づき、 符号化 データ D Zをフレーム単位で間引きして読み出すものとしても良い。 この場合に は、 間引きされてしまう映像データの復号化を行う必要がなく、 復号化処理を容 易に行うことができる。
また、 コンテンツ再生装置 7 0は、 コンテンツデータが記録されている記録媒 体を用いるものであっても良い。 この場合、 記録媒体を再生して得られた再生信 号から付属情報 DMzと符号化データ D Zを分離して、 この付属情報 DMzを情報 記憶回路 7 1 2に記憶させ、 符号化データ D Zをデータ保持回路 7 1 3に記憶さ せることで、 同様に処理することができる。
ところで、 上述のコンテンツ再生装置 7 0のコンテンツ再生処理も、 コンビュ ータでソフトウエア処理することによって実現できる。 このソフトウエア処理に よってコンテンツ再生を行う場合の構成を図 i 2に示す。
コンピュータは、 図 1 2に示すように C P U 7 5 1を内蔵しており、 この C P U 751にはバス 760を介して ROM752, RAM 753, データ蓄積部 7
54, 入出力インタフェース 755が接続されている。 さらに、 入出力インタフ エース 755には通信部 761やユーザインタフェース部 762、 信号出力部 7
63、 記録媒体ドライブ 764が接続されている。
CPU751は、 ROM 752や RAM753あるいはデータ蓄積部 754に 記憶されているプログラムを実行して、 ユーザインタフェース部 762からの操 作信号 P S pに基づいたコンテンッ伝送処理動作を行う。 ここで、 通信部 76 1に 伝送データ DTzが供給されたとき、 通信部 761は、 符号化データ DZと付属情 報 DMzを抽出する。 この通信部 761で抽出された符号化データ DZと付属情報 DMzをデータ蓄積部 754に記憶させる。 また、 CPU75 1は、 ユーザインタ フェース部 762からの操作信号 P Spに基づいて、 データ蓄積部 754に記憶さ れている符号化データ D Zの読み出しゃ復号化処理を行い、 映像データ D Vzや音 声データ DAzを生成して信号出力部 763に供給する。 信号出力部 763は、 映 像データ DVzや音声データ DAzに基づき、 コンテンツ提示装置 80に応じた映 像信号 Svzや音声信号 Sazを生成して出力する。
なお、 コンテンツ再生処理を行うプログラムは、 予め ROM752やデータ蓄 積部 754に記憶させておくものとしたり、 記録媒体ドライブ 764によって、 コンテンツ再生処理のプログラムを記録媒体に記録しあるいは記録媒体に記録さ れているプログラムを読み出して実行するものとしても良い。 さらに、 通信部 7 61によって、 プログラムを有線あるいは無線の伝送路を介して送信あるいは受 信するものとし、 受信したプログラムをコンピュータで実行するものとしても良 い。
図 13は、 コンテンツ再生処理動作を示すフローチャートである。 コンテンツ データを再生する場合、 CPU751は、 GU I環境を構成するための画像をコ ンテンッ提示装置 80に表示させるとともに、 この表示画像に対応した操作をュ ーザィンタフエース部 762で行うことで操作入力を行う。
図 14は、 コンテンツ提示装置 80の表示画像を例示したものであり、 コンテ ンッ提示装置 80は GU Iのための画像を表示する。 コンテンツ提示装置 80の 画面上には、 コンテンツの画像を表示するビュヮ一部 801、 再生速度 FPを可 変するためのインタフェースである速度可変コンソール部 802、 再生速度 FP を表示する再生速度表示部 803、 動作モードや音量等の切り換えを行うための 動作コントロー /レ部 804、 コンテンツのタイトルを示すタイトル表示部 805、 コンテンツの再生時間や現在の時間を表示する時間表示部 806、 現在の再生位 置を示す再生位置表示部 807等が設けられている。
CPU751は、 図 13のステップ ST 21で、 データ蓄積部 754からコン テンッの付属情報 DMzを読み出して、 入出力インタフェース 755を介して信号 出力部 763からコンテンツ提示装置 80に、 付属情報 DMzに基づいて生成され た映像信号 Svzや音声信号 Sazを出力する。 これにより、 コンテンツ提示装置 80 で付属情報 DMzに応じた表示が行われる。 例えばコンテンツのタイトルゃコン テンッの時間長がタイトル表示部 805や時間表示部 806に表示される。 また 速度範囲情報に基づき最低速度と最高速度が速度可変コンソール部 802に表示 される。
ステップ ST22で CPU751は、 動作コントロール部 804を利用して、 コンテンツの再生開始操作が行われたか否かを操作信号 PSpに基づき識別する。 ここで、 再生開始操作が行われていないとき、 CPU751はステップ ST22 に戻り、 再生開始操作が行われたときにはステップ S T 23に進む。
ステップ ST 23で CPU 751は、 再生速度 F Pと設定フレームレート FR sに応じて再生処理条件の設定、 すなわち符号化データ D Zを複号化して得られた 映像データ D V zや音声データ D Azから映像信号 S vzや音声信号 S azを生成する 際に行うデータの間引き間隔ゃデ一タの繰り返し数を決定する。
ステップ ST 24で CPU 751は、 データ蓄積部 754から符号化データ D Zを読み出して復号ィ匕して映像データ D V zや音声データ DAzを生成し、 ステツ プ S T 23で決定された再生処理条件に基づき、 フレーム識別情報 DMz-BNを利 用してデータの間引きやデータの繰り返し行い、 コンテンツ提示用の映像信号 S vzや音声信号 Sazを生成する。 CPU751は、 この生成した映像信号 S vzや音 声信号 Sazをコンテンツ提示装置 80に供給することで、 速度可変コンソール部 802のカーソル位置 (太線で示す) で示された再生速度 F Pの再生画像がコン テンッ提示装置 80のビュヮ一部 801に表示される。 また、 このときの再生速 度 FPが再生速度表示部 803に表示され、 再生時間や再生位置が時間表示部 8 06や再生位置表示部 807に表示される。 また、 コンテンツ提示装置 80は、 速度可変コンソール部 802のカーソル位置で示された再生速度 F Pでの再生音 声を出力する。
ステップ ST25で CPU 751は、 速度可変コンソール部 802のカーソル 位置が移動されて再生速度 FPが変更されたか否かを識別する。 ここで、 CPU 751は、 再生速度 FPの変更が行われたと識別したときステップ ST23に戻 り、 再生速度 FPの変更が行われたと識別していないときステップ ST 26に進 む。
ステップ ST26で CPU751は、 再生動作の終了であるか否かを識別する。 ここで、 再生動作を停止する操作が行われていないとき、 あるいはコンテンツの 再生位置が終了位置となっていないとき、 CPU 751はステップ ST 25に戻 る。 また、 停止操作が行われたとき、 あるいは再生位置が終了位置となったとき、 CPU751は変速再生動作を終了する。
図 15は、 画像に対しての再生処理条件の設定動作を示すフローチャートであ る。 CPU751は、 ステップ ST31で、 速度可変コンソール部 802のカー ソル位置に基づいて再生速度 FPを識別してステップ ST 32に進む。 ここで、 基準フレームレート FRrを 1倍速として、 速度可変コンソール部 802でのカー ソルの初期位置を例えば 1倍速の位置とすることで、 再生動作開始時の再生速度 FPを設定する。 また、 編集装置 30によって再生速度 FPが推奨されていると き、 CPU751は、 この推奨されている再生速度 F Pの位置をカーソルの初期 位置とし、 推奨されている再生速度 FPを、 再生動作開始時の再生速度 FPと設 定する。 さらに、 カーソル位置がユーザによって移動されているとき、 CPU 7 51はカーソル位置と対応する速度を再生速度 F Pとする。
ステップ ST32で CPU751は、 付属情報 DMzに含まれているフレームレ 一ト情報 DMz- FRsに基づいて設定フレームレート FRsを識別してステップ S T 33に進む。 ステップ ST33で CPU751は、 再生速度 F Pと設定フレーム レート FRsを乗算して、 再生処理条件を決定するための識別値 FDを算出する。 ステップ ST34で CPU751は、 識別値 F Dに基づいて再生処理条件を決 定する。 ここで、 C P U 751は、 識別値 F Dが 1以上で小数点以下の値を含ま ないとき、 識別値 FDに応じたフレーム間隔で画像を間引いて出力するように再 生処理条件を決定する。 C P U 751は、 識別値 F Dが 1以上で小数点以下の値 を含む場合、 識別値 FDの整数値部分に応じたフレーム間隔でフレーム識別情報 DMz- BNを利用して画像の間引きを行い、 所望の再生速度に応じたフレーム数の 画像が得られたときには、 サブフレーム番号 BNの次の初期値まで画像の位置を 移動させるように再生処理条件を決定する。 CPU751は、 識別値 FDが 1未 満である場合、 所望の再生速度に応じたフレーム数となるまで同じ画像を繰り返 し出力するように再生処理条件を決定する。 このように決定された再生処理条件 に基づいて上述のステップ ST 24の処理を行うことで、 正しく所望の再生速度 でコンテンツの画像を提示させることができる。
図 16 〜図16Mは、 識別値 FDが 1以上で小数点以下の値を含まない場合 での再生動作を示している。 図 16 Aは、 設定フレームレート FRsが基準フレー ムレート FRrに対して 10倍速とされているときの映像データ DVzに基づく画 像を示している。 また図 16 Bはフレーム画像の設定フレームレート FRsを示す フレームレート情報 DMz- FRs、 図 16 Cはフレーム画像のサブフレーム番号 BN を示すフレーム識別情報 DMz- BN、 図 16 Dは絶対フレーム番号 ANをそれぞれ 示している。
ここで、 再生速度 FPが (1Z5) 倍速とされたとき、 識別値 FDは 「10 X (1/5) =2」 となる。 このため、 図 1 6 E〜図 16Gに示すように、 「FD =2」 フレーム目毎、 すなわちフレーム識別情報 DMz- BNを利用して映像データ DVzを 1フレーム置きに用いて映像信号 Svzを生成することで、 (1/5) 倍速 での再生画像をコンテンツ提示装置 80に表示できる。 なお、 図 16 Eは表示さ れる画像のフレーム識別情報 DMz - BN、 図 16 Fは表示される画像の絶対フレー ム番号 AN、 図 16 Fは表示される画像のフレーム識別情報 DMz- BN、 図 16G は映像信号 Svzで表示されるフレーム画像を示している。
再生速度 FPが 1倍のとき、 識別値 FDは 「10 X 1 = 10」 となる。 このた め、 図 16 H〜図 16 Jに示すように、 「FD=10」 フレーム目毎、 すなわち フレーム識別情報 D Mz- BNを利用して映像データ DVzを 9フレーム分飛ばしなが ら用いて映像信号 Svzを生成することで、 1倍速の再生画像をコンテンツ提示装 置 80に表示できる。 なお、 図 16Hは表示される画像のフレーム識別情報 DM z - BN、 図 16 Iは表示される画像の絶対フレーム番号 AN、 図 16 Jは映像信号 Svzで表示されるフレーム画像を示している。
また、 再生速度 FPが 2倍のとき、 識別値 FDは 「10 X 2 = 20」 となる。 このため、 図 16 K〜図 1 6Mに示すように、 「FD=20」 フレーム目毎、 す なわちフレーム識別情報 DMz- BNを利用して映像データ D Vzを 1 9フレーム分飛 ばしながら用いて映像信号 Svzを生成することで、 2倍速の再生画像をコンテン ッ提示装置 80に表示できる。 なお、 図 16 Kは表示される画像のフレーム識別 情報 DMz- BN、 図 16 Lは表示される画像の絶対フレーム番号 AN、 図 16Mは 映像信号 Svzで表示されるフレーム画像を示している。 ' 図 1 7八〜図1 7Gは、 識別値 FDが 1以上で小数点以下の値を含まない場合 での再生動作を示している。 図 1 7Aは、 設定フレームレート FRsが基準フレー ムレート FRrに対して 7倍速とされているときのフレーム画像を示している。 ま た図 1 7 Bはフレーム画像の設定フレームレート F Rsを示すフレームレート情報 DMz- FRs、 図 17 Cはフレーム画像のサブフレーム番号 BNを示すフレーム識別 情報 DMz- BN、 図 1 7 Dは絶対フレーム番号 ANをそれぞれ示している。
ここで、 再生速度 FPが (1/3) 倍速であるとき、 識別値 FDは 「7 X (1 /3) =2. 33 · · ·」 となる。 このため、 図 1 7 E〜図 1 7 Gに示すように、 識別値 F Dの整数値部分に応じて 2フレーム目毎すなわちフレーム識別情報 DM z-BNを利用して 1フレーム置きに映像データ DVzを用いる。 さらに、 所望の再生 速度に応じたフレーム数、 すなわち (1Z3) 倍速であるから、 基準フレームレ ート FRrの 1フレーム期間中に 3フレーム分の画像を出力したときには、 サブフ レーム番号 BNの次の初期値まで用いる映像データ DVzの位置を移動させる。 こ の場合、 サブフレーム番号 BNが 「0」 「2」 「4」 の映像データ DVzを用いて 映像信号 Svzが順次生成されて、 (1ノ 3) 倍速の再生画像をコンテンツ提示装 置 80に表示できる。 なお、 図 1 7 Eは表示される画像のフレーム識別情報 DM z-BN, 図 1 7 Fは表示される画像の絶対フレーム番号 AN、 図 1 7Gは映像信号 Svzで表示されるフレーム画像を示している。 図 18A〜図 18Mは、 識別値 FDが 1未満となる場合での再生動作を示して レヽる。 図 18Aは、 設定フレームレート FRsが基準フレームレート FRrに対し て (1/4) 倍速とされているときのフレーム画像を示している。 また図 18 B はフレーム画像の設定フレームレート FRsを示すフレームレート情報 DMz- FRs、 図 18 Cはフレーム画像のサブフレーム番号 BNを示すフレーム識別情報 DMz - BN、 図 18 Dは絶対フレーム番号 ANをそれぞれ示している。
ここで、 再生速度 FPが 1倍速とされたとき、 識別値 FDは 「 (1/4) X I = 1Z4」 となる。 このため、 図 18E〜図 18Gに示すように、 再生速度に応 じたフレーム数すなわち映像データ DVzをフレーム毎に 4回繰り返し用いて映像 信号 Svzを生成することで、 1倍速での再生画像をコンテンツ提示装置 80に表 示できる。 なお、 図 18 Eは表示される画像のフレーム識別情報 DMz - BN、 図 1 8 Fは表示される画像の絶対フレーム番号 AN、 図 18Gは映像信号 Svzで表示 されるフレーム画像を示している。
再生速度 FPが 2倍速であるとき、 識別値 FDは 「 (1ノ4) X 2= lZ2」 となる。 このため、 図 18H〜図 18 Jに示すように、 映像データ DVzをフレー ム毎に 2回繰り返し用いて映像信号 Svzを生成することで、 2倍速での再生画像 をコンテンツ提示装置 80に表示できる。 なお、 図 18Hは表示される画像のフ レーム識別情報 DMz- BN、 図 18 Iは表示される画像の絶対フレーム番号 ANを 示しており、 図 18 Jは映像信号 Svzで表示される表示されるフレーム画像を示 している。
再生速度 FPが 4倍速であるとき、 識別値 FDは 「 (1Z4) X4 = l」 とな る。 このため、 図 18 K〜図 18Mに示すように、 映像データ DVzをフレーム毎 に順次用いて映像信号 S VZを生成することで、 4倍速での再生画像をコンテンツ 提示装置 80に表示できる。 なお、 図 18Kは表示される画像のフレーム識別情 報 DMz - BN、 図 18 Lは表示される画像の絶対フレーム番号 ANを示しており、 図 18 Mは映像信号 Svzで表示される表示されるフレーム画像を示している。 このように、 記録速度と再生速度に基づいた読出間隔で画像のデータを、 フレ ーム識別情報を利用して読み出すことで、 所望の再生速度の画像を簡単に表示で さる。 次に、 音声について説明する。 図 19は、 音声に対しての再生処理条件の設定 動作を示すフローチャートである。 音声については、 フレーム単位で音声データ DAzを用いるものとしたとき、 フレーム間で音のつながりがなくなり音の不連続 を生じてしまう。 このため、 音声については、 サンプル単位で再生処理を行う。 ステップ ST41で CPU751は、 ステップ ST 31と同様にして再生速度 を判別してステップ ST42に進む。 ステップ ST42で CPU751は、 ステ ップ ST32と同様に設定フレームレート FRsを読み出してステップ ST 43に 進む。 ステップ ST43で CPU751は、 ステップ S T 33と同様に識別値 F Dを算出してステップ ST 44に進む。
ステップ ST44で CPU751は、 識別値 F Dに基づいて再生処理条件を決 定する。 ここで識別値 FDが 1以上で小数点以下の値を含まないときには、 識別 値 FDに応じたサンプル間隔で音声データの間引きを行うように再生処理条件を 決定する。 識別値 FDが 1以上で小数点以下の値を含む場合、 基準フレームレー ト FRrに対する設定フレームレート FRsの倍数分のフレームから、 識別値 FD の整数値部分に応じたサンプル間隔で音声データの間引きを行い、 再生速度分の 音声データを読み出すように再生処理条件を決定する。 識別値 FDが 1未満であ る場合には、 所望の再生速度に応じたフレーム数分のサンプル数となるように音 声データを繰り返し用いるよう再生処理条件を決定する。 このように決定された 再生処理条件に基づいて上述のステツプ S T 24の処理を行うことで、 正しく所 望の再生速度でコンテンツの音声を提示させることができる。
図 20 A〜図 20 Eは、 識別値 FDが 1以上で小数点以下の値を含まない場合 での音声再生動作を示している。 図 2 OAは絶対フレーム番号 AN、 図 2 OBは フレーム画像の設定フレームレート F Rsを示すフレームレート情報 DMz_FRs、 図 20 Cはフレーム画像のサブフレーム番号 BNを示すフレーム識別情報 DMz- BNをそれぞれ示している。
ここで、 再生速度 FPが (1Z5) 倍速とされたとき、 設定フレームレート F Rsは基準フレームレート FRrに対して 10倍速とされていることから、 識別値 FDは 「10 X (1/5) = 2J となる。 このため、 「FD=2」 サンプル目毎 すなわち 1サンプル置きに音声データ DAzを用いて音声信号 Sazを生成すること で、 1倍速での再生音声をコンテンツ提示装置 80から出力できる。 なお、 図 2 0Dは、 映像信号 Svzの生成に用いられるフレームを示しており、 図 20 Eは音 声データ DAzが 14サンプル/フレームであるとき、 音声信号 Sazで用いられる 音声データを示している。
図 21 A〜図 21 Eは、 識別値 F Dが 1以上で小数点以下の値を含む場合での 音声再生動作を示している。 図 21 Aは絶対フレーム番号 AN、 図 2 I Bはフレ ーム画像の設定フレームレート F Rsを示すフレームレート情報 DMz- FRs、 図 2 1 Cはフレーム画像のサブフレーム番号 B Nを示すフレーム識別情報 DMz- BNを それぞれ示している。
ここで、 再生速度 FPが (1/3) 倍速とされたとき、 設定フレームレート F RSは基準フレームレート F Rrに対して 7倍速とされていることから、 識別値 F 0は 「7 (1ノ3) =2. 3 · · ·」 となる。 また、 音声データ DAzが 14サ ンプル Zフレームであるとき、 (1ダ3) 倍速における 1フレームのサンプル数 は 「14 X 3/7 = 6」 となる。 このため、 識別値 FDの整数値部分に応じて 2 サンプル目毎すなわち 1サンプル置きに音声データ DAzを出力させるとともに、 1フレームのサンプル数分である 6サンプルの音声データ DAzの出力がなされた ときには、 次のフレームの先頭に移動して 1サンプル置きに音声データ DAzを出 力させるようにする。 このように音声データ DAzを選択して出力させることで、 (1/3) 倍速の再生音声を得ることができる。 また、 音声信号 Sazに基づいて 音声出力する場合にフィルタ処理を行うものとすれば、 音声データ DAzの間引き による影響を少なくして良好な再生音声を出力できる。 さらに、 設定フレームレ ート F Rsや再生速度 F Pに応じて、 固定的にサンプル飛ばしを行いフレーム終了 時にサンプル数を合わせるものであることから、 再生速度に応じた音声信号 S az の出力を簡単に行うことができる。 なお、 図 21 Cは、 映像信号 Svzの生成に用 いられるフレームを示しており、 図 2 IDは音声データ DAzが 14サンプル /フ レームであるとき、 音声信号 Sazで用いられる音声データを示している。
また、 音声データ DAzの間引きを行って音声信号 Sazの生成する場合、 音声デ ータ DAzの間隔が広くなって再生音が不連続となってしまうことがないように、 音声信号 Sazの生成に用いる音声データの間隔が略一定となるように間引きを行 うものとしても良い。 例えば設定フレームレート F R sが基準フレームレート F R rの KA倍とされており、 再生速度 F Pが (1 /K B ) 倍とされているとき、 連続 する K Bサンプルの音声データ D Azから略等間隔で K Bサンプル分の音声データ を取りだして、 この取り出した音声データに基づレ、て音声信号 S azを生成する。 このようにすれば、 図 2 1 A〜図 2 1 Eに示す場合に比べて処理が複雑となる力 さらに良好な音質の再生音声を出力できる。
識別値 F Dが 1未満である場合には、 図示せずも画像のフレーム繰り返し数分 だけ各音声データを繰り返して順次用いることで、 所望の再生速度の音声データ D Azを生成できる。
このように、 コンテンツ伝送側では、 フレームレート情報と基準フレーム期間 内に含まれるフレームを識別するフレーム識別情報を含む付属情報 DMzが、 画像 およびノまたは音声を示す主データに連結されたコンテンツデータ D C zの伝送が 行われる。 また、 コンテンツ再生側では、 フレームレート情報とフレーム識別情 報を含む付属情報 DMzを利用して再生速度を可変して画像おょぴ Zまたは音声の データが再生される。 このため、 放送番組のように所定の再生速度の画像等を視 聴できるだけでなく、 ユーザの望む再生速度で画像等の視聴を行うことができる。 例えば、 設定フレームレート F Rsを基準フレームレート F Rrよりも大きくして スポーツ中継等のコンテンツを生成すれば、 従来の放送番組のようにコンテンツ 提供側からスロー再生の画像が供給するまで待たなくとも、 ユーザは通常は 1倍 速で見ながら、 所望のシーンだけスローで見ることができる。
また、 コンテンツ伝送側では、 フレーム識別情報を利用して伝送路の帯域に応 じたフレームレート調整が行われるので、 フレームレート調整を容易に行うこと ができる。 また、 コンテンツ再生側では、 フレーム識別情報を利用することでフ レーム単位でのデータ間引き等を簡単に行うことができるので、 コンテンッの再 生速度を容易に可変できる。 産業上の利用可能性
以上のように、 本発明は画像コンテンツ等を伝送して再生する場合に有用であ り、 特に再生時のフレームレートを可変する場合に好適である。

Claims

請 求 の 範 囲
1 . 画像おょぴ/または音声を示す主データに、 該主データのフレームレート情 報を含む付属情報を連結することで、 伝送データを生成する伝送データ生成手段 と、
伝送路を介して前記伝送データの出力処理を行う伝送処理手段とを有する伝送 装置。
2 . 前記伝送データ生成手段は、 前記主データを一時的に蓄積する蓄積手段と、 前記蓄積手段に蓄積されている主データの読み出し処理を制御する読出処理手段 とを有し、
前記伝送処理手段は、 前記伝送路の帯域を前記伝送データ生成手段に通知し、 前記読出処理手段は、 前記通知された帯域に応じて前記主データの読み出しを 制御することで、 前記主データのフレームレートを調整する請求の範囲第 1項記 載の伝送装置。
3 . 前記読出処理手段でのフレームレートの調整に応じて、 前記付属情報に含ま れているフレームレート情報を修正する情報修正手段をさらに有する請求の範囲 第 2項記載の伝送装置。
4 . 前記付属情報は、 前記主データの推奨再生速度を示す情報を含む請求の範囲 第 1項記載の伝送装置。 '
5 . 前記付属情報は、 前記主データの再生可能な最高速度を示す情報を含む請求 の範囲第 1項記載の伝送装置。
6 . 前記伝送データ生成手段は、 前記付属情報として、 少なくとも、 前記フレー ムレート情報と、 基準フレーム期間内に含まれる各フレームのフレーム識別情報 とを、 前記主データに連結する請求の範囲第 1項記載の伝送装置。
7 . 前記伝送データ生成手段は、 前記主データを一時的に蓄積する蓄積手段と、 前記蓄積手段に蓄積されている主データの読み出し処理を制御する読出処理手段 とを有し、
前記伝送処理手段は、 前記伝送路の帯域を前記伝送データ生成手段に通知し、 前記読出処理手段は、 前記フレーム識別情報を利用して、 前記通知された帯域 に応じて前記主データの読み出しを制御することにより、 前記主データのフレー ムレートを調整する請求の範囲第 6項記載の伝送装置。
8 . 前記読出処理手段でのフレームレートの調整に応じて、 前記付属情報に含ま れているフレームレート情報とフレーム識別情報とを修正する情報修正手段をさ らに有する請求の範囲第 7項記載の伝送装置。
9 . 画像および Zまたは音声を示す主データに、 該主データのフレームレート情 報を含む付属情報を連結することで、 伝送データを生成する伝送データ生成ステ ップと、
伝送路を介して前記伝送データの出力処理を行う伝送処理ステップとを有する
1 送方 feo
1 0 . 前記伝送データ生成ステツプは、 蓄積手段に一時的に蓄積されている前記 主データの読み出し処理を制御する読出処理ステップを有し、
前記読出処理ステップでは、 前記伝送路の帯域に応じて前記主データの読み出 しが制御されることで、 前記主データのフレームレートが調整される請求の範囲 第 9項記載の伝送方法。
1 1 . 前記読出処理ステップでのフレームレートの調整に応じて、 前記付属情報 に含まれているフレームレート情報を修正する情報修正ステップをさらに有する 請求の範囲第 1 0項記載の伝送方法。
1 2 . 前記付属情報は、 前記主データの推奨再生速度を示す情報を含む請求の範 囲第 9項記載の伝送方法。
1 3 . 前記付属情報は、 前記主データの再生可能な最高速度を示す情報を含む請 求の範囲第 9項記載の伝送方法。
1 4 . 前記伝送データ生成ステップでは、 前記付属情報として、 少なくとも、 前 記フレームレート情報と、 基準フレーム期間内に含まれるフレームのフレーム識 別情報とが、 前記主データに連結される請求の範囲第 9項記載の伝送方法。
1 5 . 前記伝送データ生成ステップは、 前記主データを一時的に蓄積する蓄積手 段に蓄積されている主データの読み出し処理を制御する読出処理ステップを有し、 前記読出処理ステップでは、 前記フレーム識別情報を利用して、 前記伝送路の 帯域に応じて前記主データの読み出しが制御されることにより、 前記主データの フレームレートが調整される請求の範囲第 1 4項記載の伝送方法。
1 6 . 前記読出処理ステップでのフレームレートの調整に応じて、 前記付属情報 に含まれているフレームレート情報とフレーム識別情報とを修正する情報修正ス テツプをさらに有する請求の範囲第 1 5項記載の伝送方法。
1 7 . 画像おょぴ Zまたは音声を示す主データに、 該主データのフレームレート 情報を含む付属情報を連結することで、 伝送データを生成する伝送データ生成ス テツプと、
伝送路を介して前記伝送データの出力処理を行う伝送処理ステップとを有する 伝送方法をコンピュータに実行させるプログラム。
1 8 . 画像および Zまたは音声を示す主データに、 該主データのフレームレート 情報を含む付属情報を連結して構成された伝送データの前記フレームレート情報 に基づき、 再生される主データのフレームレートの範囲を示す再生可変範囲を設 定する設定手段と、
前記再生可変範囲内のフレームレートで、 前記主データを再生する再生手段と を備える再生装置。
1 9 . 前記再生手段は、 前記付属情報が前記主データの推奨再生速度を示す情報 を含み、 ユーザによる再生速度の指示がなされていない場合には、 前記推奨再生 速度で、 前記主データを再生する請求の範囲第 1 8項記載の再生装置。
2 0 . 前記設定手段は、 前記付属情報が前記主データの再生可能な最高速度を示 す情報を含むとき、 該最高速度を示す情報を用いて前記再生速度可変範囲を設定 する請求の範囲第 1 8項記載の再生装置。
2 1 . 前記付属情報は、 基準フレーム期間内に含まれる各フレームのフレーム識 別情報を含み、 前記再生手段は、 主データに対する間引きや繰り返しを、 前記フ レーム識別情報を利用して行うことで、 前記主データの再生速度を可変する請求 の範囲第 1 8項記載の再生装置。
2 2 . 画像および Zまたは音声を示す主データに、 該主データのフレームレート 情報を含む付属情報を連結して構成された伝送データの前記フレームレート情報 に基づき、 再生される主データのフレームレートの範囲を示す再生可変範囲を設 定する設定ステップと、
前記再生可変範囲内のフレームレー卜で、 前記主データを再生する再生ステツ プとを備える再生方法。
2 3 . 前記再生ステップでは、 前記付属情報が前記主データの推奨再生速度を示 す情報を含み、 ユーザによる再生速度の指示がなされていない場合には、 前記推 奨再生速度で、 前記主データが再生される請求の範囲第 2 2項記載の再生方法。
2 4 . 前記設定ステップでは、 前記付属情報が前記主データの再生可能な最高速 度を示す情報を含むとき、 該最高速度を示す情報を用いて前記再生速度可変範囲 が設定される請求の範囲第 2 2項記載の再生方法。
2 5 . 前記付属情報は、 基準フレーム期間内に含まれる各フレームのフレーム識 別情報を含み、 前記再生ステップでは、 主データに対する間引きや繰り返しが、 前記フレーム識別情報を利用して行われることで、 前記主データの再生速度が可 変される請求の範囲第 2 2項記載の再生方法。
2 6 . 画像おょぴ Zまたは音声を示す主データに、 該主データのフレームレート 情報を含む付属情報を連結して構成された伝送データの前記フレームレート情報 に基づき、 再生される主データのフレームレートの範囲を示す再生可変範囲を設 定する設定ステップと、
前記再生可変範囲内のフレームレートで、 前記主データを再生する再生ステツ プとを備える再生方法をコンピュータに実行させるプログラム。
2 7 . 画像および/または音声を示す主データに、 該主データのフレームレート 情報を含む付属情報が連結された状態で記録された記録媒体。
2 8 . 前記付属情報は、 基準フレーム期間内に含まれる各フレームのフレーム識 別情報を含む請求の範囲第 2 7項記載の記録媒体。
PCT/JP2003/014320 2002-11-15 2003-11-11 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体 WO2004047441A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP03811512A EP1460849A4 (en) 2002-11-15 2003-11-11 TRANSMISSION DEVICE, TRANSMISSION METHOD, REPRODUCTION DEVICE, PLAY PROCESS, PROGRAM AND RECORDING MEDIUM
KR1020047010913A KR101055494B1 (ko) 2002-11-15 2003-11-11 전송 장치 및 전송 방법, 재생 장치 및 재생 방법, 및 기록 매체
US10/501,306 US7471314B2 (en) 2002-11-15 2003-11-11 Transmission device, transmission method, reproduction device, reproduction method, program, and recording medium
US11/888,062 US8223210B2 (en) 2002-11-15 2007-07-31 Apparatus and method for transmission, apparatus and method for production, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-332652 2002-11-15
JP2002332652 2002-11-15

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10501306 A-371-Of-International 2003-11-11
US11/888,062 Division US8223210B2 (en) 2002-11-15 2007-07-31 Apparatus and method for transmission, apparatus and method for production, program, and recording medium

Publications (1)

Publication Number Publication Date
WO2004047441A1 true WO2004047441A1 (ja) 2004-06-03

Family

ID=32321667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014320 WO2004047441A1 (ja) 2002-11-15 2003-11-11 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体

Country Status (6)

Country Link
US (2) US7471314B2 (ja)
EP (1) EP1460849A4 (ja)
KR (1) KR101055494B1 (ja)
CN (1) CN100380958C (ja)
TW (1) TW200419438A (ja)
WO (1) WO2004047441A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057321A (ja) * 2003-08-01 2005-03-03 Canon Inc 信号処理装置
JP2005269373A (ja) * 2004-03-19 2005-09-29 Fuji Photo Film Co Ltd 映像信号処理システムおよび電子映像機器
WO2005098627A1 (ja) * 2004-03-31 2005-10-20 Matsushita Electric Industrial Co., Ltd. ファイル名生成装置
JP4352260B2 (ja) * 2005-01-17 2009-10-28 ソニー株式会社 撮像装置、撮影画像データの記録方法、撮影画像データ処理装置および撮影画像データ処理方法
US8055783B2 (en) * 2005-08-22 2011-11-08 Utc Fire & Security Americas Corporation, Inc. Systems and methods for media stream processing
WO2007029832A1 (ja) * 2005-09-08 2007-03-15 Sony Corporation 撮像画像記録装置、撮像画像記録方法、撮像画像再生装置、撮像画像再生方法及び撮像画像記録再生システム
CN101317450B (zh) * 2005-11-29 2010-09-15 日本先锋公司 记录装置、再现装置、记录方法
KR101100212B1 (ko) * 2006-04-21 2011-12-28 엘지전자 주식회사 방송 신호 전송 방법, 방송 신호 재생 방법, 방송 신호전송 장치 및 방송 신호 수신 장치
US8121534B2 (en) * 2006-09-27 2012-02-21 Sirius Xm Radio Inc. System and method for sending and receiving images via wireless audio channels
TWI394437B (zh) * 2006-09-28 2013-04-21 Casio Computer Co Ltd 攝影裝置、記錄電腦程式之記錄媒體及攝影控制方法
US9154842B2 (en) * 2006-11-02 2015-10-06 Verizon Patent And Licensing Inc. Method and system for customizable video playback controls
KR101024979B1 (ko) * 2008-12-30 2011-03-29 (주)하모닉스 실시간 멀티미디어 재생 장치 및 이를 이용한 멀티미디어 재생 시스템
JP5460180B2 (ja) * 2009-08-25 2014-04-02 キヤノン株式会社 撮像装置及びその制御方法
JPWO2012132624A1 (ja) 2011-03-29 2014-07-24 ルネサスエレクトロニクス株式会社 表示装置及び表示装置制御回路
JP5759253B2 (ja) * 2011-05-16 2015-08-05 キヤノン株式会社 画像再生装置およびその制御方法およびプログラム
US9350915B2 (en) * 2012-02-28 2016-05-24 Semiconductor Components Industries, Llc Power saving techniques for image sensors
JP6203515B2 (ja) * 2013-03-29 2017-09-27 株式会社メガチップス 画像処理装置
US10547857B2 (en) 2013-10-11 2020-01-28 Sony Corporation Transmission device, transmission method and reception device
JP6860807B2 (ja) * 2016-05-30 2021-04-21 株式会社サタケ 計量包装機

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251192A (ja) * 1995-03-13 1996-09-27 Toshiba Corp 動画像通信方式
JPH09233467A (ja) * 1996-02-21 1997-09-05 Fujitsu Ltd 画像データ通信装置及び画像データ通信システムにおける通信データ量調整方法
JPH10285558A (ja) * 1997-04-03 1998-10-23 Sony Corp 記録再生装置および映像情報の変速再生方法
JPH1141575A (ja) * 1997-07-17 1999-02-12 Matsushita Electric Ind Co Ltd 画像音声通信装置および画像音声通信システム
JP2001128171A (ja) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd 映像音声同期再生装置
JP2001211450A (ja) * 2000-01-27 2001-08-03 Mega Chips Corp 撮像システム
JP2001292381A (ja) * 2000-04-04 2001-10-19 Canon Inc 受信装置、受信システム、受信方法、及び記憶媒体
JP2002010204A (ja) * 2000-06-26 2002-01-11 Mitsubishi Electric Corp デコーダおよび再生装置
JP2002077797A (ja) * 2000-08-29 2002-03-15 Brother Ind Ltd 映像編集装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2663677B2 (ja) 1990-04-17 1997-10-15 松下電器産業株式会社 加速度測定装置
EP0691066B1 (en) * 1993-03-26 1999-02-10 BRITISH TELECOMMUNICATIONS public limited company A transcoder
US5742892A (en) * 1995-04-18 1998-04-21 Sun Microsystems, Inc. Decoder for a software-implemented end-to-end scalable video delivery system
US5659539A (en) 1995-07-14 1997-08-19 Oracle Corporation Method and apparatus for frame accurate access of digital audio-visual information
JP3072971B2 (ja) 1996-07-17 2000-08-07 松下電器産業株式会社 ビデオ・オン・デマンドシステムとそれを構成するビデオサーバ装置及び端末装置
JP3129411B2 (ja) * 1998-05-28 2001-01-29 日本電気株式会社 動画像圧縮装置と動画像圧縮方法
JP2001025013A (ja) 1999-07-12 2001-01-26 Matsushita Electric Ind Co Ltd 送受信方法及びその装置
JP3344379B2 (ja) * 1999-07-22 2002-11-11 日本電気株式会社 オーディオ・ビデオ同期制御装置及びその同期制御方法
KR100601615B1 (ko) * 1999-08-20 2006-07-14 삼성전자주식회사 네트워크 대역폭에 적응적인 영상 압축 장치
JP2001256097A (ja) * 2000-03-14 2001-09-21 Matsushita Electric Ind Co Ltd ファイルの自動送信システム
GB0007698D0 (en) * 2000-03-31 2000-05-17 Discreet Logic Inc Editing video data
JP2002320203A (ja) 2001-04-19 2002-10-31 Matsushita Electric Ind Co Ltd 映像信号記録装置および映像信号再生装置
JP2002251870A (ja) 2001-02-23 2002-09-06 Alpine Electronics Inc 光ディスク再生装置及び光ディスク再生方法
US7242850B2 (en) * 2001-02-23 2007-07-10 Eastman Kodak Company Frame-interpolated variable-rate motion imaging system
JP3852024B2 (ja) * 2001-02-28 2006-11-29 株式会社日立製作所 画像表示システム
JP2002320212A (ja) 2001-04-24 2002-10-31 Fujitsu Ltd 動画連動プログラム
JP4518778B2 (ja) 2002-11-15 2010-08-04 ソニー株式会社 再生装置と再生方法とプログラムおよび記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251192A (ja) * 1995-03-13 1996-09-27 Toshiba Corp 動画像通信方式
JPH09233467A (ja) * 1996-02-21 1997-09-05 Fujitsu Ltd 画像データ通信装置及び画像データ通信システムにおける通信データ量調整方法
JPH10285558A (ja) * 1997-04-03 1998-10-23 Sony Corp 記録再生装置および映像情報の変速再生方法
JPH1141575A (ja) * 1997-07-17 1999-02-12 Matsushita Electric Ind Co Ltd 画像音声通信装置および画像音声通信システム
JP2001128171A (ja) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd 映像音声同期再生装置
JP2001211450A (ja) * 2000-01-27 2001-08-03 Mega Chips Corp 撮像システム
JP2001292381A (ja) * 2000-04-04 2001-10-19 Canon Inc 受信装置、受信システム、受信方法、及び記憶媒体
JP2002010204A (ja) * 2000-06-26 2002-01-11 Mitsubishi Electric Corp デコーダおよび再生装置
JP2002077797A (ja) * 2000-08-29 2002-03-15 Brother Ind Ltd 映像編集装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1460849A4 *

Also Published As

Publication number Publication date
EP1460849A1 (en) 2004-09-22
TWI307857B (ja) 2009-03-21
US20080131071A1 (en) 2008-06-05
CN1685723A (zh) 2005-10-19
US8223210B2 (en) 2012-07-17
US20050243190A1 (en) 2005-11-03
KR20050084757A (ko) 2005-08-29
US7471314B2 (en) 2008-12-30
TW200419438A (en) 2004-10-01
CN100380958C (zh) 2008-04-09
EP1460849A4 (en) 2007-05-16
KR101055494B1 (ko) 2011-08-08

Similar Documents

Publication Publication Date Title
US8223210B2 (en) Apparatus and method for transmission, apparatus and method for production, program, and recording medium
JP3053541B2 (ja) デジタル記録音声及びビデオの同期式可変速度再生
JP4515465B2 (ja) 動画撮影装置および動画撮影方法、記録媒体に記録された映像信号を再生する動画再生装置および動画再生方法
JP2004180290A (ja) 伝送装置と伝送方法と再生装置と再生方法およびプログラムと記録媒体
US10244271B2 (en) Audio recording device, audio recording system, and audio recording method
JP3594409B2 (ja) Mpegオーディオ再生装置およびmpeg再生装置
WO2010086912A1 (ja) 記録装置及び記録方法
KR101014108B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 프로그램 기록 매체 및 데이터 기록 매체
JP4001814B2 (ja) 音声/映像データ記録再生装置及び方法、ならびに音声/映像データ再生装置及び方法
JP4091293B2 (ja) 記録再生方法及び記録再生装置
JP3226711B2 (ja) 圧縮情報再生装置および圧縮情報再生方法
JP2004280994A (ja) データ作成方法及びデータ記録装置
JP3925487B2 (ja) 撮像装置と撮像方法
JP3491533B2 (ja) ディジタルオーディオデータの再生方法及び装置
JP4518778B2 (ja) 再生装置と再生方法とプログラムおよび記録媒体
JP4626629B2 (ja) データ処理装置及びデータ処理方法およびプログラムと記録媒体
JP3566216B2 (ja) デジタル音声映像情報の記録装置
JPH08263086A (ja) オーディオデータ再生装置およびオーディオデータ伝送システム並びにこれらに用いられるコンパクトディスク
JP2007158431A (ja) 映像記録装置及び映像記録再生装置
JP4518737B2 (ja) データ処理装置とデータ処理方法およびプログラムと記録媒体
JP4520483B2 (ja) 記録再生方法及び記録再生装置
JPH06133220A (ja) 番組制作装置、情報伝送方式及び再生装置
JP4582112B2 (ja) データ処理装置とデータ処理方法とプログラムおよび記録媒体
JP2004362747A (ja) 信号処理装置
JPH0898134A (ja) データ記録再生装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

WWE Wipo information: entry into national phase

Ref document number: 2003811512

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10501306

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047010913

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038A01158

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003811512

Country of ref document: EP