WO2014136291A1 - 動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム - Google Patents

動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム Download PDF

Info

Publication number
WO2014136291A1
WO2014136291A1 PCT/JP2013/072384 JP2013072384W WO2014136291A1 WO 2014136291 A1 WO2014136291 A1 WO 2014136291A1 JP 2013072384 W JP2013072384 W JP 2013072384W WO 2014136291 A1 WO2014136291 A1 WO 2014136291A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
image data
information
cut
frame
Prior art date
Application number
PCT/JP2013/072384
Other languages
English (en)
French (fr)
Inventor
正宏 香月
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2015504112A priority Critical patent/JP5954489B2/ja
Publication of WO2014136291A1 publication Critical patent/WO2014136291A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Definitions

  • the present invention relates to a moving image data editing device, a moving image data editing method, a playback device, a playback method, and a program.
  • Patent Documents 1 and 2 disclose a technique for editing moving image data compressed by the Long GOP (group of pictures) method.
  • moving image data is compressed in GOP units.
  • Each GOP may include an I frame, a B frame, and a P frame.
  • moving image data compressed by the method is referred to as compressed moving image data.
  • editing moving image data means removing a part of moving image data (the same applies hereinafter).
  • the image encoding device described in Patent Document 1 decodes the compressed moving image data, and then stores predetermined data specified by the editing points. After the removed edited data is generated, the edited data is compressed again. In the process of recompressing the edited data, an inserted image composed of a predetermined image is inserted before and / or after the editing point in the edited data, and all the frames included in the edited data are edited. Recompression is performed so as to be the same as the frame type (I frame, B frame, P frame) in the previous data.
  • the frame type I frame, B frame, P frame
  • the moving image editing apparatus described in Patent Document 2 generates edited data from which predetermined data is removed after decoding the compressed moving image data, and compresses the edited data again.
  • the editing process when the middle point of the GOP is an editing point and the moving image data before the frame (B frame or P frame) located at the point is removed (edited), the edited data is recompressed.
  • the frame in the GOP remaining after editing is recompressed as an I frame.
  • the present invention relates to an inter-frame compression technique or an inter-frame prediction technique, particularly a technique for editing compressed moving picture data compressed by the Long GOP method, and between the compressed moving picture data after editing and the compressed moving picture data before editing. Therefore, an object of the present invention is to provide an editing technique that ensures the identity of the data of the corresponding frame.
  • Data acquisition means for acquiring video data to be edited compressed using difference information between frames;
  • An input receiving means for receiving an input for designating a desired clipping start position and / or a desired clipping end position of the editing target moving image data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is Cutting position determining means for performing processing for determining an I frame positioned after the desired cutting end position as a cutting end position when it is not an I frame;
  • Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image Removal means for generating data;
  • First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position
  • Generating desired cut position specifying information to be generated and associated with the edited video data Is provided.
  • Edited video data acquisition means for acquiring the edited video data generated by the video data editing device; First information acquisition means for acquiring the first information; Replay means for performing replay from the desired extraction start position using the first information and the edited moving image data; Is provided.
  • Computer Data acquisition means for acquiring video data to be edited compressed using difference information between frames;
  • An input receiving means for receiving an input for designating a desired extraction start position and / or a desired extraction end position of the editing target moving image data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is Cutout position determining means for performing a process of determining an I frame positioned after the desired cutout end position as a cutout end position when it is not an I frame, Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image Removal means for generating data, First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position Generating and specifying desired cutout position specifying information associated with the edited video data;
  • Computer A data acquisition process for acquiring video data to be edited that is compressed using difference information between frames An input receiving step of receiving an input for designating a desired extraction start position and / or a desired extraction end position of the editing target video data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is A cutout position determining step for performing a process of determining an I frame located after the desired cutout end position as a cutout end position when it is not an I frame;
  • Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image A removal step to generate data;
  • First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position Generating desired cut position specifying information to be associated with the edited video data; and
  • a moving image data which is information for specifying the desired cut start position
  • Computer Edited video data acquisition means for acquiring the edited video data generated by the video data editing device; First information acquisition means for acquiring the first information; Replay means for performing replay from the desired extraction start position using the first information and the edited video data; A program for functioning as a server is provided.
  • inter-frame compression technology or inter-frame prediction technology in particular, a technology for editing compressed moving image data compressed by the Long GOP method, the compressed moving image data after editing, the compressed moving image data before editing, In this manner, an editing technique that ensures the identity of the corresponding frame data is realized.
  • the apparatus of this embodiment includes a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded in the memory (a program stored in the memory from the stage of shipping the apparatus in advance, a CD (Compact Disc) and other storage media and programs downloaded from servers on the Internet), storage units such as hard disks for storing the programs, and any combination of hardware and software, centering on the network connection interface Is done.
  • a CPU Central Processing Unit
  • memory a program loaded in the memory
  • a CD Compact Disc
  • other storage media and programs downloaded from servers on the Internet storage units
  • storage units such as hard disks for storing the programs, and any combination of hardware and software, centering on the network connection interface Is done.
  • each device is described as being realized by one device, but the means for realizing it is not limited to this. That is, it may be a physically separated configuration or a logically separated configuration.
  • FIG. 1 schematically shows a plurality of frames included in editing target moving image data.
  • the plurality of frames are arranged in a line along the time axis in the order in which they are output during reproduction.
  • “reproduction” means normal reproduction in which images are output in the order normally assumed, and is not reproduction such as so-called reverse reproduction (the same applies hereinafter).
  • each frame indicates the type of an I frame (Intra-coded Frame), a B frame (Bi-directional Predicted Frame), and a P frame (Predicted Frame).
  • An I frame is a frame that is encoded without using inter-frame prediction.
  • a B frame is a frame that is encoded using any one of forward prediction, backward prediction, and bidirectional prediction (interframe prediction).
  • a P frame is a frame that is encoded using forward prediction (interframe prediction).
  • the moving image data editing apparatus accepts an input from the user for designating a desired extraction start position.
  • an input for designating a desired extraction start position may be accepted according to the elapsed time from the beginning of the editing target video data, or a predetermined frame included in the editing target video data is specified as a desired extraction start position You may accept input to do.
  • the third frame (B frame) from the left end in the drawing is designated as the desired cutout start position.
  • the moving image data editing apparatus When the moving image data editing apparatus receives an input for designating a desired extraction start position, it determines whether or not the frame corresponding to the position is an I frame. When the frame is not an I frame (B frame in the case of FIG. 1), the moving image data editing apparatus determines an I frame located before the frame as the extraction start position. Note that the frame positioned before the first frame means a frame that is output before the first frame when moving image data is reproduced (the same applies hereinafter). In the case of FIG. 1, the I frame located two frames before the B frame (third frame from the left end in the figure) designated as the desired cut start position is determined as the cut start position.
  • the moving image data editing apparatus for example, after decoding the editing target moving image data, removes moving image data (frames) positioned temporally before the extraction start position (does not remove the I frame at the extraction start position). .
  • the moving image data editing apparatus compresses the moving image data in the same manner as the editing target moving image data, and generates edited moving image data.
  • the moving image data editing device generates first information (eg, the number of difference frames between the extraction start position and the desired extraction start position) that is information for specifying the desired extraction start position from the extraction start position. And associate with the edited video data.
  • first information eg, the number of difference frames between the extraction start position and the desired extraction start position
  • the first frame of the edited moving image data is an I frame.
  • the composition of each frame (I frame, B frame, P frame) is compressed to be the same as the composition before editing.
  • moving image data that was not included before editing is not newly included after editing.
  • the edited moving image data can be directly cut out from the editing target moving image data file without being decompressed or compressed. For this reason, the identity of the data of a corresponding frame is ensured between the compressed moving image data after editing and the compressed moving image data before editing.
  • the desired extraction start position designated by the user it is possible to specify the desired extraction start position designated by the user using the first information. For this reason, for example, reproduction from a desired cutting start position can be realized.
  • FIG. 2 shows an example of a functional block diagram of the moving image data editing apparatus 10.
  • the moving image data editing apparatus 10 includes a data acquisition unit 11, an input reception unit 12, a cutout position determination unit 13, a removal unit 14, and a desired cutout position specifying information generation unit 15. .
  • a data acquisition unit 11 an input reception unit 12
  • a cutout position determination unit 13 a removal unit 14
  • a desired cutout position specifying information generation unit 15. a desired cutout position specifying information generation unit 15.
  • the data acquisition unit 11 acquires edit target moving image data (compressed moving image data) compressed by the Long GOP method input by the user.
  • the data acquisition unit 11 may acquire a moving image file including editing target moving image data.
  • the moving image file may include a frame rate, information related to compression (the number of frames included in one GOP, and the like).
  • the input receiving unit 12 receives an input for designating a desired cutout start position of the editing target moving image data.
  • the input receiving unit 12 may receive an input for designating a desired clipping start position based on an elapsed time from the beginning of the editing target moving image data, or a predetermined frame included in the editing target moving image data. You may receive the input designated as a desired cutting start position.
  • the input receiving unit 12 may receive an input of a numerical value (elapsed time from the beginning), for example.
  • the input receiving unit 12 decodes, for example, editing target moving image data and outputs an image on the display. Then, a determination input that is received in a state where an image of a predetermined frame is displayed on the display may be received as an input that uses the frame as a desired extraction start position.
  • the cut position determination unit 13 determines an I frame located before the desired cut start position as the cut start position.
  • the cut-out position determination unit 13 first specifies a frame corresponding to the desired cut-out start position based on the input content received by the input reception unit 12, and then specifies the specified frame. It is determined whether the frame is an I frame.
  • Means for realizing the processing is not particularly limited, and any conventional technique can be adopted. An example will be described below.
  • the cutout position determining unit 13 sets the frame rate to a predetermined frame rate. Based on this, it is possible to identify the frame corresponding to the desired cutout start position.
  • the cutout position determining unit 13 recognizes the frame so that the desired cutout start position is recognized. Can be identified.
  • means for determining the frame type will be described.
  • a means for determining the frame type of each frame using a table describing the frame type of each frame described in Japanese Patent Application Laid-Open No. 2010-28435 may be used.
  • the frame type discriminating means using the information amount difference between the I frame, the B frame, and the P frame described in Japanese Patent Application Laid-Open No. 2007-82156 and Japanese Patent Application Laid-Open No. 2009-273010 may be used. Good.
  • the cut position determination unit 13 is positioned before the desired cut start position.
  • the I frame to be determined is determined as the extraction start position.
  • any I frame may be set as the extraction start position.
  • the I frame whose temporal distance is closest to the desired extraction start position (the I frame having the smallest number of difference frames from the frame corresponding to the desired extraction start position) is used as the extraction start position. It may be determined. In this way, the information amount of the edited moving image data can be reduced.
  • the means for specifying such an I frame is not particularly limited, and any conventional technique can be adopted.
  • the I frame may be specified by determining the type of each frame while tracing back the time axis (time axis in the case of reproduction) from the frame corresponding to the desired extraction start position.
  • the I frame may be specified using a table described in Japanese Patent Application Laid-Open No. 2010-28435.
  • the removal unit 14 removes the moving image data positioned before the cut start position from the editing target moving image data, and generates edited moving image data. That is, the removal unit 14 removes the data of the frame located temporally before the I frame corresponding to the cutout start position from the editing target moving image data, and generates the edited moving image data. Note that the removing unit 14 does not remove the I frame corresponding to the extraction start position. For example, the removing unit 14 decodes the editing target moving image data and removes predetermined moving image data in this state. In such a case, the removal unit 14 compresses the moving image data after removing the predetermined moving image data by the same method as the editing target moving image data, and obtains the edited moving image data.
  • the removal unit 14 removes the data of the frame located before the I frame corresponding to the extraction start position from the editing target moving image data without decoding the editing target moving image data, and after editing Video data may be generated. That is, the edited moving image data may be moving image data directly cut out from the editing target moving image data file without being decompressed or compressed. In any case, the edited moving image data is compressed moving image data.
  • the desired cut position specifying information generating unit 15 generates first information that is information for specifying the desired cut start position from the cut start position, and associates it with the edited moving image data.
  • the first information is not particularly limited as long as the desired cut start position can be specified from the cut start position.
  • the first information may be the number of difference frames between the I frame corresponding to the extraction start position and the frame corresponding to the desired extraction start position, or these frames when the moving image is reproduced. It may be a time difference between.
  • the means for generating such first information is not particularly limited.
  • the first information is obtained by counting the number of frames that go back from the frame corresponding to the desired cutting start position to the I frame that is the cutting start position. May be generated, or the first information may be generated using a table described in Japanese Patent Laid-Open No. 2010-28435.
  • the desired cut position specifying information generation unit 15 may store the generated first information in, for example, a moving image file including edited moving image data.
  • the data acquisition unit 11 acquires editing target moving image data compressed by the Long GOP method input by the user (S10).
  • the input receiving unit 12 receives a user input for designating a desired clipping start position of the editing target moving image data (S11).
  • the cutout position determination unit 13 specifies a frame corresponding to the desired cutout start position based on the input content received by the input reception unit 12 in S11, and then whether or not the specified frame is an I frame. Determine. Then, when the desired cut start position is not an I frame, the cut position determination unit 13 determines an I frame located before the desired cut start position as the cut start position (S12).
  • the desired cut position specifying information generating unit 15 generates first information that is information for specifying the desired cut start position from the cut start position (S14), and after editing the generated first information Corresponding to the video data (S15).
  • the edited moving image data generated in S13 is stored in a predetermined storage device or output to an external device.
  • the moving image data editing apparatus of this embodiment removes moving image data (frames) in GOP units.
  • the first frame of edited moving image data after editing is always an I frame.
  • each frame Are compressed so that their types (I frame, B frame, P frame) are the same as those before editing. For this reason, the identity of the corresponding frame data is ensured between the edited moving image data (compressed moving image data) and the editing target moving image data (compressed moving image data).
  • moving image data frames
  • editing target moving image data compressed moving image data
  • the edited first moving image data is associated with the first information that is information for specifying the desired cut start position from the cut start position. For this reason, using the first information, it is possible to specify the desired clipping start position designated by the user. As a result, for example, reproduction from a desired cutting start position can be realized.
  • the moving image data editing apparatus is different from the first embodiment in that the processing when the desired extraction start position is an I frame is specified.
  • the processing when the desired extraction start position is an I frame is specified.
  • the cut position determination unit 13 determines the I frame as the cut start position.
  • the desired cut position specifying information generating unit 15 generates information indicating that the cut start position is the desired cut start position as the first information. For example, the desired cut position specifying information generating unit 15 determines that the number of difference frames between the I frame corresponding to the cut start position and the frame corresponding to the desired cut start position is “0 (zero)”. Information to be shown may be generated. Alternatively, the desired cutout position specifying information generation unit 15 may generate information indicating that the time difference between these frames when a moving image is reproduced is “0 (zero)”.
  • FIG. 4 schematically shows a plurality of frames included in the editing target moving image data.
  • the plurality of frames are arranged in a line along the time axis in the order in which they are output during reproduction.
  • each frame indicates the type of I frame, B frame, and P frame.
  • the video data editing apparatus accepts an input from the user that specifies the desired cutout end position. For example, an input for designating a desired cutout end position may be accepted based on the elapsed time from the beginning of the editing target moving image data. Alternatively, the moving image data editing apparatus may accept an input designating a predetermined frame included in the editing target moving image data as a desired cutout end position. In the case of FIG. 4, the third frame (B frame) from the right end in the figure is designated as the desired cut-out end position.
  • the moving image data editing apparatus When the moving image data editing apparatus receives an input designating a desired cutout end position, it determines whether or not the frame corresponding to the position is an I frame. When the frame is not an I frame (B frame in the case of FIG. 4), the moving image data editing apparatus determines an I frame positioned later in time as the cut-out end position. Note that the frame positioned after the first frame means a frame output after the first frame when moving image data is reproduced (the same applies hereinafter). In the case of FIG. 4, the I frame located two frames after the B frame (third frame from the right end in the figure) designated as the desired cutout end position is determined as the cutout end position.
  • the moving image data editing apparatus for example, after decoding the editing target moving image data, removes the moving image data (frame) positioned after the cut end position (does not remove the I frame at the cut end position).
  • the moving image data editing apparatus compresses the moving image data in the same manner as the editing target moving image data, and generates edited moving image data.
  • the moving image data editing device generates second information (eg, the number of difference frames between the cutout end position and the desired cutout end position) that is information for specifying the desired cutout end position from the cutout end position. And associate with the edited video data.
  • second information eg, the number of difference frames between the cutout end position and the desired cutout end position
  • the last frame of the edited video data is an I frame.
  • each frame type (I frame, B frame, P frame) is compressed so as to be the same as the type before editing. The For this reason, the identity of the data of a corresponding frame is ensured between the compressed moving image data after editing and the compressed moving image data before editing.
  • the desired extraction end position specified by the user can be specified using the second information. Therefore, for example, reproduction up to the desired cutout end position can be realized.
  • FIG. 2 An example of a functional block diagram of the moving image data editing apparatus 10 of the present embodiment is shown in FIG. 2 as in the first embodiment.
  • the moving image data editing apparatus 10 includes a data acquisition unit 11, an input reception unit 12, a cutout position determination unit 13, a removal unit 14, and a desired cutout position specifying information generation unit 15. .
  • the data acquisition unit 11 is the same as that of the first embodiment, the description thereof is omitted here.
  • the input receiving unit 12 receives an input for designating a desired clipping end position of the editing target moving image data.
  • the input receiving unit 12 may receive an input for designating a desired clipping end position based on an elapsed time from the beginning of the editing target moving image data, or a predetermined frame included in the editing target moving image data. You may receive the input designated as a desired cutting end position.
  • the input receiving unit 12 may receive an input of a numerical value (elapsed time from the beginning), for example.
  • the input receiving unit 12 decodes, for example, editing target moving image data and outputs an image on the display. Then, a determination input that is received in a state where an image of a predetermined frame is displayed on the display may be received as an input having the frame as a desired cut-out end position.
  • the cutout position determination unit 13 determines an I frame located after the desired cutout end position as the cutout end position.
  • the cut-out position determination unit 13 first specifies a frame corresponding to the desired cut-out end position based on the input content received by the input reception unit 12, and then specifies the specified frame. It is determined whether the frame is an I frame. Since the means for realizing these processes is as described in the first embodiment, the description thereof is omitted here.
  • the cutout position determination unit 13 is positioned later in time than the desired cutout end position.
  • the I frame is determined as the cutting end position.
  • any I frame may be set as the extraction end position.
  • the I frame whose temporal distance is closest to the desired extraction end position (the I frame having the smallest number of difference frames from the frame corresponding to the desired extraction end position) is set as the extraction end position. It may be determined. In this way, the information amount of the edited moving image data can be reduced.
  • the means for specifying such an I frame is not particularly limited, and any conventional technique can be adopted.
  • the I frame may be specified by determining the type of each frame along the time axis (the time axis in the case of reproduction) in order from the frame corresponding to the desired cutout end position.
  • the I frame may be specified using a table described in Japanese Patent Application Laid-Open No. 2010-28435.
  • the removal unit 14 removes the moving image data located after the cut end position from the editing target moving image data, and generates edited moving image data. That is, the removal unit 14 removes the data of the frame located after the I frame corresponding to the cutout end position from the editing target moving image data, and generates the edited moving image data. Note that the removal unit 14 does not remove the I frame corresponding to the cutout end position.
  • the removing unit 14 decodes the editing target moving image data and removes predetermined moving image data in this state. In such a case, the removal unit 14 compresses the moving image data after removing the predetermined moving image data by the same method as the editing target moving image data, and obtains the edited moving image data. That is, the edited moving image data is compressed moving image data.
  • the desired cut position specifying information generating unit 15 generates second information that is information for specifying the desired cut end position from the cut end position, and associates it with the edited moving image data.
  • the second information is not particularly limited as long as the desired cutting end position can be specified from the cutting end position.
  • the second information may be the number of difference frames between the I frame corresponding to the cutout end position and the frame corresponding to the desired cutout end position, or these frames when the moving image is reproduced. It may be a time difference between.
  • the means for generating such second information is not particularly limited. For example, when the cut position determining unit 13 determines the cut end position, the number of frames that have passed from the frame corresponding to the desired cut end position to the I frame that is the cut end position is counted. Second information may be generated. Alternatively, the second information may be generated using a table described in Japanese Patent Application Laid-Open No. 2010-28435.
  • the desired cut position specifying information generation unit 15 may store the generated second information in, for example, a moving image file including edited moving image data.
  • the data acquisition unit 11 acquires editing target moving image data compressed by the Long GOP method input by the user (S20).
  • the input receiving unit 12 receives a user input designating a desired cutout end position of the editing target moving image data (S21).
  • the cutting position determination unit 13 specifies a frame corresponding to the desired cutting end position based on the input content received by the input receiving unit 12 in S21, and then whether or not the specified frame is an I frame. Determine. Then, when the desired cutout end position is not an I frame, the cutout position determination unit 13 determines an I frame located after the desired cutout end position as the cutout end position (S22).
  • the removal unit 14 generates edited moving image data (compressed moving image data) in which the moving image data positioned after the cut end position determined in S22 is removed from the editing target moving image data acquired in S20. (S23).
  • the desired cut position specifying information generating unit 15 generates second information that is information for specifying the desired cut end position from the cut end position (S24), and editing the generated second information Corresponding to moving image data (S25).
  • the edited moving image data generated in S23 is stored in a predetermined storage device or output to an external device.
  • the moving image data editing apparatus of this embodiment removes moving image data (frames) in GOP units. For this reason, the final frame of the edited moving image data after editing is always an I frame.
  • the type of each frame I frame, B frame, P frame
  • the identity of the corresponding frame data is ensured between the edited moving image data (compressed moving image data) and the editing target moving image data (compressed moving image data).
  • the edited second moving image data is associated with the second information that is information for specifying the desired cutout end position from the cutout end position. For this reason, the desired cutting end position specified by the user can be specified using the second information. As a result, for example, reproduction up to the desired cutting end position can be realized.
  • the moving image data editing apparatus is different from the third embodiment in that the processing when the desired cutout end position is an I frame is specified.
  • the processing when the desired cutout end position is an I frame is specified.
  • the cutout position determination unit 13 determines the I frame as the cutout end position.
  • the desired cut position specifying information generating unit 15 generates information indicating that the cut end position is the desired cut end position as the second information. For example, the desired cut position specifying information generating unit 15 determines that the number of difference frames between the I frame corresponding to the cut end position and the frame corresponding to the desired cut end position is “0 (zero)”. Information indicating that the time difference between the frames when the moving image is reproduced is “0 (zero)” may be generated.
  • FIG. 6 schematically shows a plurality of frames included in the editing target moving image data.
  • the plurality of frames are arranged in a line along the time axis in the order in which they are output during reproduction.
  • each frame indicates the type of I frame, B frame, and P frame.
  • the moving image data editing apparatus accepts an input from the user for designating a desired extraction start position and a desired extraction start position.
  • the moving image data editing apparatus may accept an input for designating each of a desired cutout start position and a desired cutout end position according to the elapsed time from the beginning of the editing target moving image data.
  • the moving image data editing apparatus may accept an input for designating a predetermined frame included in the editing target moving image data for each desired clipping start position and each desired clipping end position.
  • the third frame (B frame) from the left end in the figure is designated as the desired cutout start position
  • the third frame (B frame) from the right end in the figure is designated as the desired cutout end position.
  • the moving image data editing apparatus When the moving image data editing apparatus receives an input designating a desired cutout start position and a desired cutout end position, it determines whether or not the frame corresponding to the position is an I frame. When the frame is not an I frame (in the case of FIG. 6, all are B frames), the moving image data editing apparatus extracts the I frame in the same manner as the processing described in the first to fourth embodiments. It is determined as the cutting end position. In the case of FIG. 6, the I frame located two frames before the B frame (third frame from the left end in the figure) designated as the desired cut start position is determined as the cut start position. In addition, an I frame that is located after the B frame (third frame from the left end in the figure) designated as the desired cutout end position is determined as the cutout end position.
  • the moving image data editing device is positioned after the decoding end position, for example, after the decoding of the editing target moving image data, the moving image data (frame) positioned before the extraction start position and the extraction end position.
  • the moving image data (frame) is removed (the I frame at the cut start position and the I frame at the cut end position are not removed).
  • the moving image data editing apparatus compresses the moving image data in the same manner as the editing target moving image data, and generates edited moving image data.
  • the moving image data editing device includes first information that is information for specifying a desired cut start position from the cut start position (eg, the number of difference frames between the cut start position and the desired cut start position), and Second information (eg, the number of difference frames between the cutout end position and the desired cutout end position) that is information for specifying the desired cutout end position from the cutout end position is generated, and the edited video data Associate.
  • first information that is information for specifying a desired cut start position from the cut start position
  • Second information eg, the number of difference frames between the cutout end position and the desired cutout end position
  • the configuration of the moving image data editing apparatus of the present embodiment can be realized by arbitrarily combining the configurations described in the first to fourth embodiments. Therefore, the description here is omitted.
  • the data acquisition unit 11 acquires editing target moving image data compressed by the Long GOP method input by the user (S30).
  • the input receiving unit 12 receives a user input designating each of the desired extraction start position and the desired extraction end position of the editing target moving image data (S31, S32).
  • the cutout position determination unit 13 identifies the frame corresponding to the desired cutout start position and the frame corresponding to the desired cutout end position based on the input contents received by the input receiving unit 12 in S31 and S32. Then, it is determined whether or not the identified frame is an I frame.
  • the extraction position determination unit 13 determines an I frame located before the desired extraction start position as the extraction start position (S33). On the other hand, when the desired cut start position is the I frame, the cut position determination unit 13 determines the desired cut start position as the cut start position.
  • the cutout position determination unit 13 determines an I frame located after the desired cutout end position as the cutout end position (S34). On the other hand, when the desired cutout end position is an I frame, the cutout position determination unit 13 determines the desired cutout end position as the cutout end position.
  • the removal unit 14 acquires the moving image data positioned before the cutting start position and moving image data positioned after the cutting end position.
  • the removed edited moving image data (compressed moving image data) is generated (S35).
  • the desired cut position specifying information generating unit 15 specifies first information that is information for specifying the desired cut start position from the cut start position, and the desired cut end position from the cut end position. Second information, which is information, is generated (S36, S37). The desired cut position specifying information generating unit 15 associates the generated first information and second information with the edited moving image data (S38).
  • the edited moving image data generated in S13 is stored in a predetermined storage device or output to an external device.
  • the moving image data editing apparatus is different from the first, second, and fifth embodiments in input for designating a desired extraction start position and means for specifying a frame corresponding to the desired extraction start position.
  • Other configurations are the same as those of the first, second, and fifth embodiments. The differences will be described below.
  • the editing target image data acquired by the moving image data editing apparatus of the present embodiment is moving image data in which attached information and the main content are displayed in this order (see FIG. 8). Then, the moving image data editing apparatus acquires a moving image file including the moving image data.
  • the moving image file includes main part start position information (e.g., elapsed time from the beginning) for specifying the start position of the main part of the content.
  • the input receiving unit 12 of the present embodiment uses first position information (eg, from the start position of the main part) as relative position information based on the start position of the main part of content as an input for designating a desired cut start position.
  • first position information eg, from the start position of the main part
  • relative position information based on the start position of the main part of content
  • the input of the time axis (the time axis when playing back) the number of frames going back in the reverse direction, or time, etc.) is accepted.
  • the extraction position determination unit 13 specifies a frame corresponding to the desired extraction start position based on the input content received by the input reception unit 12. For example, the cut position determination unit 13 specifies a frame corresponding to the start position of the main part using the main part start position information, and then uses the first position information to determine the time axis (when reproduced). The time axis) is specified as a frame corresponding to the desired extraction start position. In addition, a frame corresponding to a desired extraction start position may be specified using a table described in JP2010-28435A.
  • the processing by the computer can be made more efficient, and effects such as a reduction in the number of user operations can be realized.
  • the moving image data editing apparatus is different from the third, fourth, and fifth embodiments in input for designating a desired cutout end position and means for specifying a frame corresponding to the desired cutout end position.
  • Other configurations are the same as those of the third, fourth, and fifth embodiments. The differences will be described below.
  • the editing target image data acquired by the moving image data editing apparatus of the present embodiment is moving image data in which the first attached information, the main content, and the second attached information are displayed in this order (see FIG. 9). Then, the moving image data editing apparatus acquires a moving image file including the moving image data.
  • the moving image file includes main part start position information (eg, elapsed time from the beginning) that identifies the start position of the main part of content, and main part end position information (eg, elapsed time from the beginning) that specifies the end position of the main part of content. Etc.).
  • the input receiving unit 12 of the present embodiment receives second position information (for example, from the end position of the main part) that is relative position information based on the end position of the main part of content as an input for designating the desired cutout end position.
  • the input of the number of frames going in the direction of the time axis (time axis in the case of playback) or time is accepted.
  • the cut position determination unit 13 specifies a frame corresponding to the desired cut end position based on the input content received by the input receiving unit 12. For example, the cut-out position determination unit 13 uses the main part end position information to identify a frame corresponding to the main part end position, and then uses the second position information to calculate the time axis (when reproduced). The frame at a position advanced by a predetermined amount in the direction of (time axis) is specified as the frame corresponding to the desired cutout end position.
  • the frame corresponding to the desired cutout end position may be specified using the table described in Japanese Patent Application Laid-Open No. 2010-28435.
  • the second position information may be stored in advance in the moving image data editing apparatus. In this way, editing of moving image data to be edited can be executed without waiting for an input for designating a desired cutting end position by the user. For this reason, the processing by the computer can be made more efficient, and effects such as a reduction in the number of user operations can be realized.
  • the input receiving unit 12 receives the input of the first position information by the same means as in the seventh embodiment, and the cut-out position determining unit 13 uses the first position information to make a request.
  • a frame corresponding to the cutout start position may be specified.
  • the playback device of the present embodiment has a function of playing back edited video data edited by the video data editing device as described above. Specifically, the first information associated with the edited moving image data is used to perform reproduction from the frame corresponding to the desired cutout start position.
  • FIG. 10 shows an example of a functional block diagram of the playback device 20 of the present embodiment.
  • the playback device 20 includes an edited moving image data acquisition unit 21, a first information acquisition unit 22, and a playback unit 23.
  • the edited moving image data acquisition unit 21 acquires the edited moving image data generated by the moving image data editing apparatus described above.
  • the edited moving image data acquisition unit 21 generates first information that is information for specifying a desired cutting start position from the cutting start position, and the editing generated by the moving image data editing apparatus associated with the edited moving image data. Get the video data after.
  • the edited moving image data acquired by the edited moving image data acquisition unit 21 is compressed.
  • the first information acquisition unit 22 acquires first information.
  • the first information is stored in, for example, a moving image file including edited moving image data.
  • the playback unit 23 decodes the edited moving image data, and executes the playback from the desired extraction start position using the first information and the edited moving image data. That is, the playback unit 23 includes first information which is information for specifying a desired cut start position from the cut start position, and edited video data whose cut start position (I frame) is the first frame. Is used to specify the desired cutting start position (frame). Then, the reproduction unit 23 reproduces the edited moving image data from the desired extraction start position (frame).
  • the edited video data edited so that the sameness as the video data of the corresponding part included in the video data to be edited before editing is ensured by the user specified at the time of editing Playback can be started from the cutting start position.
  • the playback device of the present embodiment has a function of playing back edited video data edited by the video data editing device as described above. Specifically, using the first information and the second information associated with the edited moving image data, playback from the frame corresponding to the desired extraction start position to the frame corresponding to the desired extraction end position It has a function to execute.
  • FIG. 11 shows an example of a functional block diagram of the playback device 30 of the present embodiment.
  • the playback device 30 includes an edited moving image data acquisition unit 31, first and second information acquisition units 32, and a playback unit 33.
  • the edited moving image data acquisition unit 31 acquires the edited moving image data generated by the moving image data editing device described above.
  • the edited moving image data acquisition unit 31 is first information that is information for specifying the desired cut start position from the cut start position, and information that specifies the desired cut end position from the cut end position.
  • the second information is generated, and the edited moving image data generated by the moving image data editing apparatus associated with the edited moving image data is acquired.
  • the edited moving image data acquired by the edited moving image data acquisition unit 31 is compressed.
  • the first and second information acquisition units 32 acquire the first information and the second information.
  • the first information and the second information are stored in, for example, a moving image file including edited moving image data.
  • the reproduction unit 33 decodes the edited moving image data, and performs reproduction from the desired extraction start position to the desired extraction end position using the first information, the second information, and the edited moving image data. That is, the reproduction unit 33 includes first information that is information for specifying a desired extraction start position from the extraction start position, and edited video data whose first frame is the extraction start position (I frame). Is used to specify the desired cutting start position (frame). In addition, the playback unit 33 includes second information that is information for specifying the desired cut-out end position from the cut-out end position, edited video data whose last frame is the cut-out end position (I frame), and Is used to specify the desired cutout end position (frame). Then, the reproduction unit 33 reproduces the edited moving image data from the desired extraction start position (frame) to the desired extraction end position (frame).
  • the edited video data edited so that the sameness as the video data of the corresponding part included in the video data to be edited before editing is ensured by the user specified at the time of editing It is possible to reproduce from the cutting start position to the desired cutting end position.
  • FIG. 12 shows an overall view of the present embodiment.
  • CM Common Message
  • moving image data produced by production companies such as production company A 200A and production company B 200B is carried into broadcast stations such as broadcast station A 300A and broadcast station B 300B via center system 100.
  • the moving image data editing apparatus 10 is used.
  • the production company delivers the compressed video data compressed by the Long GOP method to the broadcasting station.
  • each broadcasting station converts the data into a predetermined data format (XDCAM, P2, GFPAK, etc.), and then stores and broadcasts the data. Since the identity of the data is lost by the conversion of the data format, each broadcasting station carefully checks the quality of the converted data before broadcasting.
  • a predetermined data format XDCAM, P2, GFPAK, etc.
  • each broadcasting station carefully checks the quality of the converted data before broadcasting.
  • video data of a certain CM produced by a certain production company is carried into a plurality of broadcasting stations. In such a case, each of the plurality of broadcasting stations performs conversion and quality check of the video data of this one CM. Is inefficient.
  • CM video data is carried into a broadcast station using file-based data
  • each broadcast station does not need to convert the data format, so the data at the time of carry-in and the data at the time of broadcast are secured. It becomes possible to do. For this reason, if the production company carefully checks the quality before carrying it in to the broadcasting station and carries in the broadcasting station what has no problem, the quality check in each of the plurality of broadcasting stations can be reduced.
  • the file-based management can improve the efficiency of the entire system as compared with the management using the tape medium.
  • CM video data is imported to a broadcasting station as file-based data
  • the imported video data is not stored as it is, but is broadcast using it. There is a possibility that the latter data is used for broadcasting.
  • the moving image data shown in FIG. 13 has a configuration in which attached information (black signal, color bar, credit, first cut, last cut, etc.) is attached before and after the main part of the CM (content main part).
  • attached information black signal, color bar, credit, first cut, last cut, etc.
  • the broadcasting station into which the CM moving image data has been imported can store the edited moving image data after performing editing to remove some of the attached information located before and after the CM main part. This is preferable because the volume of data to be saved can be reduced.
  • each broadcasting station of the present embodiment edits the moving image data of the CM that has been loaded by using the moving image data editing apparatus 10 of the present embodiment described above.
  • CM moving image data produced by a production company such as production company A 200A, production company B 200B, etc. is carried into the sending / receiving server 103 of the center system 100. Then, the CM moving image data is carried from the submission server 103 of the center system 100 to the submission server 301A of the broadcasting station A 300A, the submission server 301B of the broadcasting station B 300B, and the like.
  • CM moving image data carried into the submission server 301A of the broadcasting station A 300A and the submission server 301B of the broadcasting station B 300B is acquired by the data acquisition unit 11 of the moving image data editing apparatus 10 as editing target moving image data. Thereafter, after the predetermined processing as described above is performed in the moving image data editing apparatus 10, the edited moving image data associated with the first information and / or the second information is sent to the sending servers 302A and 302B. Sent and stored on the server.
  • the same frame data is ensured between the compressed moving image data after editing and the compressed moving image data before editing. Is done.
  • each broadcasting station includes the playback device 20 of the present embodiment, and can use the playback device 20 to play back the edited video data during broadcasting.
  • the playback device 20 of the present embodiment when editing the editing target moving image data, playback is performed from the position specified by the user and / or playback is performed up to the position specified by the user. Processing can be realized.
  • the center system 100 includes the moving image data editing device 10.
  • the center system 100 uses the moving image data editing device 10 to edit the moving image data of the CM that has been transferred from the production company to the center submission server 101.
  • the edited CM moving image data (edited moving image data) is carried into each broadcasting station via the center sending server 102.
  • each broadcasting station includes the playback device 20 of the present embodiment, and can use the playback device 20 to play back the edited CM video data (edited video data) during broadcasting. .
  • Data acquisition means for acquiring video data to be edited compressed using difference information between frames;
  • An input receiving means for receiving an input for designating a desired clipping start position and / or a desired clipping end position of the editing target moving image data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is Cutting position determining means for performing processing for determining an I frame positioned after the desired cutting end position as a cutting end position when it is not an I frame;
  • Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image Removal means for generating data;
  • First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position
  • the desired cut-out position specifying information generating unit is a moving image data editing apparatus that stores the first information and / or the second information in a moving image file including the edited moving image data.
  • the cut-out position determination means is a moving image data editing device that determines the I-frame as a cut-out start position when the desired cut-out start position is an I frame. 4).
  • the cutout position determining means is a moving image data editing apparatus that determines the I frame as the cut end position when the desired cut end position is an I frame. 5).
  • the editing target moving image data is moving image data in which attached information and the main content are displayed in this order
  • the moving image file including the editing target moving image data includes main part starting position information for specifying a starting position of the main part of the content
  • the input accepting unit accepts input of first position information that is relative position information based on the start position of the main content as an input for designating the desired cut start position
  • the cut-out position determination means specifies the desired cut-out start position using the main part start position information and the first position information, and then starts the cut-out based on the specified cut-out start position.
  • Video data editing device that determines the position. 6).
  • the editing target moving image data is moving image data in which the first attached information, the main content, and the second attached information are displayed in this order.
  • the video file including the video data to be edited includes main part end position information for specifying the end position of the main part of the content,
  • the input accepting unit accepts an input of second position information which is relative position information based on the end position of the main content as an input for designating the desired cutout end position;
  • the cut-out position determining means specifies the desired cut-out end position using the main part end position information and the second position information, and then extracts the cut-out end based on the specified desired cut-out end position.
  • Video data editing device that determines the position. 7).
  • the cut position determining unit determines that the temporal distance in the I frame located temporally before the desired cut start position is the desired cut start position.
  • a moving image data editing apparatus that determines the I frame closest to the cutout start position. 8).
  • the cut-out position determining means determines that the time distance in the I frame located after the desired cut-out end position is the desired cut-out end position.
  • a moving image data editing apparatus that determines the nearest I frame as the cut-out end position. 9.
  • the moving image data editing apparatus wherein the editing target moving image data is moving image data in which attached information and a CM main part are displayed in this order.
  • Edited video data acquisition means for acquiring the edited video data generated by the video data editing device according to any one of 1 to 9
  • First information acquisition means for acquiring the first information
  • Replay means for performing replay from the desired extraction start position using the first information and the edited moving image data
  • a reproducing apparatus for reproducing the edited moving image data editing apparatus.
  • Edited video data acquisition means for acquiring the edited video data generated by the video data editing device according to any one of 1 to 9, First and second information acquisition means for acquiring the first information and the second information; Reproduction means for performing reproduction from the desired extraction start position to the desired extraction end position using the first information, the second information, and the edited moving image data; A reproducing apparatus.
  • Computer Data acquisition means for acquiring video data to be edited compressed using difference information between frames;
  • An input receiving means for receiving an input for designating a desired extraction start position and / or a desired extraction end position of the editing target moving image data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is Cutout position determining means for performing a process of determining an I frame positioned after the desired cutout end position as a cutout end position when it is not an I frame, Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image Removal means for generating data, First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position Generating and specifying desired cutout position specifying information associated with the edited video data; Program to function as.
  • a program for causing the desired cut-out position specifying information generating means to store the first information and / or the second information in a moving image file including the edited moving image data. 12-3.
  • a program for causing the cutting position determining means to determine the I frame as a cutting start position when the desired cutting start position is an I frame. 12-4.
  • a program for causing the cutout position determining means to determine the I frame as a cutout end position when the desired cutout end position is an I frame. 12-5.
  • the editing target moving image data is moving image data in which attached information and the main content are displayed in this order
  • the moving image file including the editing target moving image data includes main part starting position information for specifying a starting position of the main part of the content
  • the input accepting unit accepts input of first position information that is relative position information based on the start position of the main content as an input for designating the desired cut start position
  • the editing target moving image data is moving image data in which the first attached information, the main content, and the second attached information are displayed in this order.
  • the video file including the video data to be edited includes main part end position information for specifying the end position of the main part of the content,
  • the input receiving means receives input of second position information that is relative position information based on the end position of the main content as an input for designating the desired cutout end position,
  • the cut position determining means specifies the desired cut end position using the main part end position information and the second position information, and then extracts the cut based on the specified desired cut end position.
  • the temporal position in the I frame located before the desired extraction start position is determined by the extraction position determination means as the desired extraction start position.
  • the cutting position determining means if the desired cutting end position is not an I frame, the temporal distance in the I frame located after the desired cutting end position is the desired cutting end position.
  • the editing target moving image data is a program in which attached information and CM main part are displayed in this order. 13.
  • Computer A data acquisition process for acquiring video data to be edited that is compressed using difference information between frames An input receiving step of receiving an input for designating a desired extraction start position and / or a desired extraction end position of the editing target video data;
  • the process of determining an I frame located before the desired cut start position as the cut start position and / or the desired cut end position is A cutout position determining step for performing a process of determining an I frame located after the desired cutout end position as a cutout end position when it is not an I frame;
  • Moving image data positioned before the cut start position and / or moving image data positioned after the cut start position are removed from the editing target moving image data, and the edited moving image A removal step to generate data;
  • First information which is information for specifying the desired cut start position from the cut start position and / or second information which is information for specifying the desired cut end position from the cut end position Generating desired cut position specifying information to be associated with the edited video data; and How to edit video data.
  • the moving image data editing method described in 13 or 13-2 In the moving image data editing method described in 13 or 13-2, In the cutout position determination step, when the desired cutout start position is an I frame, the moving image data editing method determines the I frame as the cutout start position. 13-4. In the moving image data editing method described in any one of 13 to 13-3, In the cutout position determination step, when the desired cutout end position is an I frame, the moving image data editing method determines the I frame as the cutout end position. 13-5.
  • the editing target moving image data is moving image data in which attached information and the main content are displayed in this order
  • the moving image file including the editing target moving image data includes main part starting position information for specifying a starting position of the main part of the content
  • the input receiving step as an input for designating the desired cut start position, an input of first position information which is relative position information based on the start position of the main content is received
  • the cut-out position determination step the desired cut-out start position is specified using the main part start position information and the first position information, and then the cut-out start is based on the specified desired cut-out start position Video data editing method that determines the position. 13-6.
  • the editing target moving image data is moving image data in which the first attached information, the main content, and the second attached information are displayed in this order.
  • the video file including the video data to be edited includes main part end position information for specifying the end position of the main part of the content,
  • the input receiving step as an input for designating the desired cutout end position, an input of second position information that is relative position information based on the end position of the main content is received;
  • the cut-out position determining step after specifying the desired cut-out end position using the main part end position information and the second position information, the cut-out end is determined based on the specified cut-out end position.
  • Video data editing method that determines the position. 13-7.
  • the cutout position determining step when the desired cutout start position is not an I frame, the temporal distance in the I frame located temporally before the desired cutout start position is the desired cutout start position.
  • the cutout position determining step when the desired cutout end position is not an I frame, the temporal distance in the I frame located later in time than the desired cutout end position is set as the desired cutout end position.
  • the moving image data editing method wherein the editing target moving image data is moving image data in which the attached information and the CM main part are displayed in this order.
  • 14 Edited video data acquisition means for acquiring the edited video data generated by the video data editing device according to any one of 1 to 9, First information acquisition means for acquiring the first information; Replay means for performing replay from the desired extraction start position using the first information and the edited video data; Program to function as. 15.
  • First and second information acquisition means for acquiring the first information and the second information;
  • a post-edit video data acquisition step in which the computer acquires the post-edit video data generated by the video data editing device according to any one of 1 to 9, First and second information acquisition steps for acquiring the first information and the second information; A reproduction step of performing reproduction from the desired extraction start position to the desired extraction end position using the first information, the second information, and the edited moving image data; Play method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

編集対象動画データを取得するデータ取得部(11)と、編集対象動画データの希望切出開始位置を指定する入力を受付ける入力受付部(12)と、希望切出開始位置がIフレームでない場合に希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する切出位置決定部(13)と、切出開始位置よりも時間的に前に位置する動画データを編集対象動画データから除去して、編集後動画データを生成する除去部(14)と、切出開始位置から希望切出開始位置を特定する情報である第1の情報を生成し、編集後動画データに対応付ける希望切出位置特定情報生成部(15)と、を有する動画データ編集装置(10)。

Description

動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム
 本発明は、動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラムに関する。
 特許文献1及2にLong GOP(group of pictures)方式で圧縮された動画データを編集する技術が開示されている。当該方式では、GOP単位で動画データを圧縮する。なお、各GOPには、Iフレーム、Bフレーム及びPフレームが含まれ得る。以下、当該方式で圧縮された動画データを、圧縮動画データという。なお、「動画データを編集する」とは、動画データの一部を除去することを意味する(以下同様)。
 特許文献1に記載の画像符号化装置は、圧縮動画データを1又は複数の編集点で編集する編集指示を受付けると、圧縮動画データを復号し、次いで、編集点で特定される所定のデータを除去した編集後のデータを生成した後、編集後のデータを再度圧縮する。なお、編集後のデータを再圧縮する処理においては、編集後のデータにおける編集点の前及び/又は後に所定の画像からなる挿入画像を挿入し、編集後のデータに含まれるフレームいずれもが編集前のデータにおけるフレーム種別(Iフレーム、Bフレーム、Pフレーム)と同一となるように再圧縮する。
 特許文献2に記載の動画像編集装置は、圧縮動画データを復号後、所定のデータを除去した編集後のデータを生成し、編集後のデータを再度圧縮する。なお、編集処理においてGOPの途中を編集点とし、当該点に位置するフレーム(Bフレーム又はPフレーム)より前の動画データを除去(編集)した場合、編集後のデータを再圧縮する処理においては、編集後に残った当該GOP内のフレームをIフレームとして再圧縮する。
特開2007-104182号公報 特開平8-205076号公報
 編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が要求される場合がある。
 特許文献1に記載の技術の場合、編集後の圧縮動画データのうち、挿入画像が追加されたGOPに含まれるフレームの動画データの少なくとも一部は、圧縮により、編集前の動画データとの同一性が損なわれる。また、特許文献2に記載の技術の場合、編集点を含むGOPに含まれる編集後の圧縮動画データ、すなわち、編集前はBフレーム又はPフレームとして圧縮されていたが、編集後はIフレームとして圧縮されているフレームの動画データは、圧縮により、編集前の動画データとの同一性が損なわれる。
 本発明は、フレーム間圧縮技術またはフレーム間予測技術、特にLong GOP方式で圧縮された圧縮動画データを編集する技術であって、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が確保される編集技術を提供することを課題とする。
 本発明によれば、
 フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段と、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段と、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段と、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段と、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段と、
を有する動画データ編集装置が提供される。
 また、本発明によれば、
 上記動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段と、
 前記第1の情報を取得する第1の情報取得手段と、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段と、
を有する再生装置が提供される。
 また、本発明によれば、
 コンピュータを、
 フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段、
として機能させるためのプログラムが提供される。
 また、本発明によれば、
 コンピュータが、
 フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得工程、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付工程と、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定工程と、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去工程と、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成工程と、
を実行する動画データ編集方法が提供される。
 また、本発明によれば、
 コンピュータを、
 上記動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段、
 前記第1の情報を取得する第1の情報取得手段、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段、
として機能させるためのプログラムが提供される。
 また、本発明によれば、
 コンピュータが、
 上記動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得工程と、
 前記第1の情報を取得する第1の情報取得工程と、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生工程と、
を実行する再生方法が提供される。
 本発明によれば、フレーム間圧縮技術またはフレーム間予測技術、特にLong GOP方式で圧縮された圧縮動画データを編集する技術であって、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が確保される編集技術が実現される。
 上述した目的、および、その他の目的、特徴および利点は、以下に述べる好適な実施の形態、および、それに付随する以下の図面によって、さらに明らかになる。
本実施形態の概念を説明するための図である。 本実施形態の動画データ編集装置の機能ブロック図の一例を示す図である。 本実施形態の動画データ編集方法の処理の流れの一例を示すフローチャートである。 本実施形態の概念を説明するための図である。 本実施形態の動画データ編集方法の処理の流れの一例を示すフローチャートである。 本実施形態の概念を説明するための図である。 本実施形態の動画データ編集方法の処理の流れの一例を示すフローチャートである。 本実施形態の編集対象動画データの構成の一例を示す図である。 本実施形態の編集対象動画データの構成の一例を示す図である。 本実施形態の再生装置の機能ブロック図の一例を示す図である。 本実施形態の再生装置の機能ブロック図の一例を示す図である。 本実施形態の動画データ編集装置を適用したシステムの一例を示す図である。 本実施形態の編集対象動画データの構成の一例を示す図である。 本実施形態の動画データ編集装置を適用したシステムの一例を示す図である。
 以下、本発明の実施の形態について図面を用いて説明する。
 なお、本実施形態の装置は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされたプログラム(あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムも含む)、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェイスを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 また、本実施形態の説明において利用する機能ブロック図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。
<第1の実施形態>
 まず、図1を用いて本実施形態の動画データ編集装置の概要について説明する。本実施形態の動画データ編集装置は、圧縮された編集対象動画データを編集する。本実施の形態では、圧縮方式としてフレーム間圧縮技術またはフレーム間予測技術を用いるものの一形態であるLong GOP方式の場合を説明する。図1には、編集対象動画データに含まれる複数のフレームが模式的に示されている。複数のフレームは、再生時に出力される順に時間軸に沿って一列に並んでいる。なお、ここでの「再生」とは、通常想定されている順に画像を出力していく通常の再生を意味し、いわゆる逆方向再生などのような再生ではない(以下同様)。図中、各フレームに、Iフレーム(Intra-coded Frame)、Bフレーム(Bi-directional Predicted Frame)、Pフレーム(Predicted Frame)の種別を示している。Iフレームとは、フレーム間予測を用いずに符号されるフレームである。Bフレームとは、前方向予測、後方向予測、両方向予測(フレーム間予測)の中のいずれかを用いて符号化されるフレームである。Pフレームとは、前方向予測(フレーム間予測)を用いて符号化されるフレームである。
 動画データ編集装置は、ユーザから、希望切出開始位置を指定する入力を受付ける。例えば、編集対象動画データの冒頭からの経過時間により希望切出開始位置を指定する入力を受付けてもよいし、または、当該編集対象動画データに含まれる所定のフレームを希望切出開始位置として指定する入力を受付けてもよい。図1の場合、図中左端から3番目のフレーム(Bフレーム)が希望切出開始位置として指定されている。
 動画データ編集装置は、希望切出開始位置を指定する入力を受付けると、その位置に対応するフレームがIフレームであるか否かを判別する。動画データ編集装置は、該フレームがIフレームでない場合(図1の場合、Bフレーム)、そのフレームよりも時間的に前に位置するIフレームを切出開始位置として決定する。なお、第1のフレームよりも時間的に前に位置するフレームとは、動画データを再生した場合に、第1のフレームよりも先に出力されるフレームを意味する(以下同様)。図1の場合、希望切出開始位置として指定されているBフレーム(図中左端から3番目のフレーム)より2つ前に位置するIフレームが、切出開始位置として決定されている。
 その後、動画データ編集装置は、例えば編集対象動画データを復号後、切出開始位置よりも時間的に前に位置する動画データ(フレーム)を除去する(切出開始位置のIフレームは除去しない)。次いで、動画データ編集装置は、編集対象動画データと同様の方式で圧縮して、編集後動画データを生成する。
 また、動画データ編集装置は、切出開始位置から希望切出開始位置を特定する情報である第1の情報(例:切出開始位置及び希望切出開始位置の間の差分フレーム数)を生成し、編集後動画データに対応付ける。
 このような編集手段の場合、編集後の動画データの冒頭フレームはIフレームとなる。このような編集後の動画データが編集対象動画データと同様の方式で圧縮されると、各フレームの組成(Iフレーム、Bフレーム、Pフレーム)が編集前の組成と同じになるように圧縮される。また、編集前に含まれていなかった動画データが編集後に新たに含まれることもない。さらに、このような編集手段の場合、編集後の動画データは、編集対象動画データファイルから、解凍・圧縮を経ずに直接切り出すことができる。このため、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が確保される。
 また、本実施形態によれば、第1の情報を利用して、ユーザが指定した希望切出開始位置を特定することができる。このため、例えば、希望切出開始位置からの再生等が実現できる。
 以下、本実施形態の動画データ編集装置の構成について詳細に説明する。
 図2に、動画データ編集装置10の機能ブロック図の一例を示す。図示するように、動画データ編集装置10は、データ取得部11と、入力受付部12と、切出位置決定部13と、除去部14と、希望切出位置特定情報生成部15と、を有する。以下、各部について説明する。
 データ取得部11は、ユーザにより入力されたLong GOP方式で圧縮された編集対象動画データ(圧縮動画データ)を取得する。なお、データ取得部11は、編集対象動画データを含む動画ファイルを取得してもよい。当該動画ファイルには、編集対象動画データのほか、フレームレートや、圧縮に関する情報(1つのGOPに含まれるフレーム数等)等が含まれていてもよい。
 入力受付部12は、編集対象動画データの希望切出開始位置を指定する入力を受付ける。入力受付部12は、例えば、当該編集対象動画データの冒頭からの経過時間により希望切出開始位置を指定する入力を受付けてもよいし、または、当該編集対象動画データに含まれる所定のフレームを希望切出開始位置として指定する入力を受付けてもよい。前者の場合、入力受付部12は、例えば数値(冒頭からの経過時間)の入力を受付けてもよい。後者の場合、入力受付部12は、例えば編集対象動画データを復号し、ディスプレイに画像を出力する。そして、所定のフレームの画像がディスプレイに表示されている状態で受付ける決定入力を、そのフレームを希望切出開始位置とする入力として受付けてもよい。
 切出位置決定部13は、希望切出開始位置がIフレームでない場合、希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する。
 このような処理を実行するため、切出位置決定部13は、まず、入力受付部12が受付けた入力内容に基づいて希望切出開始位置に対応するフレームを特定し、次いで、特定したフレームがIフレームであるか否か判別する。当該処理を実現する手段は特段制限されず、あらゆる従来技術を採用することができる。以下一例を説明する。
 希望切出開始位置に対応するフレームを特定する手段の例を説明する。例えば、入力受付部12が希望切出開始位置を指定する情報として編集対象動画データの冒頭からの経過時間の入力を受付けた場合、切出位置決定部13は、予め定められているフレームレートに基づいて、希望切出開始位置に対応するフレームを特定することができる。また、入力受付部12が希望切出開始位置を指定する情報として所定のフレームを指定する入力を受付けた場合、切出位置決定部13は、そのフレームを認識することで、希望切出開始位置に対応するフレームを特定することができる。
 フレーム種別を判別する手段の例を説明する。例えば、特開2010-28435号公報に記載されている各フレームのフレーム種別を記載したテーブルを利用した各フレームのフレーム種別の判別手段が利用されてもよい。または、特開2007-82156号公報、及び、特開2009-273010号公報記載されているIフレーム、Bフレーム、Pフレーム各々の情報量の差を利用したフレーム種別の判別手段が利用されてもよい。
 希望切出開始位置に対応するフレームがIフレームであるか否か判別した判別結果が「否」である場合、切出位置決定部13は、希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する。
 時間的に前に位置するIフレームが複数ある場合、どのIフレームが切出開始位置とされてもよい。複数のIフレームの中で時間的距離が希望切出開始位置に最も近いIフレーム(希望切出開始位置に対応するフレームとの間の差分フレーム数が最も小さいIフレーム)が切出開始位置として決定されてもよい。このようにすれば、編集後動画データの情報量を小さくすることができる。
 このようなIフレームを特定する手段は特段制限されず、あらゆる従来技術を採用することができる。例えば、希望切出開始位置に対応するフレームから時間軸(再生した場合の時間軸)を逆方向に遡りながら各フレームの種別を判別していくことでIフレームが特定されてもよい。または、特開2010-28435号公報に記載されているテーブルを利用してIフレームが特定されてもよい。
 除去部14は、切出開始位置よりも時間的に前に位置する動画データを編集対象動画データから除去して、編集後動画データを生成する。すなわち、除去部14は、切出開始位置に対応するIフレームよりも時間的に前に位置するフレームのデータを編集対象動画データから除去して、編集後動画データを生成する。なお、除去部14は、切出開始位置に対応するIフレームは除去しない。例えば、除去部14は、編集対象動画データを復号し、当該状態で、所定の動画データを除去する。かかる場合、除去部14は、所定の動画データを除去後の動画データを、編集対象動画データと同様の手法で圧縮して、編集後動画データを得る。その他、除去部14は、編集対象動画データを復号することなく、切出開始位置に対応するIフレームよりも時間的に前に位置するフレームのデータを編集対象動画データから除去して、編集後動画データを生成してもよい。すなわち、編集後動画データは、編集対象動画データファイルから、解凍・圧縮を経ずに直接切り出された動画データであってもよい。いずれにしても、編集後動画データは圧縮動画データである。
 希望切出位置特定情報生成部15は、切出開始位置から希望切出開始位置を特定する情報である第1の情報を生成し、編集後動画データに対応付ける。第1の情報は、切出開始位置から希望切出開始位置を特定できるものであれば特段制限されない。例えば、第1の情報は、切出開始位置に対応するIフレームと希望切出開始位置に対応するフレームとの間の差分フレーム数であってもよいし、動画を再生した際におけるこれらのフレーム間の時間差であってもよい。このような第1の情報を生成する手段は特段制限されない。例えば、切出位置決定部13が切出開始位置を決定する際に、希望切出開始位置に対応するフレームから切出開始位置となるIフレームまで遡ったフレーム数をカウントして第1の情報が生成されてもよいし、特開2010-28435号公報に記載されているテーブルを利用して第1の情報が生成されてもよい。
 希望切出位置特定情報生成部15は、生成した第1の情報を、例えば、編集後動画データを含む動画ファイルに記憶してもよい。
 次に、図3のフローチャートを用いて、本実施形態の動画データ編集方法の処理の流れの一例を説明する。
 まず、データ取得部11が、ユーザにより入力されたLong GOP方式で圧縮された編集対象動画データを取得する(S10)。
 その後、入力受付部12が、編集対象動画データの希望切出開始位置を指定するユーザ入力を受付ける(S11)。
 次いで、切出位置決定部13が、S11で入力受付部12が受付けた入力内容に基づいて希望切出開始位置に対応するフレームを特定し、次いで、特定したフレームがIフレームであるか否か判別する。そして、切出位置決定部13は、希望切出開始位置がIフレームでない場合、希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する(S12)。
 次に、除去部14が、S12で決定された切出開始位置よりも時間的に前に位置する動画データをS10で取得した編集対象動画データから除去した編集後動画データ(圧縮動画データ)を生成する(S13)。
 次に、希望切出位置特定情報生成部15が、切出開始位置から希望切出開始位置を特定する情報である第1の情報を生成し(S14)、生成した第1の情報を編集後動画データに対応付ける(S15)。
 なお、S13で生成された編集後動画データは、所定の記憶装置に記憶されたり、外部機器に出力される。
 本実施形態の動画データ編集装置は、GOP単位で動画データ(フレーム)を除去する。かかる場合、編集後の編集対象動画データの冒頭フレームは必ずIフレームとなる。このため、編集対象動画データを復号後に一部データを除去する処理(編集処理)を行った場合に、編集処理後の動画データを編集対象動画データと同様の方式で圧縮しても、各フレームの種別(Iフレーム、Bフレーム、Pフレーム)が編集前の種別と同じになるように圧縮される。このため、編集後動画データ(圧縮動画データ)と、編集対象動画データ(圧縮動画データ)との間において、対応するフレームのデータの同一性が確保される。また、GOP単位で動画データ(フレーム)を除去するため、編集対象動画データを復号することなく、一部データを除去することもできる。かかる場合も同様に、編集後動画データ(圧縮動画データ)と、編集対象動画データ(圧縮動画データ)との間において、対応するフレームのデータの同一性が確保される。
 また、本実施形態によれば、編集後動画データに、切出開始位置から希望切出開始位置を特定する情報である第1の情報が対応付けられる。このため、第1の情報を利用して、ユーザが指定した希望切出開始位置を特定することができる。結果、例えば、希望切出開始位置からの再生等が実現できる。
<第2の実施形態>
 本実施形態の動画データ編集装置は、希望切出開始位置がIフレームである場合の処理を特定している点で、第1の実施形態と異なる。以下、第1の実施形態と異なる構成のみを説明し、第1の実施形態と共通する構成の説明は省略する。
 切出位置決定部13は、希望切出開始位置がIフレームである場合、当該Iフレームを切出開始位置として決定する。
 希望切出位置特定情報生成部15は、第1の情報として、切出開始位置が希望切出開始位置であることを示す情報を生成する。例えば、希望切出位置特定情報生成部15は、切出開始位置に対応するIフレームと希望切出開始位置に対応するフレームとの間の差分フレーム数が「0(ゼロ)」であることを示す情報を生成しても良い。又は、希望切出位置特定情報生成部15は、動画を再生した際におけるこれらのフレーム間の時間差が「0(ゼロ)」であることを示す情報を生成してもよい。
 本実施形態によれば、第1の実施形態と同様の作用効果を実現することができる。
<第3の実施形態>
 まず、図4を用いて本実施形態の動画データ編集装置の概要について説明する。本実施形態の動画データ編集装置は、Long GOP方式で圧縮された編集対象動画データを編集する。図4には、編集対象動画データに含まれる複数のフレームが模式的に示されている。複数のフレームは、再生時に出力される順に時間軸に沿って一列に並んでいる。図中、各フレームに、Iフレーム、Bフレーム、Pフレームの種別を示している。
 動画データ編集装置は、ユーザから、希望切出終了位置を指定する入力を受付ける。例えば、編集対象動画データの冒頭からの経過時間により希望切出終了位置を指定する入力を受付けてもよい。または、動画データ編集装置は、当該編集対象動画データに含まれる所定のフレームを希望切出終了位置として指定する入力を受付けてもよい。図4の場合、図中右端から3番目のフレーム(Bフレーム)が希望切出終了位置として指定されている。
 動画データ編集装置は、希望切出終了位置を指定する入力を受付けると、その位置に対応するフレームがIフレームであるか否かを判別する。動画データ編集装置は、該フレームがIフレームでない場合(図4の場合、Bフレーム)、そのフレームよりも時間的に後に位置するIフレームを切出終了位置として決定する。なお、第1のフレームよりも時間的に後に位置するフレームとは、動画データを再生した場合に、第1のフレームよりも後に出力されるフレームを意味する(以下同様)。図4の場合、希望切出終了位置として指定されているBフレーム(図中右端から3番目のフレーム)より2つ後に位置するIフレームが、切出終了位置として決定されている。
 その後、動画データ編集装置は、例えば編集対象動画データを復号後、切出終了位置よりも時間的に後に位置する動画データ(フレーム)を除去(切出終了位置のIフレームは除去しない)する。次いで、動画データ編集装置は、編集対象動画データと同様の方式で圧縮して、編集後動画データを生成する。
 また、動画データ編集装置は、切出終了位置から希望切出終了位置を特定する情報である第2の情報(例:切出終了位置及び希望切出終了位置の間の差分フレーム数)を生成し、編集後動画データに対応付ける。
 このような編集手段の場合、編集後の動画データの末尾フレームはIフレームとなる。このような編集後の動画データが編集対象動画データと同様の方式で圧縮されると、各フレームの種別(Iフレーム、Bフレーム、Pフレーム)が編集前の種別と同じになるように圧縮される。このため、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が確保される。
 また、本実施形態によれば、第2の情報を利用して、ユーザが指定した希望切出終了位置を特定することができる。このため、例えば、希望切出終了位置までの再生等が実現できる。
 以下、本実施形態の動画データ編集装置の構成について詳細に説明する。
 本実施形態の動画データ編集装置10の機能ブロック図の一例は、第1の実施形態と同様、図2で示される。図示するように、動画データ編集装置10は、データ取得部11と、入力受付部12と、切出位置決定部13と、除去部14と、希望切出位置特定情報生成部15と、を有する。以下、各部について説明する。なお、データ取得部11の構成は第1の実施形態と同様であるので、ここでの説明は省略する。
 入力受付部12は、編集対象動画データの希望切出終了位置を指定する入力を受付ける。入力受付部12は、例えば、当該編集対象動画データの冒頭からの経過時間により希望切出終了位置を指定する入力を受付けてもよいし、または、当該編集対象動画データに含まれる所定のフレームを希望切出終了位置として指定する入力を受付けてもよい。前者の場合、入力受付部12は、例えば数値(冒頭からの経過時間)の入力を受付けてもよい。後者の場合、入力受付部12は、例えば編集対象動画データを復号し、ディスプレイに画像を出力する。そして、所定のフレームの画像がディスプレイに表示されている状態で受付ける決定入力を、そのフレームを希望切出終了位置とする入力として受付けてもよい。
 切出位置決定部13は、希望切出終了位置がIフレームでない場合、希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する。
 このような処理を実行するため、切出位置決定部13は、まず、入力受付部12が受付けた入力内容に基づいて希望切出終了位置に対応するフレームを特定し、次いで、特定したフレームがIフレームであるか否か判別する。これらの処理を実現する手段は、第1の実施形態で説明した通りであるので、ここでの説明は省略する。
 希望切出終了位置に対応するフレームがIフレームであるか否か判別した判別結果が「否」である場合、切出位置決定部13は、希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する。
 時間的に後に位置するIフレームが複数ある場合、どのIフレームが切出終了位置とされてもよい。複数のIフレームの中で時間的距離が希望切出終了位置に最も近いIフレーム(希望切出終了位置に対応するフレームとの間の差分フレーム数が最も小さいIフレーム)が切出終了位置として決定されてもよい。このようにすれば、編集後動画データの情報量を小さくすることができる。
 このようなIフレームを特定する手段は特段制限されず、あらゆる従来技術を採用することができる。例えば、希望切出終了位置に対応するフレームから順に時間軸(再生した場合の時間軸)に沿って各フレームの種別を判別していくことIフレームが特定されても良い。または、特開2010-28435号公報に記載されているテーブルを利用してIフレームが特定されてもよい。
 除去部14は、切出終了位置よりも時間的に後に位置する動画データを編集対象動画データから除去して、編集後動画データを生成する。すなわち、除去部14は、切出終了位置に対応するIフレームよりも時間的に後に位置するフレームのデータを編集対象動画データから除去して、編集後動画データを生成する。なお、除去部14は、切出終了位置に対応するIフレームは除去しない。例えば、除去部14は、編集対象動画データを復号し、当該状態で、所定の動画データを除去する。かかる場合、除去部14は、所定の動画データを除去後の動画データを、編集対象動画データと同様の手法で圧縮して、編集後動画データを得る。すなわち、編集後動画データは圧縮動画データである。
 希望切出位置特定情報生成部15は、切出終了位置から希望切出終了位置を特定する情報である第2の情報を生成し、編集後動画データに対応付ける。第2の情報は、切出終了位置から希望切出終了位置を特定できるものであれば特段制限されない。例えば、第2の情報は、切出終了位置に対応するIフレームと希望切出終了位置に対応するフレームとの間の差分フレーム数であってもよいし、動画を再生した際におけるこれらのフレーム間の時間差であってもよい。このような第2の情報を生成する手段は特段制限されない。例えば、切出位置決定部13が切出終了位置を決定する際に、希望切出終了位置に対応するフレームから切出終了位置となるIフレームまでに通過したフレーム数をカウントしておくことで第2の情報が生成されてもよい。あるいは、特開2010-28435号公報に記載されているテーブルを利用して第2の情報が生成されてもよい。
 希望切出位置特定情報生成部15は、生成した第2の情報を、例えば、編集後動画データを含む動画ファイルに記憶してもよい。
 次に、図5のフローチャートを用いて、本実施形態の動画データ編集方法の処理の流れの一例を説明する。
 まず、データ取得部11が、ユーザにより入力されたLong GOP方式で圧縮された編集対象動画データを取得する(S20)。
 その後、入力受付部12が、編集対象動画データの希望切出終了位置を指定するユーザ入力を受付ける(S21)。
 次いで、切出位置決定部13が、S21で入力受付部12が受付けた入力内容に基づいて希望切出終了位置に対応するフレームを特定し、次いで、特定したフレームがIフレームであるか否か判別する。そして、切出位置決定部13は、希望切出終了位置がIフレームでない場合、希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する(S22)。
 次に、除去部14が、S22で決定された切出終了位置よりも時間的に後に位置する動画データをS20で取得した編集対象動画データから除去した編集後動画データ(圧縮動画データ)を生成する(S23)。
 次に、希望切出位置特定情報生成部15が、切出終了位置から希望切出終了位置を特定する情報である第2の情報を生成し(S24)、生成した第2の情報を編集後動画データに対応付ける(S25)。
 なお、S23で生成された編集後動画データは、所定の記憶装置に記憶されたり、外部機器に出力される。
 本実施形態の動画データ編集装置は、GOP単位で動画データ(フレーム)を除去する。このため、編集後の編集対象動画データの末尾フレームは必ずIフレームとなる。このような動画データを編集対象動画データと同様の方式で圧縮すると、各フレームの種別(Iフレーム、Bフレーム、Pフレーム)が編集前の種別と同じになるように圧縮される。このため、編集後動画データ(圧縮動画データ)と、編集対象動画データ(圧縮動画データ)との間において、対応するフレームのデータの同一性が確保される。
 また、本実施形態によれば、編集後動画データに、切出終了位置から希望切出終了位置を特定する情報である第2の情報が対応付けられる。このため、第2の情報を利用して、ユーザが指定した希望切出終了位置を特定することができる。結果、例えば、希望切出終了位置までの再生等が実現できる。
<第4の実施形態>
 本実施形態の動画データ編集装置は、希望切出終了位置がIフレームである場合の処理を特定している点で、第3の実施形態と異なる。以下、第3の実施形態と異なる構成のみを説明し、第3の実施形態と共通する構成の説明は省略する。
 切出位置決定部13は、希望切出終了位置がIフレームである場合、当該Iフレームを切出終了位置として決定する。
 希望切出位置特定情報生成部15は、第2の情報として、切出終了位置が希望切出終了位置であることを示す情報を生成する。例えば、希望切出位置特定情報生成部15は、切出終了位置に対応するIフレームと希望切出終了位置に対応するフレームとの間の差分フレーム数が「0(ゼロ)」であることを示す情報、又は、動画を再生した際におけるこれらのフレーム間の時間差が「0(ゼロ)」であることを示す情報を生成してもよい。
 本実施形態によれば、第3の実施形態と同様の作用効果を実現することができる。
<第5の実施形態>
 まず、図6を用いて本実施形態の動画データ編集装置の概要について説明する。本実施形態の動画データ編集装置は、Long GOP方式で圧縮された編集対象動画データを編集する。図6には、編集対象動画データに含まれる複数のフレームが模式的に示されている。複数のフレームは、再生時に出力される順に時間軸に沿って一列に並んでいる。図中、各フレームに、Iフレーム、Bフレーム、Pフレームの種別を示している。
 動画データ編集装置は、ユーザから、希望切出開始位置、及び、希望切出開始位置を指定する入力を受付ける。例えば、動画データ編集装置は、編集対象動画データの冒頭からの経過時間により、希望切出開始位置及び希望切出終了位置各々を指定する入力を受付けてもよい。または、動画データ編集装置は、希望切出開始位置及び希望切出終了位置各々ごとに、当該編集対象動画データに含まれる所定のフレームを指定する入力を受付けてもよい。図6の場合、図中左端から3番目のフレーム(Bフレーム)が希望切出開始位置として指定され、図中右端から3番目のフレーム(Bフレーム)が希望切出終了位置として指定されている。
 動画データ編集装置は、希望切出開始位置、及び、希望切出終了位置を指定する入力を受付けると、その位置に対応するフレームがIフレームであるか否かを判別する。動画データ編集装置は、該フレームがIフレームでない場合(図6の場合、いずれもBフレーム)、第1乃至第4の実施形態で説明した処理と同様にして、Iフレームを切出開始位置及び切出終了位置として決定する。図6の場合、希望切出開始位置として指定されているBフレーム(図中左端から3番目のフレーム)より2つ前に位置するIフレームが、切出開始位置として決定されている。また、希望切出終了位置として指定されているBフレーム(図中左端から3番目のフレーム)より2つ後に位置するIフレームが、切出終了位置として決定されている。
 その後、動画データ編集装置は、例えば編集対象動画データを復号後、切出開始位置よりも時間的に前に位置する動画データ(フレーム)、及び、切出終了位置よりも時間的に後に位置する動画データ(フレーム)を除去(切出開始位置のIフレーム及び切出終了位置のIフレームは除去しない)する。次いで、動画データ編集装置は、編集対象動画データと同様の方式で圧縮して、編集後動画データを生成する。
 また、動画データ編集装置は、切出開始位置から希望切出開始位置を特定する情報である第1の情報(例:切出開始位置及び希望切出開始位置の間の差分フレーム数)、及び、切出終了位置から希望切出終了位置を特定する情報である第2の情報(例:切出終了位置及び希望切出終了位置の間の差分フレーム数)を生成し、編集後動画データに対応付ける。
 このような本実施形態の動画データ編集装置によれば、第1乃至第4の実施形態と同様の作用効果を実現することができる。
 なお、本実施形態の動画データ編集装置の構成は、第1乃至第4の実施形態で説明した構成を任意に組み合わせることで実現することができる。よって、ここでの説明は省略する。
 次に、図7のフローチャートを用いて、本実施形態の動画データ編集方法の処理の流れの一例を説明する。
 まず、データ取得部11が、ユーザにより入力されたLong GOP方式で圧縮された編集対象動画データを取得する(S30)。
 その後、入力受付部12が、編集対象動画データの希望切出開始位置及び希望切出終了位置各々を指定するユーザ入力を受付ける(S31、S32)。
 次いで、切出位置決定部13が、S31及びS32で入力受付部12が受付けた入力内容に基づいて希望切出開始位置に対応するフレーム、及び、希望切出終了位置に対応するフレーム各々を特定し、次いで、特定したフレームがIフレームであるか否か判別する。
 そして、希望切出開始位置がIフレームでない場合、切出位置決定部13は、希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する(S33)。一方、希望切出開始位置がIフレームである場合、切出位置決定部13は、希望切出開始位置を切出開始位置として決定する。
 また、希望切出終了位置がIフレームでない場合、切出位置決定部13は、希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する(S34)。一方、希望切出終了位置がIフレームである場合、切出位置決定部13は、希望切出終了位置を切出終了位置として決定する。
 次に、除去部14が、切出開始位置よりも時間的に前に位置する動画データ、及び、切出終了位置よりも時間的に後に位置する動画データをS30で取得した編集対象動画データから除去した編集後動画データ(圧縮動画データ)を生成する(S35)。
 次に、希望切出位置特定情報生成部15が、切出開始位置から希望切出開始位置を特定する情報である第1の情報、及び、切出終了位置から希望切出終了位置を特定する情報である第2の情報を生成する(S36、S37)。希望切出位置特定情報生成部15は、生成した第1の情報及び第2の情報を編集後動画データに対応付ける(S38)。
 なお、S13で生成された編集後動画データは、所定の記憶装置に記憶されたり、外部機器に出力される。
 本実施形態によれば、第1乃至第4の実施形態と同様の作用効果を実現することができる。
<第6の実施形態>
 本実施形態の動画データ編集装置は、希望切出開始位置を指定する入力、及び、希望切出開始位置に対応するフレームを特定する手段が第1、第2及び第5の実施形態と異なる。その他の構成は、第1、第2及び第5の実施形態と同様である。以下、相違点を説明する。
 本実施形態の動画データ編集装置が取得する編集対象画像データは、付属情報、及び、コンテンツ本編がこの順に表示される動画データである(図8参照)。そして、動画データ編集装置は、当該動画データを含む動画ファイルを取得する。動画ファイルには、コンテンツ本編の開始位置を特定する本編開始位置情報(例:冒頭からの経過時間等)が含まれている。
 本実施形態の入力受付部12は、希望切出開始位置を指定する入力として、コンテンツ本編の開始位置を基準にした相対的な位置情報である第1の位置情報(例:本編の開始位置から時間軸(再生した場合の時間軸)を逆方向に遡るフレーム数、又は、時間等)の入力を受付ける。
 切出位置決定部13は、入力受付部12が受付けた入力内容に基づいて希望切出開始位置に対応するフレームを特定する。例えば、切出位置決定部13は、本編開始位置情報を利用して本編の開始位置に対応するフレームを特定した後、第1の位置情報を利用して、当該フレームから時間軸(再生した場合の時間軸)を逆方向に所定量遡った位置にあるフレームを希望切出開始位置に対応するフレームとして特定する。その他、特開2010-28435号公報に記載されているテーブルを利用して希望切出開始位置に対応するフレームが特定されてもよい。
 本実施形態によれば、第1、第2及び第5の実施形態と同様の作用効果を実現することができる。
 また、第1の位置情報を予め動画データ編集装置に記憶しておけば、ユーザによる希望切出開始位置を指定する入力を待つことなく、編集対象動画データの編集を実行することができる。このため、コンピュータによる処理を効率化できるほか、ユーザの作業数を減らす等の効果を実現することができる。
<第7の実施形態>
 本実施形態の動画データ編集装置は、希望切出終了位置を指定する入力、及び、希望切出終了位置に対応するフレームを特定する手段が第3、第4及び第5の実施形態と異なる。その他の構成は、第3、第4及び第5の実施形態と同様である。以下、相違点を説明する。
 本実施形態の動画データ編集装置が取得する編集対象画像データは、第1の付属情報、コンテンツ本編、及び、第2の付属情報がこの順に表示される動画データである(図9参照)。そして、動画データ編集装置は、当該動画データを含む動画ファイルを取得する。動画ファイルには、コンテンツ本編の開始位置を特定する本編開始位置情報(例:冒頭からの経過時間等)、及び、コンテンツ本編の終了位置を特定する本編終了位置情報(例:冒頭からの経過時間等)が含まれている。
 本実施形態の入力受付部12は、希望切出終了位置を指定する入力として、コンテンツ本編の終了位置を基準にした相対的な位置情報である第2の位置情報(例:本編の終了位置から時間軸(再生した場合の時間軸)の方向に進むフレーム数、又は、時間等)の入力を受付ける。
 切出位置決定部13は、入力受付部12が受付けた入力内容に基づいて希望切出終了位置に対応するフレームを特定する。例えば、切出位置決定部13は、本編終了位置情報を利用して本編の終了位置に対応するフレームを特定した後、第2の位置情報を利用して、当該フレームから時間軸(再生した場合の時間軸)の方向に所定量進んだ位置にあるフレームを希望切出終了位置に対応するフレームとして特定する。その他、特開2010-28435号公報に記載されているテーブルを利用して希望切出終了位置に対応するフレームが特定されてもよい。
 本実施形態によれば、第3、第4及び第5の実施形態と同様の作用効果を実現することができる。
 また、第2の位置情報は予め動画データ編集装置に記憶されていてもよい。このようにしておけば、ユーザによる希望切出終了位置を指定する入力を待つことなく、編集対象動画データの編集が実行可能である。このため、コンピュータによる処理を効率化できるほか、ユーザの作業数を減らす等の効果を実現することができる。
 なお、本実施形態において、第7の実施形態と同様の手段により、入力受付部12が第1の位置情報の入力を受付け、切出位置決定部13が第1の位置情報を利用して希望切出開始位置に対応するフレームを特定してもよい。
<第8の実施形態>
 本実施形態の再生装置は、上述のような動画データ編集装置で編集された編集後動画データを再生する機能を有する。具体的には、編集後動画データに対応付けられた第1の情報を利用して、希望切出開始位置に対応するフレームからの再生を実行する機能を有する。
 図10に本実施形態の再生装置20の機能ブロック図の一例を示す。図示するように、再生装置20は、編集後動画データ取得部21と、第1の情報取得部22と、再生部23とを有する。
 編集後動画データ取得部21は、上述した動画データ編集装置で生成された編集後動画データを取得する。なお、編集後動画データ取得部21は、切出開始位置から希望切出開始位置を特定する情報である第1の情報を生成し、編集後動画データに対応付ける動画データ編集装置で生成された編集後動画データを取得する。編集後動画データ取得部21が取得する編集後動画データは圧縮されている。
 第1の情報取得部22は、第1の情報を取得する。第1の情報は、例えば、編集後動画データを含む動画ファイルに記憶されている。
 再生部23は、編集後動画データを復号し、第1の情報及び編集後動画データを利用して、希望切出開始位置からの再生を実行する。すなわち、再生部23は、切出開始位置から希望切出開始位置を特定する情報である第1の情報と、切出開始位置(Iフレーム)が冒頭のフレームとなっている編集後動画データとを利用して、希望切出開始位置(フレーム)を特定する。そして、再生部23は、希望切出開始位置(フレーム)から編集後動画データを再生する。
 本実施形態によれば、編集前の編集対象動画データに含まれていた対応部分の動画データとの同一性が確保されるように編集された編集後動画データを、編集時にユーザが指定した希望切出開始位置から再生することができる。
<第9の実施形態>
 本実施形態の再生装置は、上述のような動画データ編集装置で編集された編集後動画データを再生する機能を有する。具体的には、編集後動画データに対応付けられた第1の情報及び第2の情報を利用して、希望切出開始位置に対応するフレームから希望切出終了位置に対応するフレームまでの再生を実行する機能を有する。
 図11に本実施形態の再生装置30の機能ブロック図の一例を示す。図示するように、再生装置30は、編集後動画データ取得部31と、第1及び第2の情報取得部32と、再生部33とを有する。
 編集後動画データ取得部31は、上述した動画データ編集装置で生成された編集後動画データを取得する。なお、編集後動画データ取得部31は、切出開始位置から希望切出開始位置を特定する情報である第1の情報、及び、切出終了位置から希望切出終了位置を特定する情報である第2の情報を生成し、編集後動画データに対応付ける動画データ編集装置で生成された編集後動画データを取得する。編集後動画データ取得部31が取得する編集後動画データは圧縮されている。
 第1及び第2の情報取得部32は、第1の情報及び第2の情報を取得する。第1の情報及び第2の情報は、例えば、編集後動画データを含む動画ファイルに記憶されている。
 再生部33は、編集後動画データを復号し、第1の情報、第2の情報及び編集後動画データを利用して、希望切出開始位置から希望切出終了位置までの再生を実行する。すなわち、再生部33は、切出開始位置から希望切出開始位置を特定する情報である第1の情報と、冒頭のフレームが切出開始位置(Iフレーム)となっている編集後動画データとを利用して、希望切出開始位置(フレーム)を特定する。また、再生部33は、切出終了位置から希望切出終了位置を特定する情報である第2の情報と、末尾のフレームが切出終了位置(Iフレーム)となっている編集後動画データとを利用して、希望切出終了位置(フレーム)を特定する。そして、再生部33は、希望切出開始位置(フレーム)から希望切出終了位置(フレーム)まで、編集後動画データを再生する。
 本実施形態によれば、編集前の編集対象動画データに含まれていた対応部分の動画データとの同一性が確保されるように編集された編集後動画データを、編集時にユーザが指定した希望切出開始位置から希望切出終了位置まで再生することができる。
<第10の実施形態>
 本実施形態では、上述した動画データ編集装置10の適用例を説明する。
 図12に本実施形態の全体像を示す。本実施形態では、製作会社A200A、製作会社B200B等の制作会社が制作したCM(Commercial Message)の動画データを、センタシステム100を介して、放送局A300A、放送局B300B等の放送局に搬入するシステムにおいて、動画データ編集装置10を利用する。なお、制作会社は、Long GOP方式で圧縮された圧縮動画データを放送局に納入する。
 近年、CMの動画データを管理する手法がテープからファイルベースに移行しつつある。ファイルベースのデータを放送局に搬入する手段としては、インターネット等のネットワークを利用した手段や、可搬型の記憶装置を介した手段などが考えられる。このようなシステムによれば、様々なメリットが得られる。
 例えば、テープ媒体でCMの動画データを放送局に搬入した場合、各放送局は、当該データを所定のデータ形式(XDCAM、P2、GFPAK等)に変換後、保存、放送することとなる。データ形式の変換によりデータの同一性は損なわれるので、各放送局は放送前に変換後のデータを入念に品質チェックすることとなる。ある制作会社が製作したあるCMの動画データが複数の放送局に搬入される場合があるが、かかる場合、複数の放送局各々がこの1つのCMの動画データの変換及び品質チェックを行うこととなり、非効率的である。
 これに対し、ファイルベースのデータでCMの動画データを放送局に搬入した場合、各放送局は、データ形式を変換する必要がないので、搬入時のデータと放送時のデータの同一性を確保することが可能となる。このため、制作会社が放送局に搬入する前に入念に品質チェックを行い、問題がないものを放送局に搬入するようにすれば、複数の放送局各々における品質チェックを軽減することができる。このように、ファイルベースでの管理は、テープ媒体での管理に比べて、システム全体での効率化が図れる。
 しかし、ファイルベースのデータでCMの動画データを放送局に搬入した場合であっても、搬入された動画データをそのまま保存し、それを利用して放送するのでなく、動画データを編集後、編集後のデータを利用して放送する場合があり得る。
 CMを搬入する際、動画データは、図13に示すような構成とすることが望まれる。すなわち、制作会社は、図13に示すような構成の動画データを製作し、搬入することが望まれる。図13に示す動画データは、CM本編(コンテンツ本編)の前後に付属情報(黒信号、カラーバー、クレジット、ファーストカット、ラストカット等)が付された構成となっている。このうち、実際に放送されるのはCM本編のみである。このため、CMの動画データが搬入された放送局は、CM本編の前後に位置する付属情報の一部を除去する編集を行った後、編集後の動画データを保存しておくことができる。このようにすれば、保存するデータの容量を小さくできて好ましい。
 しかし、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が損なわれてしまうと、各放送局は編集後のデータを入念に品質チェックする必要が出てくる。
 そこで、本実施形態の各放送局は、上述した本実施形態の動画データ編集装置10を利用して、搬入されたCMの動画データを編集する。
 すなわち、図12に示すように、製作会社A200A、製作会社B200B等の制作会社が制作したCMの動画データは、センタシステム100の入送稿サーバ103に搬入される。そして、センタシステム100の入送稿サーバ103から、放送局A300Aの入稿サーバ301A、及び、放送局B300Bの入稿サーバ301B等に、CMの動画データが搬入される。
 放送局A300Aの入稿サーバ301A、及び、放送局B300Bの入稿サーバ301Bに搬入されたCMの動画データは、編集対象動画データとして、動画データ編集装置10のデータ取得部11に取得される。その後、動画データ編集装置10内で上述したような所定の処理が行われた後、第1の情報及び/又は第2の情報が対応付けられた編集後動画データが送稿サーバ302A、302Bに送信され、当該サーバで保存される。
 上記実施形態で説明した通り、本実施形態の動画データ編集装置10によれば、編集後の圧縮動画データと、編集前の圧縮動画データとの間において、対応するフレームのデータの同一性が確保される。
 なお、図示しないが、各放送局は本実施形態の再生装置20を備え、放送時、当該再生装置20を利用して編集後動画データを再生することができる。上記実施形態で説明した通り、本実施形態の再生装置20によれば、編集対象動画データを編集する際にユーザが指定した位置から再生する処理、及び/又は、ユーザが指定した位置まで再生する処理を実現することができる。
 なお、本実施形態の変形例として、図14に示すような構成とすることができる。図14に示す構成では、センタシステム100が動画データ編集装置10を備えている。センタシステム100は、制作会社からセンタ入稿サーバ101に搬入されたCMの動画データを動画データ編集装置10で編集する。そして、編集後のCMの動画データ(編集後動画データ)を、センタ送稿サーバ102を介して各放送局に搬入する。なお、図示しないが、各放送局は本実施形態の再生装置20を備え、放送時、当該再生装置20を利用して編集後のCMの動画データ(編集後動画データ)を再生することができる。
<付記>
 以下、参考形態の例を付記する。
1. フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段と、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段と、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段と、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段と、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段と、
を有する動画データ編集装置。
2. 1に記載の動画データ編集装置において、
 前記希望切出位置特定情報生成手段は、前記第1の情報、及び/又は、前記第2の情報を、前記編集後動画データを含む動画ファイルに記憶する動画データ編集装置。
3. 1又は2に記載の動画データ編集装置において、
 前記切出位置決定手段は、前記希望切出開始位置がIフレームである場合、当該Iフレームを切出開始位置として決定する動画データ編集装置。
4. 1から3のいずれかに記載の動画データ編集装置において、
 前記切出位置決定手段は、前記希望切出終了位置がIフレームである場合、当該Iフレームを切出終了位置として決定する動画データ編集装置。
5. 1から4のいずれかに記載の動画データ編集装置において、
 前記編集対象動画データは、付属情報、及び、コンテンツ本編がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の開始位置を特定する本編開始位置情報が含まれており、
 前記入力受付手段は、前記希望切出開始位置を指定する入力として、前記コンテンツ本編の前記開始位置を基準にした相対的な位置情報である第1の位置情報の入力を受付け、
 前記切出位置決定手段は、前記本編開始位置情報及び前記第1の位置情報を利用して前記希望切出開始位置を特定した後、特定した前記希望切出開始位置に基づいて前記切出開始位置を決定する動画データ編集装置。
6. 1から5のいずれかに記載の動画データ編集装置において、
 前記編集対象動画データは、第1の付属情報、コンテンツ本編、及び、第2の付属情報がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の終了位置を特定する本編終了位置情報が含まれており、
 前記入力受付手段は、前記希望切出終了位置を指定する入力として、前記コンテンツ本編の前記終了位置を基準にした相対的な位置情報である第2の位置情報の入力を受付け、
 前記切出位置決定手段は、前記本編終了位置情報及び前記第2の位置情報を利用して前記希望切出終了位置を特定した後、特定した前記希望切出終了位置に基づいて前記切出終了位置を決定する動画データ編集装置。
7. 1から6のいずれかに記載の動画データ編集装置において、
 前記切出位置決定手段は、前記希望切出開始位置がIフレームでない場合、前記希望切出開始位置よりも時間的に前に位置するIフレームの中の時間的距離が前記希望切出開始位置に最も近いIフレームを前記切出開始位置として決定する動画データ編集装置。
8. 1から7のいずれかに記載の動画データ編集装置において、
 前記切出位置決定手段は、前記希望切出終了位置がIフレームでない場合、前記希望切出終了位置よりも時間的に後に位置するIフレームの中の時間的距離が前記希望切出終了位置に最も近いIフレームを前記切出終了位置として決定する動画データ編集装置。
9. 1から8のいずれかに記載の動画データ編集装置において、
 前記編集対象動画データは、付属情報及びCM本編がこの順に表示される動画データである動画データ編集装置。
10. 1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段と、
 前記第1の情報を取得する第1の情報取得手段と、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段と、
を有する再生装置。
11. 1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段と、
 前記第1の情報及び前記第2の情報を取得する第1及び第2の情報取得手段と、
 前記第1の情報、前記第2の情報及び前記編集後動画データを利用して、前記希望切出開始位置から前記希望切出終了位置までの再生を実行する再生手段と、
を有する再生装置。
12. コンピュータを、
 フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段、
として機能させるためのプログラム。
12-2. 12に記載のプログラムにおいて、
 前記希望切出位置特定情報生成手段に、前記第1の情報、及び/又は、前記第2の情報を、前記編集後動画データを含む動画ファイルに記憶させるプログラム。
12-3. 12又は12-2に記載のプログラムにおいて、
 前記切出位置決定手段に、前記希望切出開始位置がIフレームである場合、当該Iフレームを切出開始位置として決定させるプログラム。
12-4. 12から12-3のいずれかに記載のプログラムにおいて、
 前記切出位置決定手段に、前記希望切出終了位置がIフレームである場合、当該Iフレームを切出終了位置として決定させるプログラム。
12-5. 12から12-4のいずれかに記載のプログラムにおいて、
 前記編集対象動画データは、付属情報、及び、コンテンツ本編がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の開始位置を特定する本編開始位置情報が含まれており、
 前記入力受付手段に、前記希望切出開始位置を指定する入力として、前記コンテンツ本編の前記開始位置を基準にした相対的な位置情報である第1の位置情報の入力を受付けさせ、
 前記切出位置決定手段に、前記本編開始位置情報及び前記第1の位置情報を利用して前記希望切出開始位置を特定させた後、特定した前記希望切出開始位置に基づいて前記切出開始位置を決定させるプログラム。
12-6. 12から12-5のいずれかに記載のプログラムにおいて、
 前記編集対象動画データは、第1の付属情報、コンテンツ本編、及び、第2の付属情報がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の終了位置を特定する本編終了位置情報が含まれており、
 前記入力受付手段に、前記希望切出終了位置を指定する入力として、前記コンテンツ本編の前記終了位置を基準にした相対的な位置情報である第2の位置情報の入力を受付けさせ、
 前記切出位置決定手段に、前記本編終了位置情報及び前記第2の位置情報を利用して前記希望切出終了位置を特定させた後、特定した前記希望切出終了位置に基づいて前記切出終了位置を決定させるプログラム。
12-7. 12から12-6のいずれかに記載のプログラムにおいて、
 前記切出位置決定手段に、前記希望切出開始位置がIフレームでない場合、前記希望切出開始位置よりも時間的に前に位置するIフレームの中の時間的距離が前記希望切出開始位置に最も近いIフレームを前記切出開始位置として決定させるプログラム。
12-8. 12から12-7のいずれかに記載のプログラムにおいて、
 前記切出位置決定手段に、前記希望切出終了位置がIフレームでない場合、前記希望切出終了位置よりも時間的に後に位置するIフレームの中の時間的距離が前記希望切出終了位置に最も近いIフレームを前記切出終了位置として決定させるプログラム。
12-9. 12から12-8のいずれかに記載のプログラムにおいて、
 前記編集対象動画データは、付属情報及びCM本編がこの順に表示される動画データであるプログラム。
13. コンピュータが、
 フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得工程、
 前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付工程と、
 前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定工程と、
 前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去工程と、
 前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成工程と、
を実行する動画データ編集方法。
13-2. 13に記載の動画データ編集方法において、
 前記希望切出位置特定情報生成工程では、前記第1の情報、及び/又は、前記第2の情報を、前記編集後動画データを含む動画ファイルに記憶する動画データ編集方法。
13-3. 13又は13-2に記載の動画データ編集方法において、
 前記切出位置決定工程では、前記希望切出開始位置がIフレームである場合、当該Iフレームを切出開始位置として決定する動画データ編集方法。
13-4. 13から13-3のいずれかに記載の動画データ編集方法において、
 前記切出位置決定工程では、前記希望切出終了位置がIフレームである場合、当該Iフレームを切出終了位置として決定する動画データ編集方法。
13-5. 13から13-4のいずれかに記載の動画データ編集方法において、
 前記編集対象動画データは、付属情報、及び、コンテンツ本編がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の開始位置を特定する本編開始位置情報が含まれており、
 前記入力受付工程では、前記希望切出開始位置を指定する入力として、前記コンテンツ本編の前記開始位置を基準にした相対的な位置情報である第1の位置情報の入力を受付け、
 前記切出位置決定工程では、前記本編開始位置情報及び前記第1の位置情報を利用して前記希望切出開始位置を特定した後、特定した前記希望切出開始位置に基づいて前記切出開始位置を決定する動画データ編集方法。
13-6. 13から13-5のいずれかに記載の動画データ編集方法において、
 前記編集対象動画データは、第1の付属情報、コンテンツ本編、及び、第2の付属情報がこの順に表示される動画データであり、
 前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の終了位置を特定する本編終了位置情報が含まれており、
 前記入力受付工程では、前記希望切出終了位置を指定する入力として、前記コンテンツ本編の前記終了位置を基準にした相対的な位置情報である第2の位置情報の入力を受付け、
 前記切出位置決定工程では、前記本編終了位置情報及び前記第2の位置情報を利用して前記希望切出終了位置を特定した後、特定した前記希望切出終了位置に基づいて前記切出終了位置を決定する動画データ編集方法。
13-7. 13から13-6のいずれかに記載の動画データ編集方法において、
 前記切出位置決定工程では、前記希望切出開始位置がIフレームでない場合、前記希望切出開始位置よりも時間的に前に位置するIフレームの中の時間的距離が前記希望切出開始位置に最も近いIフレームを前記切出開始位置として決定する動画データ編集方法。
13-8. 13から13-7のいずれかに記載の動画データ編集方法において、
 前記切出位置決定工程では、前記希望切出終了位置がIフレームでない場合、前記希望切出終了位置よりも時間的に後に位置するIフレームの中の時間的距離が前記希望切出終了位置に最も近いIフレームを前記切出終了位置として決定する動画データ編集方法。
13-9. 13から13-8のいずれかに記載の動画データ編集方法において、
 前記編集対象動画データは、付属情報及びCM本編がこの順に表示される動画データである動画データ編集方法。
14. コンピュータを、1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段、
 前記第1の情報を取得する第1の情報取得手段、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段、
として機能させるためのプログラム。
15. コンピュータが、1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得工程と、
 前記第1の情報を取得する第1の情報取得工程と、
 前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生工程と、
を実行する再生方法。
16. コンピュータを、1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段、
 前記第1の情報及び前記第2の情報を取得する第1及び第2の情報取得手段、
 前記第1の情報、前記第2の情報及び前記編集後動画データを利用して、前記希望切出開始位置から前記希望切出終了位置までの再生を実行する再生手段、
として機能させるためのプログラム。
17. コンピュータが、1から9のいずれかに記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得工程と、
 前記第1の情報及び前記第2の情報を取得する第1及び第2の情報取得工程と、
 前記第1の情報、前記第2の情報及び前記編集後動画データを利用して、前記希望切出開始位置から前記希望切出終了位置までの再生を実行する再生工程と、
を実行する再生方法。
 この出願は、2013年3月4日に出願された日本特許出願特願2013-41801号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (15)

  1.  フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段と、
     前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段と、
     前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段と、
     前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段と、
     前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段と、
    を有する動画データ編集装置。
  2.  請求項1に記載の動画データ編集装置において、
     前記希望切出位置特定情報生成手段は、前記第1の情報、及び/又は、前記第2の情報を、前記編集後動画データを含む動画ファイルに記憶する動画データ編集装置。
  3.  請求項1又は2に記載の動画データ編集装置において、
     前記切出位置決定手段は、前記希望切出開始位置がIフレームである場合、当該Iフレームを切出開始位置として決定する動画データ編集装置。
  4.  請求項1から3のいずれか1項に記載の動画データ編集装置において、
     前記切出位置決定手段は、前記希望切出終了位置がIフレームである場合、当該Iフレームを切出終了位置として決定する動画データ編集装置。
  5.  請求項1から4のいずれか1項に記載の動画データ編集装置において、
     前記編集対象動画データは、付属情報、及び、コンテンツ本編がこの順に表示される動画データであり、
     前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の開始位置を特定する本編開始位置情報が含まれており、
     前記入力受付手段は、前記希望切出開始位置を指定する入力として、前記コンテンツ本編の前記開始位置を基準にした相対的な位置情報である第1の位置情報の入力を受付け、
     前記切出位置決定手段は、前記本編開始位置情報及び前記第1の位置情報を利用して前記希望切出開始位置を特定した後、特定した前記希望切出開始位置に基づいて前記切出開始位置を決定する動画データ編集装置。
  6.  請求項1から5のいずれか1項に記載の動画データ編集装置において、
     前記編集対象動画データは、第1の付属情報、コンテンツ本編、及び、第2の付属情報がこの順に表示される動画データであり、
     前記編集対象動画データを含む動画ファイルには、前記コンテンツ本編の終了位置を特定する本編終了位置情報が含まれており、
     前記入力受付手段は、前記希望切出終了位置を指定する入力として、前記コンテンツ本編の前記終了位置を基準にした相対的な位置情報である第2の位置情報の入力を受付け、
     前記切出位置決定手段は、前記本編終了位置情報及び前記第2の位置情報を利用して前記希望切出終了位置を特定した後、特定した前記希望切出終了位置に基づいて前記切出終了位置を決定する動画データ編集装置。
  7.  請求項1から6のいずれか1項に記載の動画データ編集装置において、
     前記切出位置決定手段は、前記希望切出開始位置がIフレームでない場合、前記希望切出開始位置よりも時間的に前に位置するIフレームの中の時間的距離が前記希望切出開始位置に最も近いIフレームを前記切出開始位置として決定する動画データ編集装置。
  8.  請求項1から7のいずれか1項に記載の動画データ編集装置において、
     前記切出位置決定手段は、前記希望切出終了位置がIフレームでない場合、前記希望切出終了位置よりも時間的に後に位置するIフレームの中の時間的距離が前記希望切出終了位置に最も近いIフレームを前記切出終了位置として決定する動画データ編集装置。
  9.  請求項1から8のいずれか1項に記載の動画データ編集装置において、
     前記編集対象動画データは、付属情報及びCM(Commercial Message)本編がこの順に表示される動画データである動画データ編集装置。
  10.  請求項1から9のいずれか1項に記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段と、
     前記第1の情報を取得する第1の情報取得手段と、
     前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段と、
    を有する再生装置。
  11.  請求項1から9のいずれか1項に記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段と、
     前記第1の情報及び前記第2の情報を取得する第1及び第2の情報取得手段と、
     前記第1の情報、前記第2の情報及び前記編集後動画データを利用して、前記希望切出開始位置から前記希望切出終了位置までの再生を実行する再生手段と、
    を有する再生装置。
  12.  コンピュータを、
     フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得手段、
     前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付手段、
     前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定手段、
     前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去手段、
     前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成手段、
    として機能させるためのプログラム。
  13.  コンピュータが、
     フレーム間の差分情報を利用して圧縮された編集対象動画データを取得するデータ取得工程、
     前記編集対象動画データの希望切出開始位置、及び/又は、希望切出終了位置を指定する入力を受付ける入力受付工程と、
     前記希望切出開始位置がIフレームでない場合に前記希望切出開始位置よりも時間的に前に位置するIフレームを切出開始位置として決定する処理、及び/又は、前記希望切出終了位置がIフレームでない場合に前記希望切出終了位置よりも時間的に後に位置するIフレームを切出終了位置として決定する処理を行う切出位置決定工程と、
     前記切出開始位置よりも時間的に前に位置する動画データ、及び/又は、前記切出開始位置よりも時間的に後に位置する動画データを前記編集対象動画データから除去して、編集後動画データを生成する除去工程と、
     前記切出開始位置から前記希望切出開始位置を特定する情報である第1の情報、及び/又は、前記切出終了位置から前記希望切出終了位置を特定する情報である第2の情報を生成し、前記編集後動画データに対応付ける希望切出位置特定情報生成工程と、
    を実行する動画データ編集方法。
  14.  コンピュータを、
     請求項1から9のいずれか1項に記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得手段、
     前記第1の情報を取得する第1の情報取得手段、
     前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生手段、
    として機能させるためのプログラム。
  15.  コンピュータが、
     請求項1から9のいずれか1項に記載の動画データ編集装置で生成された前記編集後動画データを取得する編集後動画データ取得工程と、
     前記第1の情報を取得する第1の情報取得工程と、
     前記第1の情報及び前記編集後動画データを利用して、前記希望切出開始位置からの再生を実行する再生工程と、
    を実行する再生方法。
PCT/JP2013/072384 2013-03-04 2013-08-22 動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム WO2014136291A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015504112A JP5954489B2 (ja) 2013-03-04 2013-08-22 動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-041801 2013-03-04
JP2013041801 2013-03-04

Publications (1)

Publication Number Publication Date
WO2014136291A1 true WO2014136291A1 (ja) 2014-09-12

Family

ID=51490839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/072384 WO2014136291A1 (ja) 2013-03-04 2013-08-22 動画データ編集装置、動画データ編集方法、再生装置、再生方法及びプログラム

Country Status (2)

Country Link
JP (2) JP5954489B2 (ja)
WO (1) WO2014136291A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106559678A (zh) * 2015-09-28 2017-04-05 北京视连通科技有限公司 一种对数字视频进行结构化处理的方法
CN111918128A (zh) * 2020-07-23 2020-11-10 上海网达软件股份有限公司 一种云剪辑方法、装置、设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101871797B1 (ko) * 2017-01-31 2018-06-28 (주)다올소프트 동영상 콘텐트에 저작권 정보를 가상 삽입하는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051307A (ja) * 2003-07-29 2005-02-24 Kyocera Corp データ編集装置およびデータ編集方法
JP2007235570A (ja) * 2006-03-01 2007-09-13 Sony Corp データ処理装置、データ処理方法およびデータ処理プログラム、データ構造および記録媒体、ならびに、再生装置、再生方法および再生プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011040827A (ja) * 2009-08-06 2011-02-24 Toshiba Corp 映像収録再生装置及び映像クリップ処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051307A (ja) * 2003-07-29 2005-02-24 Kyocera Corp データ編集装置およびデータ編集方法
JP2007235570A (ja) * 2006-03-01 2007-09-13 Sony Corp データ処理装置、データ処理方法およびデータ処理プログラム、データ構造および記録媒体、ならびに、再生装置、再生方法および再生プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106559678A (zh) * 2015-09-28 2017-04-05 北京视连通科技有限公司 一种对数字视频进行结构化处理的方法
CN111918128A (zh) * 2020-07-23 2020-11-10 上海网达软件股份有限公司 一种云剪辑方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP2016189613A (ja) 2016-11-04
JP5954489B2 (ja) 2016-07-20
JP6269734B2 (ja) 2018-01-31
JPWO2014136291A1 (ja) 2017-02-09

Similar Documents

Publication Publication Date Title
US9478256B1 (en) Video editing processor for video cloud server
US7734660B2 (en) Data processing device
JP4270379B2 (ja) デジタル情報の効率的な伝送および再生
JP3900050B2 (ja) データ処理装置、ビデオカメラ及びデータ処理方法
JP6269734B2 (ja) 動画データ編集装置、動画データ編集方法、再生装置、及びプログラム
JP2006303652A (ja) 情報記録再生システム、情報記録再生装置及び情報記録再生方法
JP4444358B1 (ja) プログレッシブダウンロード再生用プログラム
JP4552802B2 (ja) 記録装置、記録方法、記録方法のプログラム及び記録方法のプログラムを記録した記録媒体
KR20170070111A (ko) 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법
JP2008072182A (ja) 動画像復号化装置、動画像復号化方法、動画像復号化プログラム、動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像符号化復号化装置
JP4537905B2 (ja) 映像装置および映像編集システム
JP2010245756A (ja) 通信ネットワークシステム、コンテンツ再生方法、及びサーバ
CN1894746B (zh) 数据处理装置以及数据处理方法
Kikuchi et al. Development of full-featured 8K recorder
JP4038872B2 (ja) 映像信号符号化システム
CN103310815A (zh) 再现装置和再现装置的控制方法
JP2006262320A (ja) 映像素材転送方法と映像素材転送送り側装置及び映像素材転送受け側装置
JP5703532B2 (ja) トランスコード装置
JP5899718B2 (ja) 情報処理システム、情報処理装置及び情報処理プログラム
WO2021002303A1 (ja) 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
JP2007060480A (ja) 逆方向再生方法、再生装置、逆方向再生プログラムおよび逆方向再生プログラムを記録した記録媒体
CN114143601A (zh) 裁剪视频的方法、装置、电子设备、存储介质及程序产品
CN113747248A (zh) 基于直播流剪辑的快速合成方法、装置及系统
JP5326724B2 (ja) 映像処理装置および映像処理装置の制御プログラム
JP2012147110A (ja) 映像データ処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876897

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015504112

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13876897

Country of ref document: EP

Kind code of ref document: A1