WO2017002832A1 - 編集装置、編集方法および記録媒体 - Google Patents

編集装置、編集方法および記録媒体 Download PDF

Info

Publication number
WO2017002832A1
WO2017002832A1 PCT/JP2016/069204 JP2016069204W WO2017002832A1 WO 2017002832 A1 WO2017002832 A1 WO 2017002832A1 JP 2016069204 W JP2016069204 W JP 2016069204W WO 2017002832 A1 WO2017002832 A1 WO 2017002832A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
operation information
contents
selection
time
Prior art date
Application number
PCT/JP2016/069204
Other languages
English (en)
French (fr)
Inventor
祐 高橋
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2017002832A1 publication Critical patent/WO2017002832A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the present invention relates to an editing apparatus, an editing method, and a recording medium for selecting a desired portion from each of a plurality of contents and editing one composite content.
  • Non-Patent Documents 1 and 2 a user selects video information and audio information from a plurality of reproduced contents while reproducing a plurality of contents including video information and audio information.
  • one time-series composite content is edited.
  • Non-Patent Documents 1 and 2 when the user is not satisfied with the editing result of the composite content, the user needs to repeat the operation of editing one composite content from a plurality of contents again. For this reason, there was a problem that the repeated work was troublesome.
  • the present invention has been made in view of the circumstances as described above, and technical means for facilitating re-editing of one composite content edited from a plurality of contents including time-series information such as video information and audio information.
  • the purpose is to provide.
  • an aspect of the editing apparatus is an operation for acquiring operation information corresponding to an operation performed by a user on a timeline representing a time series for a plurality of contents constituting composite content.
  • An information acquisition unit and a composite content editing unit that edits the composite content based on the operation information are included.
  • the composite content is edited in response to an operation on the timeline representing the time series of the content constituting the composite content. Accordingly, it is possible to easily re-edit one composite content edited from a plurality of contents.
  • FIG. 4 is a diagram illustrating an interface screen displayed on a display unit 60.
  • FIG. It is a figure which illustrates the structure of the time series selection information.
  • 5 is a flowchart showing processing contents of an interface program 121.
  • 10 is a flowchart showing processing contents of a reproduction program 122; It is the figure which illustrated the interface screen displayed on the display part 60 by the process of step S123. It is the figure which illustrated timeline area 603 before processing of Step S126. It is the figure which illustrated timeline area 603 after processing of Step S126. It is the figure which illustrated timeline area 603 after processing of Step S126.
  • FIG. 1 is a block diagram showing a configuration of a personal computer (hereinafter referred to as a personal computer) 100 in which an interface program 121 for realizing an editing apparatus according to an embodiment of the present invention is installed.
  • the personal computer 100 includes an HDD (Hard Disk Drive) 10, a ROM 20, a RAM 30, a CPU 40, an operation unit 50, a display unit 60, a sound system 70, a communication interface 80, and a memory card interface 90.
  • HDD Hard Disk Drive
  • the HDD 10 is a non-volatile storage device for storing various application programs and data.
  • the HDD 10 is an example of a computer-readable recording medium.
  • the HDD 10 is a non-transitory recording medium.
  • the recording medium is not limited to the HDD, and may be another recording medium (for example, a known arbitrary type recording medium such as an optical recording medium or a semiconductor recording medium).
  • “non-transitory” recording media include all computer-readable recording media except transient propagation signals (transitory, “propagating” signal), and are volatile recording media. Is not excluded.
  • an interface program 121 and a reproduction program 122 are installed in the HDD 10 as application programs.
  • the communication interface 80 is, for example, a LAN interface.
  • the interface program 121 and the playback program 122 in this embodiment are installed in the HDD 10 from a server on the Internet, for example, via the communication interface 80.
  • the ROM 20 is a nonvolatile storage device that stores a basic control program such as a loader.
  • the RAM 30 is a volatile storage device used as a work area by the CPU 40.
  • the CPU 40 loads the application program in the HDD 10 into the RAM 30 and executes it.
  • FIG. 1 an operation information acquisition unit 1211, a composite content editing unit 1212, a reproduction instruction unit 1213, and an output control unit 122 are illustrated in a box indicating the CPU 40.
  • the operation information acquisition unit 1211, the composite content editing unit 1212, and the reproduction instruction unit 1213 are realized by the CPU 40 executing the interface program 121.
  • the output control unit 122 is realized by the CPU 40 executing the reproduction program 122.
  • the CPU 40 is an example of an editing device.
  • the memory card interface 90 is an SD memory card slot, for example, and is connected to an external memory card. In this embodiment, performance scenes such as concerts are recorded and recorded from different viewpoints by a plurality of recording and recording devices such as smartphones.
  • time-series data contents composed of video information obtained by recording and sound information obtained by recording are respectively written in the SD memory card.
  • Each SD memory card written by each recording / recording apparatus is connected to the memory card interface 90. Subsequently, each content in each SD memory card is read by the CPU 40. Subsequently, the CPU 40 stores each content in the HDD 10.
  • contents CAV_1 to CAV_4 stored in this manner are shown in a box indicating the HDD 10.
  • the contents CAV_1 to CAV_4 are examples of a plurality of selection candidate contents.
  • the plurality of selection candidate contents are not limited to four contents, but may be two or more contents.
  • the display unit 60 includes, for example, a liquid crystal display panel and its drive circuit.
  • the display unit 60 displays various information on the screen under the control of the CPU 40.
  • the operation unit 50 is a pointing device such as a mouse.
  • the CPU 40 detects a user operation performed on the operation unit 50 and acquires operation information corresponding to the operation.
  • the sound system 70 includes a D / A converter that converts a digital sound signal supplied from the CPU 40 into an analog sound signal, an amplifier that amplifies the analog sound signal, and a speaker that is driven by the amplifier.
  • FIG. 2 is a diagram illustrating an interface screen displayed on the display unit 60.
  • a content display area 601, an operation button area 602, and a timeline area 603 are provided on the display screen of the display unit 60.
  • the content CAV_1 video is displayed on the upper left of the content display area 601 above the display unit 60
  • the content CAV_2 video is displayed on the upper right
  • the content CAV_3 video is displayed on the lower left
  • the content CAV_4 video is displayed on the lower right.
  • the number of the content is displayed above the video of each content.
  • a play button 602a In the operation button area 602 below the display unit 60, a play button 602a, a rewind button 602b, a stop button 602c, and a fast forward button 602d are displayed in order from the left.
  • a timeline 603a is displayed in the timeline area 603, a timeline 603a is displayed.
  • the timeline 603a is a visualization of the time series selection information 13. The time series selection information 13 will be described later.
  • the main functions of the interface program 121 in this embodiment are as follows. ⁇ a. Functions as operation information acquisition unit 1211 and composite content editing unit 1212 >> The interface program 121 causes the CPU 40 to function as an operation information acquisition unit 1211 that acquires operation information supplied from the operation unit 50. The interface program 121 causes the CPU 40 to function as the composite content editing unit 1212. The composite content editing unit 1212 generates the time series selection information 13 in the RAM 30 based on the operation information acquired by the operation information acquisition unit 1211 and edits the generated time series selection information 13 (composite content).
  • the time series selection information 13 is based on the operation information acquired by the operation information acquisition unit 1211, the content selected from the contents CAV_1 to CAV_4 (hereinafter referred to as “selected content”), the time series of the selected contents, , Indicate. Since the selected content is a constituent element of the composite content, the time-series selection information 13 represents the composite content having at least two selected contents as constituent elements and the time series of the selected content in the composite content.
  • FIG. 3 is a diagram illustrating a configuration of the time series selection information 13.
  • Each block kn includes a selection time tn and a selection content xn.
  • the selected content xn is the number of the content selected by the user among the content CAV_1 to CAV_4.
  • the selection time tn is the reproduction start time of the selected content xn of the block kn to which the selection time tn belongs.
  • the composite content editing unit 1212 edits the time-series selection information 13 (information indicating the composite content) generated in the RAM 30 in this manner based on the operation information acquired by the operation information acquisition unit 1211. Specifically, the composite content editing unit 1212 deletes an arbitrary block among the blocks k1, k2,..., Changes the selection time, and changes the selected content. The composite content is changed as the time-series selection information 13 is changed.
  • the timeline 603a shown in FIG. 2 is information obtained by visualizing the time-series selection information 13 generated and edited by the composite content editing unit 1212 in this way.
  • a timeline 603a shown in FIG. 2 is configured by a display portion (stripes) 603a1 divided into a plurality of rectangles on which numerals are written, and a straight line 603a2 having a black dot 603a3 positioned below the display portion (stripes) 603a1.
  • segmented the display part 603a1 has shown the blocks k1, k2, ... of the time series selection information 13.
  • FIG. Each rectangular number indicates the selected content x1, x2,... In each block.
  • each rectangle indicating each block is the time from the selection time tn in the block kn to the selection time tn + 1 in the next block kn + 1, that is, the start time of the selected content in the block Represents the time from to the end time.
  • a black point 603a3 on the straight line 603a2 below the display portion 603a1 indicates the current time on the time axis.
  • the reproduction instruction unit 1213 supplies a reproduction instruction to the output control unit 1221 when the operation information acquisition unit 1211 acquires operation information indicating the operation of the reproduction button 602 a in the operation button area 602.
  • the reproduction instruction unit 1213 supplies a rewind instruction to the output control unit 1221 when the operation information acquisition unit 1211 acquires operation information indicating the operation of the rewind button 602 b in the operation button area 602.
  • the reproduction instruction unit 1213 supplies a stop instruction to the output control unit 1221 when the operation information acquisition unit 1211 acquires operation information indicating the operation of the stop button 602 c in the operation button area 602.
  • the reproduction instruction unit 1213 supplies a fast-forward instruction to the output control unit 1221.
  • the function of the reproduction program 122 (output control unit 1221) in the present embodiment is as follows. First, when a reproduction instruction is given from the reproduction instruction unit 1213, the output control unit 1221 reproduces the contents CAV_1 to CAV_4 in parallel while updating the time information 14 in the RAM 30 as time elapses. Then, the output control unit 1221 displays a video corresponding to each video information of the reproduced contents CAV_1 to CAV_4 in the content display area 601 of the display unit 60. Further, the output control unit 1221 monitors the time information 14, and when the time indicated by the time information 14 reaches the selection time tn of any block kn of the time-series selection information 13, the video of each content in the content display area 601.
  • the video corresponding to the selected content xn of the block kn is reproduced and displayed.
  • the reproduction display is a display mode in which, for example, the content number of the selected content xn in the content display area 601 is colored.
  • the output control unit 1221 supplies the sound system 70 with the acoustic information of the selected content xn of the block kn among the acoustic information of each content in the content display area 601.
  • the output control unit 1221 gradually increases the sound reproduction volume according to the acoustic information of the subsequent selected content while gradually decreasing the sound reproduction volume according to the acoustic information of the preceding selected content.
  • Crossfade playback may be performed.
  • the above is the configuration of the present embodiment.
  • FIG. 4 is a flowchart showing the processing contents of the operation information acquisition unit 1211 composite content editing unit 1212 and the playback instruction unit 1213 realized by executing the interface program 121.
  • FIG. 5 is a flowchart showing the processing contents of the output control unit 1221 realized by executing the reproduction program 122. The operation of this embodiment will be described below with reference to these flowcharts.
  • the operation information acquisition unit 1211 when a predetermined operation is performed on the operation unit 50, the CPU 40 activates the interface program 121 and the reproduction program 122.
  • the operation information acquisition unit 1211 first performs initialization. Specifically, the operation information acquisition unit 1211 supplies an instruction to display the initial screen of the interface screen on the display unit 60 to the output control unit 1221 (step S101). Next, the operation information acquisition unit 1211 determines whether operation information has been acquired from the operation unit 50 (step S102). If the result of the determination in step S102 is “NO”, the operation information acquisition unit 1211 executes the process in step S102 again.
  • step S102 When operation information is acquired from the operation unit 50 and the result of the determination in step S102 is “YES”, the operation information acquisition unit 1211 determines whether or not the operation information indicates an operation to each operation button in the operation button area 602. Is determined (step S103). If the result of determination in step S103 is “NO”, the composite content editing unit 1212 determines whether or not the operation information indicates an operation on the timeline 603a (step S104). If the result of determination in step S104 is “NO”, the composite content editing unit 1212 determines whether or not the operation information indicates a content selection operation, that is, a click operation on the video of each content in the content display area 601. Is determined (step S105).
  • step S105 determines whether or not the operation information indicates an end operation, that is, an operation for instructing the end of execution of the interface program 121. (Step S108). If the result of the determination in step S108 is “NO”, the process returns to step S102. If the result of the determination in step S108 is “YES”, the CPU 40 ends the execution of the interface program 121. As described above, when it is detected that the operation information acquired in step S103 is not an operation on each operation button in the operation button area 602, the composite content editing unit 1212 executes determination regarding the operation information.
  • step S103 when the operation information acquired in step S103 is an operation to each operation button in the operation button area 602 (step S103: YES), an instruction corresponding to the type of the operated operation button is given as the reproduction instruction unit 1213. Is executed (step S111).
  • step S201 the output control unit 1221 performs initialization (step S201).
  • the output control unit 1221 sets the current control state to the stop control state, and sets the time information 14 in the RAM 30 to zero.
  • the output control unit 1221 is the default time series selection information 13, specifically, a block in which the selection time t 1 is 0 and the selection content x 1 is 1 Time series selection information 13 composed only of k1 is generated, and default time series selection information 13 is written in the RAM 30.
  • step S210 the output control unit 1221 determines whether any instruction is received from the reproduction instruction unit 1213 (step S210).
  • step S220 the output control unit 1221 performs determination regarding the current control state (step S220). If the control state is other than the regeneration control state, the output control unit 1221 executes processing according to the control state in step S240. For example, when the control state is the stop control state, the output control unit 1221 performs no processing in step S240.
  • step S241 the output control unit 1221 executes an update process of the time information 14 according to the current control state. For example, when the control state is the stop control state, the output control unit 1221 maintains the current time information 14 in step S241.
  • step S241 ends, the process of the output control unit 1221 returns to step S210.
  • step S111 When the user performs a click operation on the playback button 602a of the display unit 60, the result of determination in step S103 shown in FIG. 4 is “YES”, and the playback instruction unit 1213 outputs an instruction according to the type of the operation button.
  • the data is sent to the control unit 1221 (step S111).
  • the playback instruction unit 1213 gives a playback instruction to the output control unit 1221 in step S111.
  • step S111 ends, the process returns to step S102.
  • step S210 the determination result in step S210 shown in FIG. 5 is “YES”, and the output control unit 1221 executes processing corresponding to the received instruction (step S211).
  • step S211 the output control unit 1221 sets the control state to the reproduction control state.
  • step S230 the output control unit 1221 reads a part of the content composed of video information and audio information having a predetermined time length starting from the time indicated by the current time information 14, from the contents CAV_1 to CAV_4. Based on the time-series selection information 13, the video reproduction and sound reproduction are controlled.
  • the output control unit 1221 reproduces and displays the video of the content CAV_1 in the content display area 601. Further, the output control unit 1221 supplies the sound information of the content CAV_1 to the sound system 70.
  • step S231 when the process proceeds to step S231, the output control unit 1221 advances the time information 14 by the time length of the video information and the audio information reproduced in step S230.
  • step S231 ends, the process of the output control unit 1221 returns to step S210. Then, while the control state is the regeneration control state, the output control unit 1221 repeats the processes of steps S210, S220, S230, and S231.
  • the user can perform the content selection operation while the contents CAV_1 to CAV_4 are reproduced in this way, generate the time-series selection information 13, and store it in the RAM 30.
  • the operation will be described below.
  • the content selection operation includes a click operation on a location where each content is displayed in the content display area 601, its surroundings, and a location where the number of each content is displayed.
  • the composite content editing unit 1212 acquires the time information 14 from the RAM 30 (step S106). Then, the composite content editing unit 1212 obtains the number of the clicked content based on the operation information. Subsequently, the composite content editing unit 1212 generates a block having the content number as the selected content and the time information 14 acquired in step S106 as the selected time, and this block is stored in the time-series selection information 13 in the RAM 30. It adds (step S107). Then, the process proceeds to step S108.
  • the content selected by the user and a block indicating the selection time are added to the time-series selection information 13, and the time corresponding to the time-series selection information 13 after the addition of the block.
  • a line 603a is displayed in the timeline area 603. The display of the timeline 603a corresponding to the time series selection information 13 is executed by the output control unit 1221.
  • the user can re-edit the composite content indicated by the time-series selection information 13 by editing the time-series selection information 13 generated in this way.
  • this operation will be described.
  • the composite content editing unit 1212 determines whether or not the operation information is an operation for a prohibited section (step S121).
  • the forbidden section refers to a section within a predetermined time before and after the current time as a reference in the timeline 603a.
  • the section from the time t0-tm to the time t0 + tm on the timeline 603a is a prohibited section.
  • the portion corresponding to the prohibited section is the portion corresponding to the current time, that is, the currently displayed portion (video portion) and the display. It is composed of a part immediately after being performed (video part) and a part immediately before being displayed (video part).
  • the prohibited section is an example of a portion corresponding to a period specified on the basis of the current location in the timeline 603a.
  • step S121 determines whether the determination result of step S121 is “YES”.
  • the composite content editing unit 1212 executes the process of step S102 again.
  • the composite content editing unit 1212 does not perform any processing for the operation to the prohibited section of the timeline 603a. That is, the composite content editing unit 1212 invalidates the operation information corresponding to the operation without editing the composite content for the operation to the prohibited section of the timeline 603a.
  • the composite content editing unit 1212 determines whether or not the operation information acquired in step S102 indicates a click on the timeline 603a (more specifically, a single click). (Step S122).
  • Single click is an example of a user's second selection operation.
  • the operation information indicating a single click on the timeline 603a is an example of second selection information corresponding to the user's second selection operation for any of the identifiers of the selected content.
  • the composite content editing unit 1212 obtains the click position in the timeline 603a based on the operation information acquired in step S102.
  • the composite content editing unit 1212 acquires the number of the selected content xn included in the block kn of the time-series selection information 13 corresponding to the click position.
  • the composite content editing unit 1212 then gives a highlight display instruction for highlighting the video of the numbered content in the content display area 601 of the display unit 60 and the number in the rectangle corresponding to the block kn of the timeline 603a.
  • the data is output to the output control unit 1221.
  • the output control unit 1221 Upon receiving the highlight display instruction, the output control unit 1221 receives the numbered content video in the content display area 601 of the display unit 60 and the number in the rectangle corresponding to the block kn of the timeline 603a according to the highlight display instruction. Are highlighted (step S123).
  • FIG. 6 is a diagram exemplifying an interface screen displayed on the display unit 60 by the process of step S123.
  • the operation information acquired in step S102 is information obtained by clicking the number 2 rectangle on the timeline 603a. Therefore, as shown in FIG. 6, the periphery of the video of the content CAV_2 in the content display area 601 is surrounded by a thick frame, and the periphery of the number 2 rectangle of the timeline 603a is also surrounded by a thick frame. If the operation information acquisition unit 1211 determines that the operation information supplied from the operation unit 50 has been acquired after the process of step S123 (step S124: YES), the composite content editing unit 1212 displays the operation information acquired in step S124 as a timeline.
  • step S125 It is determined whether or not double click 603a is indicated.
  • the double click is an example of the first operation of the user. Note that the first operation of the user is not limited to a double click and can be changed as appropriate.
  • the composite content editing unit 1212 executes the process of step S102 again.
  • the composite content editing unit 1212 obtains the double-click position in the timeline 603a based on the operation information acquired in step S124. Then, the composite content editing unit 1212 releases the block kn of the time series selection information 13 corresponding to the double click position (step S126).
  • the composite content editing unit 1212 supplies an instruction to change the timeline 603a to the output control unit 1221.
  • the output control unit 1221 changes the display mode of the timeline 603a according to the change of the time series selection information 13.
  • FIG. 7A is a diagram illustrating a timeline area 603 before processing in step S125.
  • 7B to 7D are diagrams illustrating the timeline area 603 after the process of step S125.
  • the number 2 on the timeline 603a is double-clicked.
  • the selected content xn included in the block kn of the time-series selection information 13 corresponding to the double click position is rewritten from the content CAV_2 to the content CAV_3 of the immediately preceding block kn-1. ing.
  • FIG. 7A is a diagram illustrating a timeline area 603 before processing in step S125.
  • 7B to 7D are diagrams illustrating the timeline area 603 after the process of step S125.
  • the number 2 on the timeline 603a is double-clicked.
  • the selected content xn included in the block kn of the time-series selection information 13 corresponding to the double click position is rewritten from the content CAV_2 to the content CAV_3 of the immediately preceding block k
  • the combined content editing unit 1212 converts the selected content xn included in the block kn of the time-series selection information 13 corresponding to the double click position to the block kn + 1 immediately after the content CAV_2 in the process of step S126.
  • the composite content editing unit 1212 deletes only the selected content xn included in the block kn of the time-series selection information 13 corresponding to the double click position in the process of step S126.
  • the composite content editing unit 1212 performs one of the processes shown in FIGS. 7B to 7D. In a preferred embodiment, which process is to be executed is selected by operating the operation unit 50. When the process of step S126 is completed, the composite content editing unit 1212 executes the process of step S102 again.
  • step S122 When the determination result in step S122 is “NO”, the composite content editing unit 1212 indicates that the operation information acquired in step S102 indicates dragging of any boundary of the timeline 603a (vertical line dividing the timeline into rectangles) 603a4. Whether or not (step S131).
  • the boundary 603a4 is an example of a boundary portion indicating a temporal boundary between the selected contents. Dragging the boundary 603a4 is an example of an operation for moving the boundary.
  • the composite content editing unit 1212 obtains the drag position locus based on the operation information.
  • the composite content editing unit 1212 changes the selection time tn of the block kn of the time-series selection information 13 corresponding to the start point of the drag position locus to the selection time tn ′ corresponding to the end point of the drag position locus ( Step S132).
  • FIG. 8A is a diagram illustrating a timeline area 603 before the processing in step S132.
  • FIG. 8B is a diagram illustrating a timeline area 603 after the process of step S132.
  • the operation information is information obtained by dragging the boundary 603a4 between the number 3 rectangle and the number 2 rectangle.
  • the composite content editing unit 1212 selects the selection time tn included in the block kn of the time-series selection information 13 corresponding to the operation information later than the current selection time tn in the process of step S132. The time is changed to tn ′. Therefore, in the timeline 603a shown in FIG.
  • step S132 executes the process of step S102 again.
  • step S141 the composite content editing unit 1212 determines whether or not the operation information acquired in step S102 indicates a long press on the timeline 603 (step S141).
  • Long press is an example of a user's first selection operation.
  • the operation information indicating the long press on the timeline 603 is an example of first selection information corresponding to the user's first selection operation for any of the identifiers. If the determination result of step S141 is “NO”, the process returns to step S102. When the result of the determination in step S141 is “YES”, the composite content editing unit 1212 obtains the long press position on the timeline 603 based on the operation information acquired in step S102.
  • the composite content editing unit 1212 obtains the block kn of the time series selection information 13 to which the time corresponding to the long press position belongs. Then, the composite content editing unit 1212 searches for a reproducible content at the selection time tn of the block kn (step S142).
  • the content that can be reproduced at the selection time tn of the block kn is content having time information indicating the time belonging to the time zone from the selection time tn of the block kn to the selection time tn + 1 of the block kn + 1 among the contents CAV_1 to CAV_4. It is.
  • the reproducible content is an example of replaceable content that is replaceable with the selected content of the block kn.
  • the composite content editing unit 1212 newly displays the number of the content that can be reproduced at the selection time tn of the block kn of the time-series selection information 13 corresponding to the operation information in a balloon display above the timeline 603a. Is output to the output control unit 1221. Upon receiving this display instruction, the output control unit 1221 sets the number of the content that can be reproduced at the selection time tn of the block kn of the time-series selection information 13 corresponding to the operation information in accordance with the display instruction above the timeline 603a. New display with balloon display.
  • FIG. 9 is a diagram illustrating the timeline area 603 after the process of step S142.
  • the operation information is information obtained by long-pressing the number 2 rectangle on the timeline 603a.
  • the composite content editing unit 1212 searches for content that can be reproduced at the selection time tn of the block kn of the time-series selection information 13 corresponding to the operation information in the process of step S142, and the content specified by the search Were CAV_1, CAV_3 and CAV_4.
  • the numbers (identifiers) 1, 3, and 4 are newly displayed in a balloon display above the timeline 603a.
  • the display of the number of the searched content is not limited to the balloon display as shown in FIG. 9, and any mode may be used as long as the user can select the number.
  • step S143 the composite content editing unit 1212 determines whether operation information for selecting the newly displayed content number has been acquired.
  • the operation information for selecting the newly displayed content number is an example of the second operation information corresponding to the user's second operation on one of the one or more replaceable content identifiers.
  • the composite content editing unit 1212 executes the process of step S143 again.
  • the composite content editing unit 1212 obtains the number of the content selected by the user based on the operation information acquired in step S143.
  • the composite content editing unit 1212 overwrites the selected content xn of the block kn of the time-series selection information 13 obtained from the operation information acquired in step S141 with the content number selected by the user (step S144). Then, the composite content editing unit 1212 supplies an instruction to change the timeline 603a to the output control unit 1221.
  • the output control unit 1221 changes the display mode of the timeline 603a according to the update of the time-series selection information 13 (overwrite update of the number of the selected content).
  • the composite content editing unit 1212 executes the process of step S102. The above is the operation of the present embodiment.
  • the user generates time-series selection information 13 for sequentially selecting and playing back a plurality of contents, and then selects the generated time-series selection by operating the operation unit 50.
  • the composite content can be re-edited by editing the information 13. Accordingly, it is possible to easily re-edit one composite content edited from a plurality of contents.
  • one composite content is edited from the contents CAV_1 to CAV_4.
  • the number of contents is not necessarily limited to four.
  • the application object of this invention is not restricted to the content which consists of video
  • the present invention can also be applied to content having video information without audio information, content having audio information without video information, and content having time-series information that is neither video information nor audio information. It is.
  • the output control unit 1221 displays the selected contents (selected contents) by displaying the numbers 1 to 4 of the contents CAV_1 to CAV_4 on the timeline 603a in which the time series selection information 13 is visualized. showed that.
  • the output control unit 1221 may display the color associated with the contents CAV_1 to CAV_4 in the vicinity of the video of each content instead of displaying the content numbers 1 to 4 as the identifier of the selected content. For example, the output control unit 1221 associates the content CAV_1 with purple, the content CAV_2 with blue, the content CAV_3 with light blue, and the content CAV_4 with green.
  • the output control unit 1221 displays the area above the upper left content CAV_1 in the content display area 601 in purple on the interface screen illustrated in FIG. 2 and displays the upper area above the upper right content CAV_2 in blue.
  • the upper area of the lower left content CAV_3 is displayed in light blue
  • the upper area of the lower right content CAV_4 is displayed in purple.
  • the output control unit 1221 changes the display colors of the rectangles corresponding to the respective blocks of the time series selection information 13 to, for example, purple, green, purple, light blue,.
  • a display color corresponding to the selected content of the block may be used. In this case, color is used as the identifier of the selected content.
  • the output control unit 1221 may display the area above the video of each content or the area in each rectangle of the timeline 603a with a texture associated with the content.
  • a texture is used as the identifier of the selected content. 4
  • the number of the selected content xn included in the block kn of the time-series selection information 13 corresponding to the click position on the timeline 603a is acquired, and the number in the content display area 601 of the display unit 60 is acquired.
  • the video of the numbered content and the number in the rectangle corresponding to the block kn of the timeline 603a are highlighted.
  • other modes other than highlighting for example, changing the shape of the frame, changing the size of the number may be used.
  • the operation unit 50 is a pointing device such as a mouse
  • the display unit 60 is a liquid crystal display panel and its drive circuit.
  • a configuration in which the operation unit 50 and the display unit 60 are integrated, for example, an integrated configuration of a touch panel and its drive circuit may be used.
  • the composite content editing unit 1212 determines whether or not the operation information acquired in step S102 indicates a touch on the timeline 603a.
  • the composite content editing unit 1212 determines whether the operation information acquired in step S102 indicates a flick to the timeline 603a.
  • the composite content editing unit 1212 determines whether the operation information acquired in step S102 indicates a swipe to the timeline 603a.
  • touch is an example of a user's second selection operation.
  • the flick is an example of the first operation of the user.
  • Swipe is an example of an operation of moving the boundary.
  • step S221 the time series selection information 13 including only the block k1 having the selection time t1 of 0 and the selection content x1 of 1 is generated as the default time series selection information 13. It was.
  • the default time series selection information 13 is not necessarily limited to this.
  • the time-series selection information 13 including only the block k1 whose selection time t1 is 0 and the selection content x1 is 4 may be generated.
  • the default time-series selection information 13 may be supplied from the outside of the personal computer 100 through the communication interface 80, the memory card interface 90, or the like.
  • the order of steps S122 to S126 and the steps after step S131 may be interchanged.
  • the composite content editing unit 1212 may perform the processes in and after step S131 before the processes in steps S122 to S126.
  • the order of steps S131 to S132 and steps S141 to S144 may be interchanged. That is, if the diagnosis result in step S122 is “NO”, the composite content editing unit 1212 may perform the process in step S141 prior to the processes in steps S131 to S132.
  • timeline 603a is displayed in the timeline area 603.
  • a timeline other than the timeline 603a is displayed in the timeline area 603
  • a plurality of timelines are displayed in the timeline area 603.
  • the timeline may be displayed.
  • one or more timelines that visualize the contents CAV_1 to CAV_4 may be displayed separately.
  • the selection time tn is the reproduction start time of the selected content xn of the block kn to which the selection time tn belongs, but may be the reproduction end time of the selected content xn.
  • the output control unit 1221 reproduces the contents CAV_1 to CAV_4 according to the time series selection information 13.
  • the output control unit 1221 may store the content reproduced by the output control unit 1221 in the HDD 10. Good.
  • the means for carrying out the present invention is the operation information acquisition unit 1211, the composite content editing unit 1212, and the reproduction instruction unit 1213 realized by the interface program 121 that is a computer program.
  • the mode of the means for carrying out the present invention is not limited to the computer program. All or part of the operation information acquisition unit 1211 and the composite content editing unit 1212 may be realized by an electronic circuit, for example.
  • the composite content editing unit 1212 changes the start time or end time of the content included in the composite content based on operation information corresponding to the user operation on the timeline 603a. According to this aspect, the start time or end time of the selected content included in the composite content can be easily changed by an operation on the timeline 603a.
  • the timeline 603a has a boundary (boundary part) 603a4 indicating a temporal boundary between contents.
  • the composite content editing unit 1212 changes the start time or the end time of the content according to the movement of the boundary 603a4 when the operation information is movement operation information according to the operation of moving the boundary 603a4 in the timeline 603a.
  • the start time or the end time of the content included in the composite content can be changed with a simple operation of moving the content boundary 603a4.
  • the composite content editing unit 1212 changes or deletes one of at least two contents included in the composite content to another content of the plurality of selection candidate contents based on the operation information.
  • the selected content included in the composite content can be easily changed to another content or can be easily deleted by an operation on the timeline 603a.
  • the timeline 603a represents the time series of content using the content identifier.
  • the composite content editing unit 1212 selects the content corresponding to the identifier that has received the first operation as a plurality of selection candidates. Change to another content or delete it.
  • the content corresponding to the identifier can be easily changed to another content or can be easily deleted by operating the identifier in the timeline 603a.
  • the plurality of contents CAV_1 to CAV_4 have time information indicating the time.
  • the operation information acquisition unit 1211 further acquires first selection information corresponding to the user's first selection operation for any of the identifiers.
  • the composite content editing unit 1212 further determines that the time indicated by the time information from among the plurality of contents CAV_1 to CAV_4 is based on the first selection information from the start time of the content corresponding to the identifier subjected to the first selection operation.
  • One or more replaceable contents (reproducible contents) belonging to the time period up to the end time are specified, and the identifier of the replaceable contents is newly displayed on the display unit 60. According to this aspect, the user can easily recognize the replaceable content.
  • the composite content editing unit 1212 responds to the identifier that has received the first selection operation.
  • the changed content is changed to replaceable content corresponding to the identifier that has received the second operation.
  • the user can easily change the content corresponding to the identifier subjected to the first selection operation to the replaceable content corresponding to the identifier subjected to the second operation.
  • the operation information acquisition unit 1212 further acquires second selection information corresponding to the user's second selection operation for any of the identifiers.
  • the composite content editing unit 1212 further displays, in accordance with the second selection information, a display mode of the corresponding selection content according to the identifier that has received the second selection operation, and content that is different from the corresponding selection content among the plurality of selection candidate contents
  • the display mode is different. According to this aspect, the content selected by the user using the timeline 603a can be highlighted.
  • the plurality of contents CAV_1 to CAV_4 are displayed on the display unit 60, and the composite content editing unit 1212 sets the display mode on the timeline 302a of the identifier that has received the second selection operation as the identifier that has received the second selection operation. Is different from the display mode in the timeline 302a of a different identifier.
  • the content selected by the user using the timeline 603a can be conspicuous on the timeline 603a.
  • the composite content editing unit 1212 Disable operation information without editing content.
  • a content portion that is difficult to edit a content portion that is currently displayed, a content portion that has just been displayed, It is possible to avoid editing the content portion immediately before being displayed).

Abstract

複数のコンテンツから編集された1つの合成コンテンツの再編集を容易にする。編集装置は、合成コンテンツを構成する複数のコンテンツの時系列を表すタイムラインに対してユーザが行った操作に応じた操作情報を取得する操作情報取得部(1211)と、操作情報に基づいて合成コンテンツを編集する合成コンテンツ編集部(1212)と、を含む。

Description

編集装置、編集方法および記録媒体
 本発明は、複数のコンテンツの各々から所望の部分を選択して1つの合成コンテンツを編集する編集装置、編集方法および記録媒体に関する。
 昨今、多視点からの録画および録音により得られた複数組の映像情報および音響情報を処理する技術が各種提供されている。例えば非特許文献1および2に開示の技術では、ユーザは、映像情報と音響情報とからなる複数のコンテンツを再生させつつ、再生された複数のコンテンツの中から映像情報および音響情報を選択することによって、1本の時系列の合成コンテンツを編集する。
Adobe社、一新された2015年版Premiere Pro CC。どこにいても、圧倒的な映像を制作、平成27年6月4日検索、[online]、<URL:http://www.adobe.com/jp/products/premiere.html> 野々下裕子、ユーザーが自在にアングルを切り替えられる動画配信システム「VIXT」を発表、平成27年6月4日検索、[online]、<URL:http://wirelesswire.jp/2014/09/12337/>
 ところで、非特許文献1および2に開示の技術では、ユーザは、合成コンテンツの編集結果に満足しなかった場合、再度、複数のコンテンツから1本の合成コンテンツを編集する作業を繰り返す必要がある。このため、その繰り返し作業が面倒であるという問題があった。
 この発明は以上のような事情に鑑みてなされたものであり、映像情報および音響情報等の時系列情報からなる複数のコンテンツから編集された1つの合成コンテンツの再編集を容易にする技術的手段を提供することを目的とする。
 上記課題を解決するために本発明の編集装置の一態様は、合成コンテンツを構成する複数のコンテンツについての時系列を表すタイムラインに対してユーザが行った操作に応じた操作情報を取得する操作情報取得部と、前記操作情報に基づいて、前記合成コンテンツを編集する合成コンテンツ編集部と、を含むことを特徴とする。
 この発明によれば、合成コンテンツを構成するコンテンツの時系列を表すタイムラインに対する操作に応じて、合成コンテンツが編集される。従って、複数のコンテンツから編集された1つの合成コンテンツの再編集を容易に行うことができる。
この発明による制御方法を実行するためのインタフェースプログラム121がインストールされたパーソナルコンピュータ100の構成を示すブロック図である。 表示部60に表示されるインタフェース画面を例示した図である。 時系列選択情報13の構成を例示する図である。 インタフェースプログラム121の処理内容を示すフローチャートである。 再生プログラム122の処理内容を示すフローチャートである。 ステップS123の処理により表示部60に表示されるインタフェース画面を例示した図である。 ステップS126の処理前のタイムラインエリア603を例示した図である。 ステップS126の処理後のタイムラインエリア603を例示した図である。 ステップS126の処理後のタイムラインエリア603を例示した図である。 ステップS126の処理後のタイムラインエリア603を例示した図である。 ステップS132の処理前のタイムラインエリア603を例示した図である。 ステップS132の処理後のタイムラインエリア603を例示した図である。 ステップS142の処理後のタイムラインエリア603を例示した図である。
 図1は、この発明の一実施形態の編集装置を実現するためのインタフェースプログラム121がインストールされたパーソナルコンピュータ(以下、パソコン)100の構成を示すブロック図である。図1に示すように、パソコン100は、HDD(Hard Disk Drive)10、ROM20、RAM30、CPU40、操作部50、表示部60、サウンドシステム70、通信インタフェース80およびメモリカードインタフェース90を含んでいる。
 HDD10は、各種のアプリケーションプログラムおよびデータを記憶するための不揮発性記憶装置である。HDD10は、コンピュータにて読み取り可能な記録媒体の一例である。さらに言えば、HDD10は、非一過性(non-transitory)の記録媒体である。記録媒体は、HDDに限らず、他の記録媒体(例えば、光学式記録媒体または半導体記録媒体等の公知の任意の形式の記録媒体)でもよい。なお、本明細書中において、「非一過性」の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く全てのコンピュータ読み取り可能な記録媒体を含み、揮発性の記録媒体を除外するものではない。本実施形態では、アプリケーションプログラムとして、インタフェースプログラム121と再生プログラム122が、HDD10にインストールされている。通信インタフェース80は、例えばLANインタフェースである。本実施形態におけるインタフェースプログラム121と再生プログラム122は、通信インタフェース80を介して例えばインターネット上のサーバからHDD10内にインストールされたものである。ROM20は、ローダ等の基本的な制御プログラムを記憶した不揮発性記憶装置である。RAM30は、CPU40によってワークエリアとして使用される揮発性記憶装置である。CPU40は、HDD10内のアプリケーションプログラムをRAM30にロードして実行する。図1において、CPU40を示すボックス内には、操作情報取得部1211と、合成コンテンツ編集部1212と、再生指示部1213と、出力制御部122とが図示されている。操作情報取得部1211と合成コンテンツ編集部1212と再生指示部1213は、CPU40がインタフェースプログラム121を実行することによって実現される。出力制御部122は、CPU40が再生プログラム122を実行することによって実現される。CPU40は、編集装置の一例である。メモリカードインタフェース90は、例えばSDメモリカードスロットであり、外部メモリカードと接続される。本実施形態では、スマートフォン等の複数台の録画録音装置により異なる視点からコンサート等の演奏シーンの録画および録音が行われる。各録画録音装置では、録画により得られる映像情報と録音により得られる音響情報とからなる時系列データのコンテンツ(時刻情報を有するコンテンツ)が、SDメモリカードに各々書き込まれる。そして、各録画録音装置により書き込みの行われた各SDメモリカードが、メモリカードインタフェース90に接続される。続いて、各SDメモリカード内の各コンテンツが、CPU40によって読み出される。続いて、CPU40は、各コンテンツをHDD10に格納する。図1において、HDD10を示すボックス内には、このようにして格納されたコンテンツCAV_1~CAV_4が示されている。コンテンツCAV_1~CAV_4は、複数の選択候補コンテンツの一例である。複数の選択候補コンテンツは、4つのコンテンツに限らず、2つ以上のコンテンツであればよい。
 表示部60は、例えば液晶ディスプレイパネルとその駆動回路により構成されている。表示部60は、CPU40による制御の下、各種の情報を画面に表示する。操作部50は、例えばマウス等のポインティングデバイスである。CPU40は、この操作部50に対して行われるユーザの操作を検出して、その操作に応じた操作情報を取得する。サウンドシステム70は、CPU40から与えられるデジタル音響信号をアナログ音響信号に変換するD/A変換器と、アナログ音響信号を増幅するアンプと、このアンプにより駆動されるスピーカと、によって構成されている。
 図2は、表示部60に表示されるインタフェース画面を例示した図である。図2に示すように、表示部60の表示画面には、コンテンツ表示エリア601と、操作ボタンエリア602と、タイムラインエリア603が設けられている。図2の例では、表示部60の上方のコンテンツ表示エリア601の左上にコンテンツCAV_1の映像が、右上にコンテンツCAV_2の映像が、左下にコンテンツCAV_3の映像が、右下にコンテンツCAV_4の映像が表示されている。また、各コンテンツの映像の上方に、そのコンテンツの番号が表示されている。また、表示部60の下方の操作ボタンエリア602には、左から順に再生ボタン602a、巻戻しボタン602b、停止ボタン602c、および早送りボタン602dが表示されている。また、タイムラインエリア603には、タイムライン603aが表示されている。このタイムライン603aは、時系列選択情報13を可視化したものである。なお、時系列選択情報13については後述する。
 本実施形態におけるインタフェースプログラム121の主要な機能は次の通りである。
<<a.操作情報取得部1211および合成コンテンツ編集部1212としての機能>>
 インタフェースプログラム121は、CPU40を、操作部50から供給される操作情報を取得する操作情報取得部1211として機能させる。また、インタフェースプログラム121は、CPU40を、合成コンテンツ編集部1212として機能させる。合成コンテンツ編集部1212は、操作情報取得部1211によって取得された操作情報に基づき、時系列選択情報13をRAM30内に生成するとともに、生成済みの時系列選択情報13(合成コンテンツ)を編集する。時系列選択情報13は、操作情報取得部1211によって取得された操作情報に基づき、コンテンツCAV_1~CAV_4の中から選択されたコンテンツ(以下「選択コンテンツ」と称する)と、それら選択コンテンツの時系列と、を示す。なお、選択コンテンツは合成コンテンツの構成要素であるから、時系列選択情報13は、少なくとも2つの選択コンテンツを構成要素とする合成コンテンツと、その合成コンテンツでの選択コンテンツの時系列を表す。
 図3は、時系列選択情報13の構成を例示する図である。図3に示すように、時系列選択情報13は、複数のブロックkn(n=1、2、3・・・)から構成されている。各ブロックknは、選択時刻tnと選択コンテンツxnから構成されている。選択コンテンツxnとは、コンテンツCAV_1~CAV_4のうちユーザによって選択されたコンテンツの番号である。選択時刻tnとは、当該選択時刻tnが属するブロックknの選択コンテンツxnの再生開始時刻である。
 操作情報取得部1211は、コンテンツCAV_1~CAV_4が並列に再生される間に、ユーザによって行われるコンテンツの選択操作に応じた操作情報を取得する。合成コンテンツ編集部1212は、例えば、時刻taにおいてコンテンツCAV_4が選択された場合は、選択時刻t1=taと選択コンテンツx1=4とを含むブロックk1をRAM30内に蓄積する。また、例えば、時刻tbにおいてコンテンツCAV_2が選択された場合には、合成コンテンツ編集部1212は、選択時刻t2=tbと選択コンテンツx2=2とを含むブロックk2をRAM30内に蓄積する。以下同様に、合成コンテンツ編集部1212は、ブロックk3、k4、・・・を順次生成してRAM30内に蓄積することによって、時系列選択情報13をRAM30内に生成する。
 また、合成コンテンツ編集部1212は、このようにしてRAM30内に生成された時系列選択情報13(合成コンテンツを示す情報)を、操作情報取得部1211が取得した操作情報に基づいて編集する。具体的には、合成コンテンツ編集部1212は、ブロックk1、k2、・・・の中の任意のブロックの削除、選択時刻の変更、および、選択コンテンツの変更等を行う。合成コンテンツは、時系列選択情報13の変更に伴い変更される。
 図2に示すタイムライン603aは、このように合成コンテンツ編集部1212によって生成および編集された時系列選択情報13を可視化した情報である。図2に示すタイムライン603aは、数字が記載された複数の矩形に区切られた表示部(ストライプ)603a1と、その下方に位置し黒点603a3を有する直線603a2とにより構成されている。ここで、表示部603a1を分割した各矩形は、時系列選択情報13のブロックk1、k2、・・・を示している。各矩形の数字は、各ブロック内の選択コンテンツx1、x2、・・・を示している。このため、矩形の数字は、対応するブロック内の選択コンテンツの識別子として機能する。また、各ブロックを示す各矩形の水平方向の長さは、当該ブロックkn内の選択時刻tnからその次のブロックkn+1内の選択時刻tn+1までの時間、つまり、当該ブロック内の選択コンテンツの開始時刻から終了時刻までの時間を表している。また、表示部603a1の下の直線603a2上の黒点603a3は、時間軸上の現在時刻を示す。これにより、ユーザは複数のコンテンツのうちどのコンテンツが選択されているかを、タイムライン603aを見るだけで識別できる。
<<b.再生指示部1213としての機能>>
 再生指示部1213は、操作情報取得部1211が操作ボタンエリア602内の再生ボタン602aの操作を示す操作情報を取得したとき、再生指示を出力制御部1221に供給する。再生指示部1213は、操作情報取得部1211が操作ボタンエリア602内の巻戻しボタン602bの操作を示す操作情報を取得したとき、巻戻し指示を出力制御部1221に供給する。再生指示部1213は、操作情報取得部1211が操作ボタンエリア602内の停止ボタン602cの操作を示す操作情報を取得したとき、停止指示を出力制御部1221に供給する。再生指示部1213は、操作情報取得部1211が操作ボタンエリア602内の早送りボタン602dの操作を示す操作情報を取得したとき、早送り指示を出力制御部1221に供給する。
 本実施形態における再生プログラム122(出力制御部1221)の機能は次の通りである。まず、出力制御部1221は、再生指示部1213から再生指示が与えられた場合、時間経過に合わせてRAM30内の時刻情報14を更新しつつコンテンツCAV_1~CAV_4を並列に再生する。そして、出力制御部1221は、再生したコンテンツCAV_1~CAV_4の各映像情報に応じた映像を表示部60のコンテンツ表示エリア601に表示する。また、出力制御部1221は、時刻情報14を監視し、時刻情報14の示す時刻が時系列選択情報13のいずれかのブロックknの選択時刻tnになると、コンテンツ表示エリア601内の各コンテンツの映像のうち当該ブロックknの選択コンテンツxnに該当する映像を再生表示する。再生表示とは、例えばコンテンツ表示エリア601内の選択コンテンツxnのコンテンツの番号に色を付ける表示態様のことである。また、出力制御部1221は、コンテンツ表示エリア601内の各コンテンツの音響情報のうち当該ブロックknの選択コンテンツxnの音響情報をサウンドシステム70に供給する。出力制御部1221は、選択コンテンツを切り換える際、先行する選択コンテンツの音響情報に応じた音の再生音量を徐々に下げつつ、後発する選択コンテンツの音響情報に応じた音の再生音量を徐々に上げるクロスフェード再生を行ってもよい。
 以上が、本実施形態の構成である。
 図4は、インタフェースプログラム121の実行により実現される操作情報取得部1211合成コンテンツ編集部1212、および再生指示部1213の処理内容を示すフローチャートである。また、図5は、再生プログラム122の実行により実現される出力制御部1221の処理内容を示すフローチャートである。以下、これらのフローチャートを参照し、本実施形態の動作を説明する。
 本実施形態では、操作部50に対して所定の操作が行われると、CPU40は、インタフェースプログラム121および再生プログラム122を起動する。図4に示されるように操作情報取得部1211は、まず初期化を行う。具体的には、操作情報取得部1211は、表示部60にインタフェース画面の初期画面を表示させる指示を出力制御部1221に供給する(ステップS101)。次に、操作情報取得部1211は操作部50から操作情報を取得したか否かを判断する(ステップS102)。ステップS102の判断の結果が「NO」であると、操作情報取得部1211はステップS102の処理を再度実行する。操作部50から操作情報が取得され、ステップS102の判断の結果が「YES」になると、操作情報取得部1211は、当該操作情報が操作ボタンエリア602の各操作ボタンへの操作を示しているか否かを判断する(ステップS103)。ステップS103の判断の結果が「NO」であると、合成コンテンツ編集部1212は、当該操作情報がタイムライン603aへの操作を示しているか否かを判断する(ステップS104)。ステップS104の判断の結果が「NO」であると、合成コンテンツ編集部1212は、当該操作情報がコンテンツ選択操作、すなわち、コンテンツ表示エリア601内の各コンテンツの映像に対するクリック操作を示しているか否かを判断する(ステップS105)。ステップS105の判断の結果が「NO」であると、合成コンテンツ編集部1212は、当該操作情報が終了操作、すなわち、インタフェースプログラム121の実行の終了を指示する操作を示しているか否かを判断する(ステップS108)。ステップS108の判断の結果が「NO」であると、処理はステップS102に戻る。ステップS108の判断の結果が「YES」であると、CPU40はインタフェースプログラム121の実行を終了する。以上のように、ステップS103において取得された操作情報が操作ボタンエリア602の各操作ボタンへの操作でないことが検知されると、合成コンテンツ編集部1212は、その操作情報に関する判断を実行する。一方、ステップS103において取得された操作情報が操作ボタンエリア602の各操作ボタンへの操作である場合には(ステップS103:YES)、操作された操作ボタンの種類に応じた指示を再生指示部1213が実行する(ステップS111)。
 一方、再生プログラム122が起動されると、出力制御部1221は、初期化を実行する(ステップS201)。この初期化において、出力制御部1221は、現在の制御状態を停止制御状態とし、RAM30の時刻情報14を0にする。なお、出力制御部1221は、RAM30に時系列選択情報13が格納されていない場合に、デフォルトの時系列選択情報13、具体的には選択時刻t1が0で、選択コンテンツx1が1であるブロックk1のみから構成される時系列選択情報13を生成し、デフォルトの時系列選択情報13をRAM30に書き込む。次に、ステップS210において出力制御部1221は、再生指示部1213から何等かの指示が受信されたか否かを判断する(ステップS210)。この判断結果が「NO」である場合、出力制御部1221は、現在の制御状態に関する判断を行う(ステップS220)。制御状態が再生制御状態以外である場合、出力制御部1221は、ステップS240において、制御状態に応じた処理を実行する。例えば制御状態が停止制御状態である場合、ステップS240において出力制御部1221は何も処理を実行しない。次にステップS241において、出力制御部1221は、現在の制御状態に応じた時刻情報14の更新処理を実行する。例えば制御状態が停止制御状態である場合、ステップS241において出力制御部1221は、現状の時刻情報14を維持する。ステップS241が終了すると、出力制御部1221の処理はステップS210に戻る。
 ユーザが表示部60の再生ボタン602aに対するクリック操作を行うと、図4に示したステップS103の判断の結果が「YES」になり、再生指示部1213は、操作ボタンの種類に応じた指示を出力制御部1221に送る(ステップS111)。この例では、ユーザが再生ボタン602aをクリックしているので、ステップS111において再生指示部1213は再生指示を出力制御部1221に与える。このステップS111が終了すると、処理はステップS102に戻る。
 出力制御部1221が再生指示を受信すると、図5に示したステップS210の判断結果が「YES」となり、出力制御部1221は、受信した指示に対応した処理を実行する(ステップS211)。この例では、再生指示が受信されているので、ステップS211において出力制御部1221は、制御状態を再生制御状態とする。この結果、処理はステップS220からステップS230に進むこととなる。次にステップS230に進むと、出力制御部1221は、現状の時刻情報14が示す時刻から始まる一定時間長の映像情報および音響情報にて構成されるコンテンツの一部をコンテンツCAV_1~CAV_4から各々読み出し、時系列選択情報13に基づいて、それらの映像再生および音響再生の制御を行う。
 ここで、時刻情報14が示す時刻=0において、時系列選択情報13がコンテンツCAV_1を選択している場合、出力制御部1221は、コンテンツ表示エリア601においてコンテンツCAV_1の映像を再生表示する。また、出力制御部1221は、コンテンツCAV_1の音響情報をサウンドシステム70に供給する。
 次にステップS231に進むと、出力制御部1221は、ステップS230において再生を行った映像情報および音響情報の時間長だけ時刻情報14を進める。このステップS231が終了すると、出力制御部1221の処理は、ステップS210に戻る。そして、制御状態が再生制御状態である間、出力制御部1221は、ステップS210、S220、S230およびS231の処理を繰り返す。
 本実施形態において、ユーザは、このようにしてコンテンツCAV_1~CAV_4の再生が行われる間にコンテンツ選択操作を行い、時系列選択情報13を生成してRAM30に蓄積することが可能である。以下、その動作について説明する。
 コンテンツ選択操作には、コンテンツ表示エリア601の各コンテンツが表示されている箇所とその周辺および各コンテンツの番号が表示されている箇所に対するクリック操作が含まれる。このコンテンツ選択操作が行われると、図4に示したステップS105の判断結果が「YES」になる。この場合、合成コンテンツ編集部1212はRAM30から時刻情報14を取得する(ステップS106)。そして、合成コンテンツ編集部1212は、操作情報に基づいて、クリックされたコンテンツの番号を求める。続いて、合成コンテンツ編集部1212は、このコンテンツの番号を選択コンテンツとし、ステップS106で取得した時刻情報14を選択時刻とするブロックを生成して、このブロックをRAM30内の時系列選択情報13に追加する(ステップS107)。そして、処理はステップS108に進む。
 このように、ユーザがコンテンツ選択操作を行うと、ユーザによって選択されたコンテンツおよびその選択時刻を示すブロックが時系列選択情報13に追加され、このブロック追加後の時系列選択情報13に対応したタイムライン603aがタイムラインエリア603に表示される。なお、時系列選択情報13に応じたタイムライン603aの表示は、出力制御部1221によって実行される。
 本実施形態において、ユーザは、このようにして生成された時系列選択情報13を編集することによって、時系列選択情報13が示す合成コンテンツを再編集することが可能である。以下、この動作について説明する。ユーザがタイムライン603aに対するクリック操作を行うと、図4に示したステップS104の判断の結果が「YES」となる。
 この場合、合成コンテンツ編集部1212は、当該操作情報が禁止区間への操作であるか否かを判断する(ステップS121)。ここで、禁止区間とは、タイムライン603aにおいて、現在時刻を基準とした前後の所定時間以内の区間のことをいう。例えば、タイムライン603aの現在時刻が時刻t0であり、所定時間をtmとすると、タイムライン603aの時刻t0-tmから時刻t0+tmまでの区間が禁止区間である。このため、例えば、タイムライン603aの現在時刻に対応する1つの選択コンテンツの中で、禁止区間に対応する部分は、現在時刻に対応する部分すなわち現在表示されている部分(映像部分)と、表示された直後の部分(映像部分)と、表示される直前の部分(映像部分)にて構成される。禁止区間は、タイムライン603aのうち、現時点の箇所を基準に特定される期間に該当する部分の一例である。ステップS121の判断結果が「YES」である場合、合成コンテンツ編集部1212はステップS102の処理を再度実行する。このように本実施形態において合成コンテンツ編集部1212は、タイムライン603aの禁止区間への操作に対しては、何も処理を実行しない。つまり、合成コンテンツ編集部1212は、タイムライン603aの禁止区間への操作に対しては、合成コンテンツを編集することなく、その操作に応じた操作情報を無効にする。
 ステップS121の判断結果が「NO」である場合、合成コンテンツ編集部1212はステップS102で取得した操作情報がタイムライン603aへのクリック(より具体的にはシングルクリック)を示すか否かを判断する(ステップS122)。シングルクリックは、ユーザの第2選択操作の一例である。また、タイムライン603aへのシングルクリックを示す操作情報は、選択コンテンツの識別子のいずれかに対するユーザの第2選択操作に応じた第2選択情報の一例である。ステップS122の判断結果が「YES」である場合、合成コンテンツ編集部1212は、ステップS102で取得した操作情報に基づき、タイムライン603aにおけるクリック位置を求める。そして、合成コンテンツ編集部1212は、このクリック位置に対応する時系列選択情報13のブロックknに含まれる選択コンテンツxnの番号を取得する。そして、合成コンテンツ編集部1212は、表示部60のコンテンツ表示エリア601におけるその番号のコンテンツの映像と、タイムライン603aのブロックknに対応した矩形内の数字と、を強調表示させる強調表示指示を、出力制御部1221に出力する。出力制御部1221は、強調表示指示を受け取ると、その強調表示指示に従って、表示部60のコンテンツ表示エリア601におけるその番号のコンテンツの映像と、タイムライン603aのブロックknに対応した矩形内の数字と、を強調表示させる(ステップS123)。
 図6は、ステップS123の処理により表示部60に表示されるインタフェース画面を例示した図である。図6に示す例では、ステップS102で取得した操作情報は、タイムライン603aの数字2の矩形をクリックした情報であった。そのため、図6に示すように、コンテンツ表示エリア601のコンテンツCAV_2の映像の周囲は太枠で囲われ、タイムライン603aの数字2の矩形の周囲も太枠で囲われる。ステップS123の処理後、操作情報取得部1211が操作部50から供給される操作情報を取得したと判断すると(ステップS124:YES)、合成コンテンツ編集部1212はステップS124で取得した操作情報がタイムライン603aのダブルクリックを示すか否かを判断する(ステップS125)。ダブルクリックは、ユーザの第1操作の一例である。なお、ユーザの第1操作はダブルクリックに限らず適宜変更可能である。ステップS125の判断の結果が「NO」である場合、合成コンテンツ編集部1212はステップS102の処理を再度実行する。一方、ステップS125の判断結果が「YES」である場合、合成コンテンツ編集部1212は、ステップS124で取得した操作情報に基づいて、タイムライン603aにおけるダブルクリック位置を求める。そして、合成コンテンツ編集部1212は、このダブルクリック位置に対応する時系列選択情報13のブロックknを解除する(ステップS126)。そして、合成コンテンツ編集部1212は、出力制御部1221に対して、タイムライン603aの変更指示を供給する。出力制御部1221は、タイムライン603aの変更指示を受け取ると、時系列選択情報13の変更に応じて、タイムライン603aの表示態様を変更する。
 ステップS126における解除には以下の3つの態様があるが、いずれの態様をとってもよい。図7AはステップS125の処理前のタイムラインエリア603を例示した図である。図7B~7DはステップS125の処理後のタイムラインエリア603を例示した図である。図7Aに示す例では、タイムライン603aの数字2がダブルクリックされている。図7Bに示す例では、ステップS126の処理において、ダブルクリック位置に対応する時系列選択情報13のブロックknに含まれる選択コンテンツxnが、コンテンツCAV_2から直前のブロックkn-1のコンテンツCAV_3に書き換えられている。また、図7Cに示す例では、合成コンテンツ編集部1212はステップS126の処理において、ダブルクリック位置に対応する時系列選択情報13のブロックknに含まれる選択コンテンツxnを、コンテンツCAV_2から直後のブロックkn+1のコンテンツCAV_3に書き換えている。また、図7Dに示す例では、合成コンテンツ編集部1212はステップS126の処理において、ダブルクリック位置に対応する時系列選択情報13のブロックknに含まれる選択コンテンツxnのみを削除している。合成コンテンツ編集部1212はステップS126において、図7B~7Dに示した処理のうちいずれかの処理を行う。好ましい態様では、いずれの処理を実行するかが操作部50への操作により選択される。合成コンテンツ編集部1212は、ステップS126の処理が完了すると、ステップS102の処理を再度実行する。
 ステップS122の判断結果が「NO」である場合、合成コンテンツ編集部1212はステップS102で取得した操作情報がタイムライン603aのいずれかの境界(タイムラインを矩形に区切る縦線)603a4のドラッグを示すか否かを判断する(ステップS131)。境界603a4は、選択コンテンツの間の時間的な境界を示す境界部の一例である。境界603a4のドラッグは、境界部を移動する操作の一例である。ステップS131の判断結果が「YES」である場合、合成コンテンツ編集部1212は、操作情報に基づいてドラッグ位置の軌跡を求める。そして、合成コンテンツ編集部1212は、そのドラッグ位置の軌跡の始点に対応する時系列選択情報13のブロックknの選択時刻tnを、ドラッグ位置の軌跡の終点に応じた選択時刻tn’に変更する(ステップS132)。
 図8AはステップS132の処理前のタイムラインエリア603を例示した図である。図8BはステップS132の処理後のタイムラインエリア603を例示した図である。図8Aおよび図8Bに示す例では、操作情報は数字3の矩形と数字2矩形との境界603a4をドラッグした情報であった。図8Aおよび図8Bでは、合成コンテンツ編集部1212は、ステップS132の処理において、操作情報に対応する時系列選択情報13のブロックknに含まれる選択時刻tnを、現在の選択時刻tnよりも遅い選択時刻tn’に変更している。このため、図8Bに示したタイムライン603aでは、図8Aに示したタイムライン603aに比べて、数字3の矩形の範囲が広くなり、数字2の矩形の範囲が狭くなっている。ステップS132の処理が完了すると、合成コンテンツ編集部1212は、ステップS102の処理を再度実行する。
 ステップS131の判断結果が「NO」である場合、合成コンテンツ編集部1212はステップS102で取得した操作情報がタイムライン603の長押しを示すか否かを判断する(ステップS141)。長押しは、ユーザの第1選択操作の一例である。タイムライン603の長押しを示す操作情報は、識別子のいずれかに対するユーザの第1選択操作に応じた第1選択情報の一例である。ステップS141の判断結果が「NO」である場合、処理はステップS102に戻る。ステップS141の判断の結果が「YES」である場合、合成コンテンツ編集部1212は、ステップS102で取得した操作情報に基づいて、タイムライン603上の長押し位置を求める。そして、合成コンテンツ編集部1212は、この長押し位置に対応した時刻が属する時系列選択情報13のブロックknを求める。そして、合成コンテンツ編集部1212は、このブロックknの選択時刻tnにおいて再生可能なコンテンツを検索する(ステップS142)。ここで、ブロックknの選択時刻tnにおいて再生可能なコンテンツは、コンテンツCAV_1~CAV_4のうち、ブロックknの選択時刻tnからブロックkn+1の選択時刻tn+1までの時間帯に属する時刻を示す時刻情報を有するコンテンツである。再生可能なコンテンツは、ブロックknの選択コンテンツと置換可能なコンテンツである置換可能コンテンツの一例である。続いて、合成コンテンツ編集部1212は、操作情報に対応する時系列選択情報13のブロックknの選択時刻tnに再生可能なコンテンツの番号を、タイムライン603aの上方に吹き出し表示で新たに表示する旨の表示指示を、出力制御部1221に出力する。出力制御部1221は、この表示指示を受け取ると、この表示指示に従って、操作情報に対応する時系列選択情報13のブロックknの選択時刻tnに再生可能なコンテンツの番号を、タイムライン603aの上方に吹き出し表示で新たに表示する。
 図9はステップS142の処理後のタイムラインエリア603を例示した図である。図9に示す例では、操作情報はタイムライン603aの数字2の矩形を長押しした情報であった。図9では、合成コンテンツ編集部1212は、ステップS142の処理において、操作情報に対応する時系列選択情報13のブロックknの選択時刻tnに再生可能なコンテンツを検索し、その検索によって特定されたコンテンツがCAV_1、CAV_3およびCAV_4であった。このため、図9に示したタイムライン603aでは、タイムライン603aの上方に1、3、4の番号(識別子)が吹き出し表示で新たに表示されている。なお、検索されたコンテンツの番号の表示は、図9のように吹き出し表示に限られず、ユーザが番号を選択できるような表示であればどのような態様でもよい。
 合成コンテンツ編集部1212は、ステップS142の処理が完了すると、新たに表示されたコンテンツの番号を選択した操作情報を取得したか否かを判断する(ステップS143)。新たに表示されたコンテンツの番号を選択した操作情報は、1以上の置換可能コンテンツの識別子のいずれかへのユーザの第2操作に応じた第2操作情報の一例である。ステップS143の判断結果が「NO」である場合、合成コンテンツ編集部1212はステップS143の処理を再度実行する。ステップS143の判断結果が「YES」である場合、合成コンテンツ編集部1212は、ステップS143で取得した操作情報に基づいて、ユーザが選択したコンテンツの番号を求める。そして、合成コンテンツ編集部1212は、ステップS141で取得した操作情報から求めた時系列選択情報13のブロックknの選択コンテンツxnに対して、ユーザが選択したコンテンツの番号を上書きする(ステップS144)。そして、合成コンテンツ編集部1212は、出力制御部1221に対して、タイムライン603aの変更指示を供給する。出力制御部1221は、タイムライン603aの変更指示を受け取ると、時系列選択情報13の更新(選択コンテンツの番号の上書き更新)に応じて、タイムライン603aの表示態様を変更する。ステップS144の処理が完了すると、合成コンテンツ編集部1212はステップS102の処理を実行する。
 以上が、本実施形態の動作である。
 以上説明したように本実施形態によれば、ユーザは、複数のコンテンツを順次選択して再生するための時系列選択情報13を生成した後、操作部50の操作により、生成済みの時系列選択情報13を編集することで合成コンテンツを再編集できる。従って、複数のコンテンツから編集された1つの合成コンテンツの再編集を容易に行うことができる。
<変形例>
(1)上記実施形態では、コンテンツCAV_1~CAV_4から1本の合成コンテンツを編集したが、コンテンツの数は必ずしも4には限られない。また上記実施形態では、映像情報と音響情報とからなるコンテンツを処理対象としたが、本発明の適用対象は映像情報と音響情報とからなるコンテンツに限られない。本発明は、音響情報を有さずに映像情報を有するコンテンツ、映像情報を有さずに音響情報を有するコンテンツ、および、映像情報でもなく音響情報でもない時系列情報を有するコンテンツにも適用可能である。
(2)上記実施形態では、出力制御部1221が、時系列選択情報13を可視化したタイムライン603aにコンテンツCAV_1~CAV_4の番号1~4を表示することにより、選択されているコンテンツ(選択コンテンツ)を示した。しかし、出力制御部1221は、選択コンテンツの識別子としてコンテンツの番号1~4を表示する代わりに、コンテンツCAV_1~CAV_4に対応付けられた色を各コンテンツの映像の近傍に表示してもよい。例えば、出力制御部1221は、コンテンツCAV_1に対して紫色、コンテンツCAV_2に対して青色、コンテンツCAV_3に対して水色、コンテンツCAV_4に対して緑色を対応付ける。この場合、出力制御部1221は、図2に例示するインタフェース画面において、コンテンツ表示エリア601の左上のコンテンツCAV_1の上方の領域を紫色で表示し、右上のコンテンツCAV_2の上方の領域を青色で表示し、左下のコンテンツCAV_3の上方の領域を水色で表示し、右下のコンテンツCAV_4の上方の領域を紫色で表示する。さらに、出力制御部1221は、タイムライン603aにおいて、時系列選択情報13の各ブロックに対応した矩形の表示色を、例えば左から順に紫色、緑色、紫色、水色、・・・という具合に、各ブロックの選択コンテンツに対応した表示色としてもよい。この場合、選択コンテンツの識別子として、色が用いられることになる。また、出力制御部1221は、各コンテンツの映像の上方の領域またはタイムライン603aの各矩形内の領域を、コンテンツに対応付けられたテクスチャで表示してもよい。この場合、選択コンテンツの識別子として、テクスチャが用いられることになる。また、図4のフローチャートのステップS123では、タイムライン603aにおけるクリック位置に対応する時系列選択情報13のブロックknに含まれる選択コンテンツxnの番号が取得され、表示部60のコンテンツ表示エリア601におけるその番号のコンテンツの映像とタイムライン603aのブロックknに対応した矩形内の数字とが強調表示された。しかしながら、選択コンテンツxnの番号が直感的に把握できるようになっていれば強調表示以外の別の態様(例えば、枠の形状の変更、数字のサイズを変更する)であってもよい。
(3)上記実施形態では、操作部50が例えばマウス等のポインティングデバイスであり、表示部60が例えば液晶ディスプレイパネルとその駆動回路であった。しかしながら、操作部50と表示部60が一体化した構成、例えばタッチパネルとその駆動回路との一体化構成が用いられてもよい。このような場合、ステップS122において、合成コンテンツ編集部1212は、ステップS102で取得した操作情報がタイムライン603aへのタッチを示すか否かを判断する。また、ステップS125において、合成コンテンツ編集部1212は、ステップS102で取得した操作情報がタイムライン603aへのフリックを示すか否かを判断する。また、ステップS131において、合成コンテンツ編集部1212は、ステップS102で取得した操作情報がタイムライン603aへのスワイプを示すか否かを判断する。ここで、タッチは、ユーザの第2選択操作の一例である。フリックは、ユーザの第1操作の一例である。スワイプは、境界部を移動する操作の一例である。
(4)上記実施形態では、ステップS221において、デフォルトの時系列選択情報13として、選択時刻t1が0で、選択コンテンツx1が1であるブロックk1のみから構成される時系列選択情報13が生成された。しかし、デフォルトの時系列選択情報13は必ずしもこれに限られない。例えば、選択時刻t1が0で、選択コンテンツx1が4であるブロックk1のみからなる時系列選択情報13が生成されてもよい。さらに、デフォルトの時系列選択情報13が、通信インタフェース80またはメモリカードインタフェース90等によりパソコン100の外部から供給されてもよい。
(5)上記実施形態において、ステップS122~S126とステップS131以降のステップとの順番が入れ換えられてもよい。すなわち、ステップS121の診断結果が「NO」であると、合成コンテンツ編集部1212は、ステップS131以降の処理を、ステップS122~S126の処理よりも先に行ってもよい。さらに、ステップS131~S132とステップS141~S144との順番が入れ換えられてもよい。すなわち、ステップS122の診断結果が「NO」であると、合成コンテンツ編集部1212は、ステップS141の処理を、ステップS131~S132の処理よりも先に行ってもよい。
(6)上記実施形態では、タイムラインエリア603にはタイムライン603aのみが表示されていたが、タイムラインエリア603にタイムライン603a以外のタイムラインが表示されることによって、タイムラインエリア603に複数のタイムラインが表示されていてもよい。例えば、タイムラインエリア603に、タイムライン603a以外に、コンテンツCAV_1~CAV_4を可視化した1以上のタイムラインが別々に表示されていてもよい。
(7)上記実施形態では、選択時刻tnは、当該選択時刻tnが属するブロックknの選択コンテンツxnの再生開始時刻であったが、当該選択コンテンツxnの再生終了時刻であってもよい。
(8)上記実施形態では、出力制御部1221は、コンテンツCAV_1~CAV_4を時系列選択情報13に従って再生するが、出力制御部1221は、出力制御部1221が再生したコンテンツをHDD10に記憶させてもよい。
(9)上記各実施形態では、この発明を実施するための手段をコンピュータプログラムであるインタフェースプログラム121により実現される操作情報取得部1211、合成コンテンツ編集部1212、および再生指示部1213とした。しかし、この発明を実施するための手段の態様は、コンピュータプログラムに限定されるものではない。操作情報取得部1211と合成コンテンツ編集部1212との全部または一部が、例えば電子回路によって実現されてもよい。
 上述した実施形態から、以下の態様が把握される。
 合成コンテンツ編集部1212は、タイムライン603a上でのユーザの操作に応じた操作情報に基づいて、合成コンテンツに含まれるコンテンツの開始時刻または終了時刻を変更する。この態様によれば、タイムライン603aへの操作によって、合成コンテンツに含まれる選択コンテンツの開始時刻または終了時刻を容易に変更できる。
 タイムライン603aは、コンテンツの間の時間的な境界を示す境界(境界部)603a4を有する。合成コンテンツ編集部1212は、操作情報が、タイムライン603a内で境界603a4を移動する操作に応じた移動操作情報である場合、境界603a4の移動に応じて、コンテンツの開始時刻または終了時刻を変更する。この態様によれば、コンテンツの境界603a4を移動するという簡単な操作で、合成コンテンツに含まれるコンテンツの開始時刻または終了時刻を変更できる。
 合成コンテンツ編集部1212は、操作情報に基づいて、合成コンテンツに含まれる少なくとも2つのコンテンツのうちの1つのコンテンツを、複数の選択候補コンテンツのうちの別のコンテンツに変更する、または、削除する。この態様によれば、タイムライン603aへの操作によって、合成コンテンツに含まれる選択コンテンツを、別のコンテンツに容易に変更でき、または、容易に削除できる。
 タイムライン603aは、コンテンツの識別子を用いてコンテンツの時系列を表す。合成コンテンツ編集部1212は、操作情報が、識別子のいずれかへのユーザの第1操作に応じた第1操作情報である場合、第1操作を受けた識別子に応じたコンテンツを、複数の選択候補コンテンツのうちの別のコンテンツに変更する、または、削除する。この態様によれば、タイムライン603aにおける識別子への操作によって、その識別子に応じたコンテンツを、別のコンテンツに容易に変更でき、または、容易に削除できる。
 複数のコンテンツCAV_1~CAV_4は、時刻を示す時刻情報を有している。操作情報取得部1211は、さらに、識別子のいずれかに対するユーザの第1選択操作に応じた第1選択情報を取得する。合成コンテンツ編集部1212は、さらに、第1選択情報に応じて、複数のコンテンツCAV_1~CAV_4のうちから、時刻情報の示す時刻が、第1選択操作を受けた識別子に応じたコンテンツの開始時刻から終了時刻までの時間帯に属する1以上の置換可能コンテンツ(再生可能コンテンツ)を特定し、置換可能コンテンツの識別子を表示部60に新たに表示する。この態様によれば、ユーザは、置換可能コンテンツを容易に認識できる。
 合成コンテンツ編集部1212は、操作情報が、1以上の置換可能コンテンツの識別子のいずれかへのユーザの第2操作に応じた第2操作情報である場合、第1選択操作を受けた識別子に応じたコンテンツを、第2操作を受けた識別子に応じた置換可能コンテンツに変更する。この態様によれば、ユーザは、第1選択操作を受けた識別子に応じたコンテンツを、第2操作を受けた識別子に応じた置換可能コンテンツに容易に変更できる。
 操作情報取得部1212は、さらに、識別子のいずれかに対するユーザの第2選択操作に応じた第2選択情報を取得する。合成コンテンツ編集部1212は、さらに、第2選択情報に応じて、第2選択操作を受けた識別子に応じた対応選択コンテンツの表示態様を、複数の選択候補コンテンツのうち対応選択コンテンツとは異なるコンテンツの表示態様と異ならせる。この態様によれば、ユーザがタイムライン603aを使って選択したコンテンツを目立たせることができる。
 複数のコンテンツCAV_1~CAV_4は、表示部60に表示されており、合成コンテンツ編集部1212は、第2選択操作を受けた識別子のタイムライン302aにおける表示態様を、第2選択操作を受けた識別子とは異なる識別子のタイムライン302aにおける表示態様と異ならせる。この態様によれば、ユーザがタイムライン603aを使って選択したコンテンツを、タイムライン603aにおいて目立たせることができる。
 合成コンテンツ編集部1212は、操作情報が、タイムライン603aのうちの現時点の箇所を基準に特定される期間に該当する部分(例えば、禁止区間)への操作に応じた操作情報である場合、合成コンテンツを編集することなく操作情報を無効にする。この態様によれば、例えば、タイムライン603aの現在時刻に対応する1つの選択コンテンツの中で、編集処理が難しいコンテンツ部分(現在表示されているコンテンツ部分、表示された直後のコンテンツ部分、および、表示される直前のコンテンツ部分)に対して編集を行うことを回避可能になる。
 実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。この出願は、2015年6月29日に出願された日本出願特願2015-130419を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100……パソコン、10……HDD、CAV_1~CAV_4……コンテンツ、121……インタフェースプログラム、1211……操作情報取得部、1212……合成コンテンツ編集部、1213……再生指示部、122……再生プログラム、1221……出力制御部、20……ROM、30……RAM、40……CPU、50……操作部、60……表示部、601……コンテンツ表示エリア、602……操作ボタンエリア、602a……再生ボタン、602b……巻戻しボタン、602c……停止ボタン、602d……早送りボタン、603……タイムラインエリア、603a……タイムライン、603a1……表示部、603a2……直線、603a3……黒点、70……サウンドシステム、80……通信インタフェース、90……メモリカードインタフェース。
 

Claims (12)

  1.  合成コンテンツを構成する複数のコンテンツの時系列を表すタイムラインに対してユーザが行った操作に応じた操作情報を取得する操作情報取得部と、
     前記操作情報に基づいて、前記合成コンテンツを編集する合成コンテンツ編集部と、
     を含むことを特徴とする編集装置。
  2.  前記合成コンテンツ編集部は、前記操作情報に基づいて、前記コンテンツの開始時刻または終了時刻を変更する、
     ことを特徴とする請求項1に記載の編集装置。
  3.  前記タイムラインは、前記コンテンツの間の時間的な境界を示す境界部を有し、
     前記合成コンテンツ編集部は、前記操作情報が、前記タイムライン内で前記境界部を移動する操作に応じた移動操作情報である場合、前記境界部の移動に応じて、前記コンテンツの開始時刻または終了時刻を変更する、
     ことを特徴とする請求項1または2に記載の編集装置。
  4.  前記複数のコンテンツは、複数の選択候補コンテンツの中から選択されたものであり、
     前記合成コンテンツ編集部は、前記操作情報に基づいて、前記複数のコンテンツのうちの1つコンテンツを、前記複数の選択候補コンテンツのうちの別のコンテンツに変更する、または、削除する、
     ことを特徴とする請求項1に記載の編集装置。
  5.  前記複数のコンテンツは、複数の選択候補コンテンツの中から選択されたものであり、
     前記タイムラインは、前記コンテンツの識別子を用いて前記コンテンツの時系列を表し、
     前記合成コンテンツ編集部は、前記操作情報が、前記識別子のいずれかへのユーザの第1操作に応じた第1操作情報である場合、前記第1操作を受けた識別子に応じたコンテンツを、前記複数の選択候補コンテンツのうちの別のコンテンツに変更する、または、削除する、
     ことを特徴とする請求項1、3または4に記載の編集装置。
  6.  前記複数のコンテンツは、複数の選択候補コンテンツの中から選択されたものであり、
     前記複数の選択候補コンテンツには、時刻を示す時刻情報が付加されており、
     前記タイムラインは、前記コンテンツの識別子を用いて前記コンテンツの時系列を表し、
     前記操作情報取得部は、さらに、前記識別子のいずれかに対するユーザの第1選択操作に応じた第1選択情報を取得し、
     前記合成コンテンツ編集部は、さらに、前記複数の選択候補コンテンツの中から、前記時刻情報の示す時刻が、前記第1選択操作を受けた識別子に応じたコンテンツの開始時刻から終了時刻までの時間帯に属する1以上の置換可能コンテンツを特定し、前記置換可能コンテンツの識別子を前記表示部に新たに表示する、
     ことを特徴とする請求項1から5のいずれか1項に記載の編集装置。
  7.  前記合成コンテンツ編集部は、前記操作情報が、前記1以上の置換可能コンテンツの識別子のいずれかへのユーザの第2操作に応じた第2操作情報である場合、前記第1選択操作を受けた識別子に応じたコンテンツを、前記第2操作を受けた識別子に応じた置換可能コンテンツに変更する、
     ことを特徴とする請求項6に記載の編集装置。
  8.  前記複数のコンテンツは、複数の選択候補コンテンツの中から選択されたものであり、 前記複数の選択候補コンテンツは、表示されており、
     前記タイムラインは、前記コンテンツの識別子を用いて前記コンテンツの時系列を表し、
     前記操作情報取得部は、さらに、前記識別子のいずれかに対するユーザの第2選択操作に応じた第2選択情報を取得し、
     前記合成コンテンツ編集部は、さらに、前記第2選択操作を受けた識別子に応じた対応コンテンツの表示態様を、前記複数の選択候補コンテンツのうち前記対応コンテンツとは異なるコンテンツの表示態様と異ならせる、
     ことを特徴とする請求項1から7のいずれか1項に記載の編集装置。
  9.  前記合成コンテンツ編集部は、前記第2選択操作を受けた識別子の前記タイムラインにおける表示態様を、前記第2選択操作を受けた識別子とは異なる識別子の前記タイムラインにおける表示態様と異ならせる、
     ことを特徴とする請求項8に記載の編集装置。
  10.  前記合成コンテンツ編集部は、前記操作情報が、前記タイムラインのうち現時点の箇所を基準に特定される期間に該当する部分への操作に応じた操作情報である場合、前記合成コンテンツを編集することなく前記操作情報を無効にする、
     ことを特徴とする請求項1から9のいずれか1項に記載の編集装置。
  11.  合成コンテンツを構成する複数のコンテンツの時系列を表すタイムラインに対してユーザが行った操作に応じた操作情報を取得し、
     前記操作情報に基づいて、前記合成コンテンツを編集する、
     ことを特徴とする編集方法。
  12.  コンピュータに、
     合成コンテンツを構成する複数のコンテンツについての時系列を表すタイムラインに対してユーザが行った操作に応じた操作情報を取得する操作情報取得手順と、
     前記操作情報に基づいて、前記合成コンテンツを編集する合成コンテンツ編集手順と、
     を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
     
PCT/JP2016/069204 2015-06-29 2016-06-29 編集装置、編集方法および記録媒体 WO2017002832A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-130419 2015-06-29
JP2015130419A JP2017016275A (ja) 2015-06-29 2015-06-29 制御方法

Publications (1)

Publication Number Publication Date
WO2017002832A1 true WO2017002832A1 (ja) 2017-01-05

Family

ID=57609204

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069204 WO2017002832A1 (ja) 2015-06-29 2016-06-29 編集装置、編集方法および記録媒体

Country Status (2)

Country Link
JP (1) JP2017016275A (ja)
WO (1) WO2017002832A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置
CN107680627A (zh) * 2017-10-31 2018-02-09 北京酷我科技有限公司 一种k歌录音的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354664A (ja) * 2004-05-13 2005-12-22 Sony Corp 画像表示方法、画像処理装置、プログラム及び記録媒体
JP2011526087A (ja) * 2008-06-27 2011-09-29 トムソン ライセンシング 編集装置及び編集方法
JP2015504629A (ja) * 2011-11-14 2015-02-12 アップル インコーポレイテッド マルチメディアクリップの生成

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5099335B2 (ja) * 2007-10-23 2012-12-19 独立行政法人産業技術総合研究所 音データ生成装置およびプログラム
JP5471749B2 (ja) * 2010-04-09 2014-04-16 ソニー株式会社 コンテンツ検索装置および方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354664A (ja) * 2004-05-13 2005-12-22 Sony Corp 画像表示方法、画像処理装置、プログラム及び記録媒体
JP2011526087A (ja) * 2008-06-27 2011-09-29 トムソン ライセンシング 編集装置及び編集方法
JP2015504629A (ja) * 2011-11-14 2015-02-12 アップル インコーポレイテッド マルチメディアクリップの生成

Also Published As

Publication number Publication date
JP2017016275A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP7387891B2 (ja) 動画ファイルの生成方法、装置、端末及び記憶媒体
JP5361908B2 (ja) 編集装置及び編集方法
KR101328199B1 (ko) 동영상 편집 방법 및 그 단말기 그리고 기록매체
US8327267B2 (en) Image data processing apparatus, image data processing method, program, and recording medium
JP2012054619A (ja) 編集装置、編集方法、編集プログラム及びデータ構造
JP2005202863A (ja) 情報表示プログラム、情報表示方法、情報表示装置及び記録媒体
JP2008033743A (ja) 時系列データ再生制御のためのプログラム及び装置
JP2009230468A (ja) 再生装置、再生装置の制御方法および制御プログラム
KR20160065020A (ko) 화상 표시 장치 및 화상 표시 방법
JP2023506587A (ja) ビデオ吹き替え方法、装置、設備及び記憶媒体
WO2017002832A1 (ja) 編集装置、編集方法および記録媒体
KR20240011861A (ko) 정보 게시 방법, 정보의 디스플레이 방법, 장치, 전자 설비 및 매체
KR20120026344A (ko) 멀티미디어 장치 및 그의 컨텐츠 제공 방법
JP4871839B2 (ja) 動画再生装置
JPWO2018173740A1 (ja) 表示制御装置、表示制御方法及び表示制御用プログラム
KR100949480B1 (ko) 기록 재생 장치
JP2012142881A (ja) 字幕編集装置、字幕編集方法、及びコンピュータプログラム
JP6287320B2 (ja) 画像処理装置および画像処理プログラム
KR101871751B1 (ko) 디스플레이 디바이스 및 그 제어 방법
JP4257327B2 (ja) 動画像編集装置
JP5737988B2 (ja) 画像処理装置およびその制御方法およびプログラム
JP6191968B2 (ja) データ処理装置と、そのプログラム
JP2018085150A (ja) 電子機器およびプログラム
JP5707567B2 (ja) 画像処理装置および画像処理方法
JP4038888B2 (ja) 映像編集装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817940

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817940

Country of ref document: EP

Kind code of ref document: A1