WO2020066659A1 - 情報処理方法、情報処理装置およびプログラム - Google Patents

情報処理方法、情報処理装置およびプログラム Download PDF

Info

Publication number
WO2020066659A1
WO2020066659A1 PCT/JP2019/035901 JP2019035901W WO2020066659A1 WO 2020066659 A1 WO2020066659 A1 WO 2020066659A1 JP 2019035901 W JP2019035901 W JP 2019035901W WO 2020066659 A1 WO2020066659 A1 WO 2020066659A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
scene
user
recording
template
Prior art date
Application number
PCT/JP2019/035901
Other languages
English (en)
French (fr)
Inventor
直之 安立
克己 石川
康之介 加藤
祐二 小池
謙一良 齋藤
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2020066659A1 publication Critical patent/WO2020066659A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Definitions

  • the present disclosure relates to a technology for processing a moving image.
  • Patent Literature 1 discloses a technique of shooting each scene with a video camera in order to generate a content including a plurality of scenes.
  • one embodiment of the present disclosure aims to capture an appropriate moving image for each of a plurality of scenes.
  • an information processing method records a plurality of moving images by a recording device and receives an instruction to select a first moving image from the plurality of moving images from a user.
  • the first moving image is associated with a first scene among a plurality of scenes included in the template, and a moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
  • An information processing apparatus includes a first recording processing unit that records a plurality of moving images by a recording device, and a selection receiving unit that receives an instruction to select a first moving image among the plurality of moving images from a user.
  • a moving image corresponding unit that associates the first moving image with a first scene among a plurality of scenes included in the template; and a moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
  • a second recording processing unit is included in the recording device.
  • a program includes a first recording processing unit that records a plurality of moving images by a recording device, a selection receiving unit that receives an instruction to select a first moving image from the plurality of moving images from a user, and a template.
  • a moving image corresponding unit that associates the first moving image with a first scene among a plurality of scenes included therein; and a second unit that records a moving image corresponding to a scene other than the first scene among the plurality of scenes with the recording device.
  • the computer functions as a recording processing unit.
  • FIG. 2 is a block diagram illustrating a configuration of the information processing apparatus according to the first embodiment. It is a schematic diagram of a template. 5 is a flowchart illustrating a specific procedure of a process executed by the control device. It is a flowchart which illustrates the specific procedure of the process which selects a use template. It is a schematic diagram which illustrates transition of the screen which a display apparatus displays in the process of selecting a use template. It is a schematic diagram which illustrates transition of the screen which a display apparatus displays in the process of imaging
  • FIG. 1 is a block diagram illustrating a configuration of the information processing apparatus 100 according to the first embodiment of the present disclosure.
  • the information processing apparatus 100 is a computer system for recording a plurality of moving images constituting a content.
  • an information terminal such as a mobile phone, a smartphone, a tablet terminal, or a personal computer is used as the information processing device 100.
  • the content is composed of a time series of a plurality of moving images respectively corresponding to a plurality of scenes.
  • various types of content related to a company such as content introducing a company or content for recruiting human resources, are assumed. Examples of the content that introduces the company include content that introduces the company itself, content that introduces products handled by the company, and content that introduces technology developed by the company.
  • the contents of the contents are not limited to the above examples.
  • the information processing apparatus 100 includes a control device 11, a storage device 12, a communication device 13, a display device 14, an input device 15, and a recording device 16.
  • the control device 11 includes one or more processors that control each element of the information processing device 100.
  • the control device 11 includes one or more types of processors such as a CPU (Central Processing Unit) or an FPGA (Field Programmable Gate Array). Note that some functions of the control device 11 may be realized by a dedicated electronic circuit. Further, the function of the control device 11 may be mounted on a plurality of devices.
  • the communication device 13 communicates with the editing device 300 via a communication network 200 including a mobile communication network or the Internet. Specifically, the communication device 13 transmits to the editing device 300 data including a moving image recorded for each of the plurality of scenes (hereinafter, referred to as “material data”).
  • the editing device 300 generates one content by editing the material data received from the information processing device 100. For example, content is generated by automatic or manual editing.
  • the content generated by the editing device 300 is provided to the information processing device 100. Note that the information processing apparatus 100 may generate the content from the material data.
  • the display device 14 displays various images under the control of the control device 11.
  • a liquid crystal display panel is used as the display device 14.
  • the display device 14 displays, for example, a screen for recording a plurality of moving images and each moving image of the content generated by the editing device 300.
  • the input device 15 receives an operation by a user.
  • an operation device operated by a user or a touch panel integrated with the display device 14 is used as the input device 15.
  • a sound collection device capable of voice input may be used as the input device 15.
  • the recording device 16 is an image input device that records a moving image including video and sound.
  • the recording device 16 includes an imaging device that converts incident light from an optical system such as a photographic lens into an electric signal, and a sound collection device that collects surrounding sounds.
  • the moving image recorded by the recording device 16 is represented by moving image data of an arbitrary format.
  • the recording device 16 separate from the information processing device 100 may be connected to the information processing device 100 by wire or wirelessly. Note that a moving image that does not include sound may be recorded.
  • the storage device 12 is a single or a plurality of memories for storing programs executed by the control device 11 and various data used by the control device 11. For example, a moving image recorded by the recording device 16 is stored in the storage device 12.
  • a known recording medium such as a semiconductor recording medium and a magnetic recording medium, or a combination of plural types of recording media is arbitrarily adopted as the storage device 12.
  • a portable recording medium that is detachable from the information processing apparatus 100 or an external recording medium (for example, an online storage) with which the information processing apparatus 100 can communicate may be used as the storage device 12. That is, the storage device 12 may be omitted from the information processing device 100.
  • the storage device 12 of the first embodiment stores a plurality of templates T serving as the basis of the content.
  • each of the plurality of templates T is time-series data including a plurality of scenes serving as a unit for recording a moving image.
  • the total number and combinations of scenes included in one template T differ for each template T.
  • Each scene is a unit corresponding to a specific subject or purpose.
  • various scenes are registered in the template T, such as a scene with a title such as a company name or a product name, a scene introducing a product, a scene presenting a plurality of types of products, or a scene introducing a use example of a product.
  • the appropriate content of the moving image differs for each scene.
  • the plurality of scenes included in each template T include a first scene and a second scene.
  • the first scene and the second scene are selected in advance by the creator of the template T.
  • the template T includes data specifying a first scene and a second scene among a plurality of scenes.
  • the first scene and the second scene are important scenes in the content. For example, among a plurality of scenes of the content, an early highlight scene introducing a company, or a middle or late highlight scene claiming an advantage of a product of the company is defined as a first scene and a second scene in advance. Is selected.
  • the first scene is a more important scene than the second scene. Note that the user may select the first scene and the second scene.
  • FIG. 2 is a schematic diagram showing the configuration of an arbitrary template T. As illustrated in FIG. 2, each template T is configured to include attribute data X representing an attribute of the template T and a plurality of unit data U regarding different scenes.
  • the attribute data X of any one template T includes a type X1 of the content generated based on the template T, a purpose X2 of the content, and an object such as a company or a product represented by the content (hereinafter referred to as “object to be expressed”). )).
  • the content purpose X2 is a matter that the user wants to assert to the viewer of the content.
  • the advantage X3 is a matter that the user perceives as a strong point of the expression target in comparison with other companies or products (as a result, what the user wants to assert to the viewer).
  • the unit data U of any one scene includes a guide character string U1 and an additional character string U2.
  • the guide character string U1 of each scene is a character string for guiding the shooting of the moving image of the scene. For example, points to be considered at the time of photographing are prepared for each scene as a guide character string U1.
  • the additional character string U2 is a character string to be added to the moving image (that is, a telop displayed with the moving image).
  • the control device 11 of the first embodiment executes the processing illustrated in FIG. 3 by executing the program stored in the storage device 12. For example, the processing of FIG. 3 is started in response to an instruction from the user to the input device 15.
  • the control device 11 selects one of the plurality of templates T stored in the storage device 12 (hereinafter, referred to as “used template T”) (Sa1).
  • FIG. 4 is a flowchart illustrating a specific procedure of the process (Sa1) for selecting the used template T.
  • the control device 11 causes the display device 14 to display the screen Ga1 of FIG. 5 including a plurality of options regarding the type (category) of the content (Sb1), and waits for a user's selection instruction (Sb2: NO).
  • Sb2: YES When an instruction to select a type by the user is received (Sb2: YES), the control device 11 causes the display device 14 to display the screen Ga2 of FIG. 5 including a plurality of options relating to the purpose of the content (Sb3), and It waits for a selection instruction (Sb4: NO).
  • a plurality of options such as “characteristics of company”, “appeal of technical ability”, or “improve image”, are displayed on the screen Ga2.
  • the control device 11 causes the display device 14 to display the screen Ga3 of FIG. 5 including a plurality of options regarding the superiority of the content expression target (Sb5).
  • a selection instruction from the user Sb6: NO.
  • a plurality of options such as “reliability”, “advanced” or “safety” (that is, a phrase expressing the superiority of the expression target) are displayed on the screen Ga3.
  • control device 11 accepts a user's selection instruction for each of a plurality of items (hereinafter, referred to as “instruction items”).
  • instruction items a user's selection instruction for each of a plurality of items.
  • the type and purpose of the content and the superiority of the expression target are examples of instruction items.
  • the control device 11 selects one use template T according to the result of the user's selection from the plurality of templates T stored in the storage device 12. Is selected (Sb7). Specifically, the control device 11 selects a template T of the attribute data X similar to the combination of the type, the meaning, and the superiority point selected by the user as the use template T. That is, the use template T suitable for generating the content according to the user's intention is selected. As understood from the above description, the control device 11 functions as an element (selection processing unit) for selecting the used template T from the plurality of templates T. Specifically, the control device 11 selects the use template T according to an instruction from the user regarding each of the plurality of instruction items.
  • the control device 11 accepts input of two words W (Wa and Wb) from the user as illustrated in FIG. 3 (Sa2). Specifically, the control device 11 causes the display device 14 to display the screen Gb0 of FIG. 6 including the input field of each phrase W on the display device 14 and waits for an input by the user.
  • Each phrase W is an arbitrary keyword (word or phrase) representing a matter that the user wants to assert to the viewer of the content. For example, if the user wants to claim the high technical capability of the company, the user enters a word W such as "advanced technology". Enter W.
  • FIG. 7 is a flowchart illustrating a specific procedure of a process of recording the moving image M corresponding to the phrase W (hereinafter, referred to as “first recording process”).
  • the moving image Ma is recorded by executing the first recording process on the word Wa (Sa3), and the moving image Mb is generated by executing the first recording process on the word Wb (Sa4).
  • the control device 11 causes the display device 14 to display the screen Gb1 of FIG. 6 for guiding the user to shoot the moving image M corresponding to the phrase W (Sc1).
  • the guidance on the screen Gb1 includes the phrase W.
  • a guidance including the word Wa is displayed on the screen Gb1
  • the guidance including the word Wb is displayed. Is displayed on the screen Gb1.
  • the control device 11 causes the display device 14 to display the screen Gb2 of FIG. 6 for capturing the moving image M corresponding to the phrase W (Sc2).
  • the screen Gb2 is configured to include a shooting region R1, an additional region R2, and an operation region R3.
  • a video image picked up by the image pickup device of the recording device 16 is displayed in real time (that is, live view display).
  • the phrase W is displayed in the additional area R2.
  • an operator for receiving an operation from the user is displayed.
  • an operation element B for instructing start and end of recording of the moving image M is arranged in the operation area R3.
  • the control device 11 After the screen Gb2 is displayed, the control device 11 records the moving image M corresponding to the phrase W by the recording device 16 in accordance with an instruction from the user (Sc3). Specifically, the control device 11 causes the recording device 16 to record the moving image Ma corresponding to the word Wa (Sa3) or to record the moving image Mb corresponding to the word Wb (Sa4). For example, when the user operates the operator B on the screen Gb2, the control device 11 causes the recording device 16 to start recording the moving image M. The user uses the recording device 16 to shoot a moving image M that matches the phrase W. Further, when the user operates the operation element B during the recording, the recording of the moving image M by the recording device 16 ends.
  • the recording of the moving image M may be ended when a predetermined time has elapsed from the start of the recording.
  • the moving image M recorded by the recording device 16 is stored in the storage device 12.
  • the control device 11 functions as an element (first recording processing unit) for recording a plurality of moving images M (the moving images Ma and Mb) by the recording device 16.
  • the control device 11 causes the display device 14 to display the screen Gc of FIG. 8 (Sa5).
  • the screen Gc includes a playback area Qa and a playback area Qb.
  • a moving image Ma and a word Wa are displayed in the reproduction area Qa, and a moving image Mb and the word Wb are displayed in the reproduction area Qb.
  • the user compares the moving image Ma with the moving image Mb by visually recognizing the screen Gc, and operates one of the moving images M and Mb by operating the input device 15 (hereinafter referred to as “first moving image M1”). ). For example, the user selects the impressive one of the moving images Ma and Mb as the first moving image M1.
  • the control device 11 receives an instruction of the user to select the first moving image M1 (Sa6).
  • a moving image that the user does not select on the screen Gc among the moving images Ma and Mb is hereinafter referred to as a “second moving image M2”.
  • the control device 11 functions as an element (selection receiving unit) that receives an instruction to select the first moving image M1 from the plurality of moving images M from the user.
  • the control device 11 associates the first moving image M1 with the first scene and the second moving image M2 with the second scene among the plurality of scenes included in the used template T (Sa7). For example, the control device 11 adds identification information of the first scene to the first moving image M1, and adds identification information of the second scene to the second moving image M2. As understood from the above description, the control device 11 functions as an element (moving image corresponding unit) that associates the first moving image M1 with the first scene of the usage template T and associates the second moving image M2 with the second scene.
  • the control device 11 generates an additional character string U2 corresponding to the word W corresponding to the first moving image M1 and the superiority X3 indicated by the attribute data X for each scene (Sa8). Specifically, for each of the plurality of scenes of the usage template T, the control device 11 inserts the word W and the superiority X3 into the initial additional character string U2 of the scene. That is, the additional character string U2 is updated according to the phrase W and the superiority X3.
  • the initial additional character string U2 is a character string “ ⁇ B ⁇ realized by ⁇ A ⁇ ”.
  • the word W of the first moving image M1 is "advanced technology” and the superiority X3 is "reliability”
  • the word W is inserted into the blank ⁇ A ⁇ and the superiority X3 is inserted into the blank ⁇ B ⁇ .
  • an additional character string U2 of “ ⁇ reliability realized by advanced technology ⁇ ” is generated.
  • the additional character string U2 generated for each scene according to the phrase W and the superiority X3 is associated with the scene of the use template T.
  • the first moving image M1 is associated with the first scene. Therefore, the control device 11 functions as an element (correspondence management unit) for associating the additional character string U2 generated according to the phrase W of the first moving image M1 with the first moving image M1.
  • the additional character string U2 is generated for all scenes of the usage template T. However, the additional character string U2 may be generated for only some scenes of the usage template T. Further, in the above description, the additional character string U2 corresponding to the superiority point X3 indicated by the attribute data X is generated, but the additional character string U2 is added according to the superiority point selected by the user in the process of selecting the use template T (Sb5, Sb6). The character string U2 may be generated.
  • the control device 11 generates a guide character string U1 corresponding to the word W corresponding to the first moving image M1 and the superiority X3 indicated by the attribute data X for each scene (Sa9). Specifically, for each of the plurality of scenes of the used template T, the control device 11 inserts the word W and the superiority X3 into the initial guidance character string U1 of the scene. That is, the guidance character string U1 is updated according to the word W and the superiority X3.
  • the order of the generation of the additional character string U2 (Sa8) and the generation of the guidance character string U1 (Sa9) may be reversed.
  • the initial guidance character string U1 is a character string "let's shoot a moving image that emphasizes ⁇ B ⁇ to impress ⁇ A ⁇ to the viewer".
  • the phrase W of the first moving image M1 is "advanced technology” and the superiority X3 is "reliability”.
  • the guide character string U1 generated for each scene according to the phrase W and the superiority X3 is associated with the scene of the use template T.
  • the guide character string U1 is generated for all scenes of the used template T.
  • the guide character string U1 may be generated for only some scenes of the used template T.
  • the guide character string U1 corresponding to the superiority point X3 indicated by the attribute data X is generated.
  • the guide character string U1 is selected according to the superiority point selected by the user in the selection of the use template T (Sb5, Sb6). U1 may be generated.
  • the control device 11 executes a process of recording the moving image M for each scene of the used template T (hereinafter, referred to as “second recording process”) in accordance with an instruction from the user (Sa10). .
  • the control device 11 records the moving image M of the scene selected by the user (hereinafter, referred to as “recording scene”) from the plurality of scenes by the recording device 16.
  • the user can select any scene including the first scene and the second scene as a recording scene by appropriately operating the input device 15.
  • the moving image M recorded in the second recording process is associated with the recording scene.
  • the recorded moving image M corresponding to the recording scene is recorded in the latest second recording process. Is replaced with the moving image M.
  • FIG. 9 is a flowchart illustrating a specific procedure of the second recording process (Sa10) for recording the moving image M of one recording scene.
  • the second recording process is started in response to a user's instruction to select a recording scene.
  • the control device 11 causes the display device 14 to display a screen Gd1 in FIG. 10 for guiding the user to shoot the moving image M of the recording scene (Sd1).
  • a guidance character string U1 associated with the recording scene is displayed on the screen Gd1.
  • the guidance character string U1 includes the phrase W specified by the user and the superiority X3. Therefore, by referring to the guidance character string U1, the user can reconfirm the overall purpose of the content as well as the precautions regarding the shooting of the recording scene.
  • the control device 11 causes the display device 14 to display the screen Gd2 of FIG. 10 for capturing the moving image M of the recording scene (Sd2).
  • the screen Gd2 includes a shooting area R1, an additional area R2, and an operation area R3, like the screen Gb1 illustrated in FIG.
  • a video image captured by the recording device 16 is displayed in real time.
  • an additional character string U2 associated with the recording scene is displayed in the additional area R2.
  • An operation element B for receiving an operation from the user is displayed in the operation area R3.
  • the control device 11 records the moving image M of the recording scene by the recording device 16 in response to an instruction from the user to the operation element in the operation area R3 (Sd3).
  • the control device 11 uses the recording device 16 to record a moving image corresponding to a recording scene (for example, a scene other than a recorded scene such as the first scene and the second scene) by the recording device 16 (second scene). Function as a recording processing unit).
  • the control device 11 associates the moving image M recorded for the recording scene with the recording scene of the use template T (Sd4).
  • the second recording process is repeated for each scene until the user instructs the end of the process (Sa11: NO).
  • the user can view the moving image M of each recorded scene. That is, the control device 11 causes the display device 14 to display the recorded moving image M instructed to be viewed by the user. Therefore, the user can, for example, shoot the moving image M of other scenes while appropriately viewing the first moving image M1 recorded for the first scene or the second moving image M2 recorded for the second scene. is there.
  • the moving image M and the additional character string U2 are associated with each scene of the used template T.
  • the control device 11 edits the material data including the moving image M and the additional character string U2 corresponding to each of the plurality of scenes of the use template T from the communication device 13.
  • the data is transmitted to the device 300 (Sa12).
  • the editing apparatus 300 appropriately adjusts the moving image M in which the additional character string U2 is synthesized, and then generates content in which a plurality of scenes are arranged in time series.
  • the first moving image M1 selected by the user among the plurality of moving images M is associated with the first scene of the use template T, and The corresponding moving image M is recorded by the recording device 16. Therefore, the user can use the recording device 16 to shoot a moving image M corresponding to a scene other than the first scene while appropriately checking the recorded first moving image M1 corresponding to the first scene.
  • the first moving image M1 is associated with the first scene, but also the second moving image M2 is associated with the second scene. Therefore, the user can shoot a moving image corresponding to a scene other than the first scene and the second scene with the recording device 16 while appropriately referring to the first moving image M1 and the second moving image M2.
  • a plurality of moving images M (Ma, Mb) corresponding to a word W received from a user are recorded by the recording device 16, and an additional character string U2 and a first moving image M1 corresponding to the word W are recorded. It is associated with the first scene. Therefore, compared to a configuration in which the user specifies the additional character string U2 separately from the phrase W, it is possible to reduce the work load of the user. Further, in the first embodiment, since the use template T is selected according to the purpose and the advantage point instructed by the user for the content, it is possible to generate the content according to the user's intention.
  • FIG. 11 is a flowchart illustrating a procedure of a process (Sa1) in which the control device 11 of the second embodiment selects a use template T.
  • a process Sa1
  • an input of a type of content Sb1, Sb2
  • a purpose of content Sb3, Sb4
  • an advantage Sb5, Sb6 of an expression target is received from a user.
  • the control device 11 specifies the required time ⁇ (Se).
  • the required time ⁇ is the time required by the user to instruct each of the plurality of instructions.
  • control device 11 starts time measurement, for example, together with the display of the screen Ga1 (Sb1), and specifies the time that has elapsed until the time when the instruction to select the superior point is received (Sb6: YES) as the required time ⁇ .
  • the control device 11 selects the template T to be used in accordance with the instruction from the user regarding each instruction and the required time ⁇ (Sb7). Specifically, the control device 11 selects a longer template T among the plurality of templates T as the used template T as the required time ⁇ is longer.
  • the use template T is selected according to an instruction from the user regarding a plurality of instruction items (content type and purpose and superiority of the expression target).
  • the use template T is selected according to the word W specified by the user.
  • FIG. 12 is a schematic diagram of a template T according to the third embodiment.
  • the attribute data X of the template T of the third embodiment stores a phrase vector V representing a phrase related to the template T.
  • the phrase related to each template T is a word or phrase representing a matter that the user is supposed to assert to the viewer in the content using the template T, and is set in advance by the creator of the template T.
  • the phrase vector V is a vector representing a position in a language space (semantic space) representing a semantic relationship between phrases.
  • the word vector V is specified by natural language processing using a statistical estimation model (Word2Vec) such as a neural network. Specific examples of the statistical estimation model are described in detail, for example, in Tomas Mikolov et al. "Efficient Estimation of Word Representations in Vector Vector Space," arXiv: 1301.3781 [cs.CL], 2013.
  • FIG. 13 is a flowchart illustrating a specific procedure of a process executed by the control device 11 of the third embodiment. As illustrated in FIG. 13, the control device 11 of the third embodiment executes steps Sf1 to Sf3 instead of steps Sa1 and Sa2 of FIG. In the third embodiment, the processing of FIG. 4 for selecting the use template T in accordance with the instruction from the user regarding a plurality of instruction items is not executed.
  • the control device 11 accepts an input of two words W (Wa and Wb) from the user as in step Sa2 of FIG. 3 (Sf1). Specifically, the control device 11 causes the display device 14 to display the screen Gb0 of FIG. 6 including an input column for each phrase W on the display device 14 and receives an input of each phrase W by the user.
  • the control device 11 specifies the word vector ⁇ by analyzing the words Wa specified by the user (Sf2). As described above, natural language processing using a statistical estimation model such as a neural network is employed to specify the word vector ⁇ .
  • the control device 11 selects a used template T corresponding to the word Wa from the plurality of templates T stored in the storage device 12 (Sf3). Specifically, for each of the plurality of templates T, the control device 11 calculates a similarity index between the word vector V of the template T and the word vector ⁇ of the word Wa.
  • the similarity index is an index (correlation or distance) of similarity between the word vector V and the word vector ⁇ .
  • the control device 11 selects a template T in which the degree of similarity represented by the similarity index is the maximum (correlation maximum or distance minimum) among the plurality of templates T stored in the storage device 12 as the use template T. That is, the template T in which a word having a high semantic correlation with the word Wa specified by the user is selected.
  • the control device 11 of the third embodiment functions as an element (selection processing unit) for selecting the use template T according to the word Wa specified by the user.
  • the third embodiment also achieves the same effects as the first embodiment. Further, in the third embodiment, since the use template T corresponding to the word Wa specified by the user is selected, there is an advantage that a suitable content can be generated using the template T suitable for the user's intention. .
  • the configuration in which the instruction from the user regarding the plurality of instruction items is not taken into consideration in the selection of the use template T is illustrated. However, the instruction from the user regarding the plurality of instruction items and the word Wa specified by the user are used.
  • the use template T may be selected according to both of the above.
  • two moving images M (Ma and Mb) respectively corresponding to two words W (Wa and Wb) are recorded by the first recording process.
  • the total number of moving images M recorded by the first recording process are not limited to the above examples.
  • an input of three or more words W may be received from a user, and three or more moving images M corresponding to each word W may be recorded by the first recording process.
  • the user selects one of the plurality of moving images M (Ma and Mb), but the user alternatively selects one of the plurality of moving images M. It is not mandatory.
  • the user may set the priority for each of the plurality of moving images M, and associate the moving image M having the first priority (that is, the highest priority) with the first scene as the first moving image M1.
  • the moving image M having the second highest priority among the plurality of moving images M may be associated with the second scene as the second moving image M2.
  • the first moving image M1 selected by the user is associated with the first scene
  • the unselected second moving image M2 is associated with the second scene. May be discarded. That is, the process of associating the second moving image M2 with the second scene is omitted.
  • the use template T is selected according to the word Wa among the two words W (Wa and Wb) specified by the user, but the control device 11 uses the template W according to the word Wb.
  • the template T may be selected.
  • the control device 11 may select a use template T corresponding to both the words Wa and the words Wb. For example, the control device 11 generates an intermediate word vector ⁇ between the word vector corresponding to the word Wa and the word vector corresponding to the word Wb. Then, the control device 11 selects a template T associated with a word vector V similar to the word vector ⁇ among the plurality of templates T as a used template T.
  • the guide character string U1 and the additional character string U2 are generated according to the word W corresponding to the first moving image M1 and the superiority X3 indicated by the attribute data X.
  • the column U1 and the additional character string U2 may be changed according to an instruction from the user. Further, for the material data received by the editing device 300 from the information processing device 100, the editing device 300 transmits the guide character string U1 and the additional The character string U2 may be changed.
  • the updated additional character string U2 is generated by inserting the word W and the superiority X3 into the initial additional character string U2, but only one of the word W and the superiority X3 is used. May be inserted into the initial additional character string U2.
  • the updated guidance character string U1 is generated by inserting the word W and the superiority X3 into the initial guidance character string U1, but only one of the word W and the superiority X3 is added. It may be inserted into the initial guidance character string U1.
  • the editing device 300 may edit the moving image M in the material data received from the information processing device 100 according to an instruction from the information processing device 100 or another information terminal. Also, the editing device 300 may replace the moving image M in the material data received from the information processing device 100 with a moving image transmitted from the information processing device 100 or another information terminal.
  • the functions of the information processing apparatus 100 according to each of the above-described embodiments are realized by cooperation of a processing circuit such as the control device 11 and a program, as exemplified in each embodiment.
  • the program according to each of the above-described embodiments may be provided in a form stored in a computer-readable recording medium and installed on the computer.
  • the recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, and a known arbitrary recording medium such as a semiconductor recording medium or a magnetic recording medium is used. Recording media of the type described above are also included.
  • non-transitory recording medium includes any recording medium except for a transient propagation signal (transitory, ⁇ propagating ⁇ signal), and does not exclude a volatile recording medium.
  • the program may be provided to the computer in a form of distribution via a communication network.
  • An information processing method executes a first recording process of recording a plurality of moving images by a recording device, and uses an instruction to select a first moving image from the plurality of moving images.
  • the first moving image is associated with a first scene among a plurality of scenes included in a template, and a moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
  • the first moving image selected by the user among the plurality of moving images is associated with the first scene of the template, and the moving image corresponding to a scene other than the first scene is recorded by the recording device in the second recording process. Recorded by.
  • the “scene other than the first scene” is not limited to all scenes other than the first scene among a plurality of scenes, and may be some scenes other than the first scene.
  • an input of a plurality of words is received from a user, and in the first recording process, the plurality of moving images respectively corresponding to the plurality of words are recorded by the recording device. Then, an additional character string to be combined with the first moving image is generated according to a phrase corresponding to the first moving image, and the first moving image and the additional character string are associated with the first scene.
  • a plurality of moving images corresponding to the phrase received from the user are recorded by the recording device, and the additional character string corresponding to the phrase and the first moving image are associated with the first scene. Therefore, it is possible to reduce the work load of the user as compared with a configuration in which the user designates the additional character string separately from the phrase.
  • a second moving image other than the first moving image is selected from the plurality of moving images according to an instruction from a user, and a second moving image other than the first scene is selected from the plurality of scenes. Is associated with the second scene.
  • the user can use the recording device to shoot a moving image corresponding to a scene other than the first scene and the second scene while referring to the first moving image and the second moving image.
  • an input of a purpose of content generated using the template is received from a user, and an advantage regarding an object represented by the content is received.
  • the template is selected in accordance with the purpose of the content and the superiority of the object.
  • the fourth aspect in selecting a template, it takes a long time for the user to select an option for one or more items including the purpose of the content and an advantage regarding the object. Then, a longer template is selected from the plurality of templates. When the time required for the user to select an option for each item is long, it is assumed that the user is not able to narrow down each item sufficiently and is in trouble. According to the fifth aspect, the longer the required time is, the longer the template is selected, so that there is an advantage that it is possible to generate suitable content sufficiently incorporating various intentions of the user.
  • the template is selected from a plurality of templates according to at least one of the plurality of phrases. According to the above aspect, there is an advantage that a template suitable for a user's intention can be selected.
  • An information processing apparatus includes a first recording processing unit that records a plurality of moving images by a recording device, and a user that issues an instruction to select a first moving image from the plurality of moving images. And a moving image corresponding unit for associating the first moving image with a first scene among a plurality of scenes included in the template, and a moving image corresponding to a scene other than the first scene among the plurality of scenes.
  • a program includes a first recording processing unit that records a plurality of moving images by a recording device, a selection that receives an instruction to select a first moving image from the plurality of moving images from a user.
  • a receiving unit, a moving image corresponding unit that associates the first moving image with a first scene among a plurality of scenes included in a template, and a recording device that stores a moving image corresponding to a scene other than the first scene among the plurality of scenes causess the computer to function as a second recording processing unit for recording.
  • Japanese Patent Application Laid-Open No. 2015-115718 discloses a technique of shooting a moving image for each scene using a template selected by a user among a plurality of templates, and creating a video work by integrating the plurality of moving images. ing. However, it is actually not easy for a user who does not have specialized knowledge about capturing or editing a moving image to select an appropriate template from a plurality of templates according to his or her intention.
  • the information processing method receives an input of a phrase from a user, selects a template corresponding to the phrase from a plurality of templates, and includes the template in the template.
  • a moving image corresponding to each of the plurality of scenes is recorded by the recording device.
  • the template corresponding to the phrase received from the user is selected, so that even a user who does not have specialized knowledge of shooting or editing a moving image can use an appropriate template according to his or her intention.
  • a moving image can be shot by using the above method.
  • 100 information providing device 11 control device, 12 storage device, 13 communication device, 14 display device, 15 input device, 16 recording device, 200 communication network, 300 editing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

情報処理装置は、収録装置により複数の動画を収録する第1収録処理を実行し、複数の動画のうち第1動画の選択の指示を利用者から受付け、テンプレートに含まれる複数のシーンのうちの第1シーンに第1動画を対応付け、複数のシーンのうち第1シーン以外のシーンに対応する動画を収録装置により収録する第2収録処理を実行する。

Description

情報処理方法、情報処理装置およびプログラム
 本開示は、動画を処理する技術に関する。
 端末装置を利用して動画を収録する技術が従来から提案されている。例えば特許文献1には、複数のシーンで構成されるコンテンツを生成するために、各シーンをビデオカメラで撮影する技術が開示されている。
特開2004-32277号公報
 動画の撮影または編集に関する専門的な知識がない利用者にとって、複数のシーンの各々について当該シーンに適切な動画を撮影することは、実際には容易ではない。以上の事情を考慮して、本開示のひとつの態様は、複数のシーンの各々について適切な動画を撮影することを目的とする。
 以上の課題を解決するために、本開示のひとつの態様に係る情報処理方法は、収録装置により複数の動画を収録し、前記複数の動画のうち第1動画の選択の指示を利用者から受付け、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付け、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する。
 本開示のひとつの態様に係る情報処理装置は、収録装置により複数の動画を収録する第1収録処理部と、前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部と、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部と、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部とを具備する。
 本開示のひとつの態様に係るプログラムは、収録装置により複数の動画を収録する第1収録処理部、前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部、および、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部、としてコンピュータを機能させる。
第1実施形態における情報処理装置の構成を例示するブロック図である。 テンプレートの模式図である。 制御装置が実行する処理の具体的な手順を例示するフローチャートである。 使用テンプレートを選択する処理の具体的な手順を例示するフローチャートである。 使用テンプレートを選択する過程で表示装置が表示する画面の遷移を例示する模式図である。 語句に対応する動画を撮影する過程で表示装置が表示する画面の遷移を例示する模式図である。 第1収録処理の具体的な手順を例示するフローチャートである。 複数の動画の何れかを利用者が選択するための画面の模式図である。 第2収録処理の具体的な手順を例示するフローチャートである。 第2収録処理の過程で表示装置が表示する画面の遷移を例示する模式図である。 第2実施形態において使用テンプレートを選択する処理の具体的な手順を例示するフローチャートである。 第3実施形態におけるテンプレートの模式図である。 第3実施形態の制御装置が実行する処理の具体的な手順を例示するフローチャートである。
<第1実施形態>
 図1は、本開示の第1実施形態に係る情報処理装置100の構成を例示するブロック図である。情報処理装置100は、コンテンツを構成する複数の動画を収録するためのコンピュータシステムである。例えば、携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の情報端末が、情報処理装置100として利用される。コンテンツは、複数のシーンにそれぞれ対応する複数の動画の時系列で構成される。第1実施形態では、例えば企業を紹介するコンテンツまたは人材募集のためのコンテンツなど、企業に関する各種のコンテンツを想定する。企業を紹介するコンテンツとしては、例えば企業自体を紹介するコンテンツのほか、企業が取扱う製品を紹介するコンテンツ、または、企業が開発した技術を紹介するコンテンツなどが想定される。もっとも、コンテンツの内容は以上の例示に限定されない。
 図1に例示される通り、第1実施形態の情報処理装置100は、制御装置11と記憶装置12と通信装置13と表示装置14と入力装置15と収録装置16とを具備する。制御装置11は、情報処理装置100の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置11は、CPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)等の1種類以上のプロセッサで構成される。なお、制御装置11の一部の機能を専用の電子回路で実現してもよい。また、制御装置11の機能を複数の装置に搭載してもよい。
 通信装置13は、移動体通信網またはインターネット等を含む通信網200を介して編集装置300と通信する。具体的には、通信装置13は、複数のシーンの各々について収録された動画を含むデータ(以下「素材データ」という)を編集装置300に送信する。編集装置300は、情報処理装置100から受信した素材データを編集することで1個のコンテンツを生成する。例えば自動または手動による編集でコンテンツが生成される。編集装置300が生成したコンテンツは情報処理装置100に提供される。なお、情報処理装置100が素材データからコンテンツを生成してもよい。
 表示装置14は、制御装置11による制御のもとで各種の画像を表示する。例えば液晶表示パネルが表示装置14として利用される。表示装置14は、例えば複数の動画を収録するための画面、および、編集装置300が生成したコンテンツの各動画を表示する。入力装置15は、利用者による操作を受付ける。例えば、利用者が操作する操作子、または表示装置14と一体に構成されたタッチパネルが、入力装置15として利用される。また、音声入力が可能な収音装置を入力装置15として利用してもよい。
 収録装置16は、映像と音響とを含む動画を収録する画像入力機器である。具体的には、収録装置16は、撮影レンズ等の光学系からの入射光を電気信号に変換する撮像装置と、周囲の音響を収音する収音装置とを具備する。収録装置16が収録した動画は、任意の形式の動画データで表現される。なお、情報処理装置100とは別体の収録装置16を有線または無線により情報処理装置100に接続してもよい。なお、音響を含まない動画を収録してもよい。
 記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する単数または複数のメモリである。例えば収録装置16が収録した動画が記憶装置12に記憶される。半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置12として任意に採用される。なお、情報処理装置100に対して着脱可能な可搬型の記録媒体、または情報処理装置100が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。すなわち、記憶装置12は情報処理装置100から省略され得る。
 第1実施形態の記憶装置12は、コンテンツの基礎となる複数のテンプレートTを記憶する。複数のテンプレートTの各々は、図2に例示される通り、動画の収録の単位となる複数のシーンを含む時系列データである。1個のテンプレートTに含まれるシーンの総数および組合せはテンプレートT毎に相違する。各シーンは、特定の題材または趣旨に対応した単位である。例えば企業名または製品名等の表題のシーン、製品を紹介するシーン、製品の複数の型式を提示するシーン、または製品の利用例を紹介するシーンなど、多様なシーンがテンプレートTに登録される。適切な動画の内容はシーン毎に相違する。
 図2に例示される通り、各テンプレートTに含まれる複数のシーンは、第1シーンと第2シーンとを含む。第1シーンおよび第2シーンは、テンプレートTの作成者により事前に選択される。具体的には、テンプレートTは、複数のシーンのうち第1シーンおよび第2シーンを指定するデータを含む。第1シーンおよび第2シーンは、コンテンツのなかで重要なシーンである。例えば、コンテンツの複数のシーンのうち、企業を紹介する序盤のハイライトシーン、または、当該企業の製品の優位点を主張する中盤または終盤のハイライトシーンが、第1シーンおよび第2シーンとして事前に選定される。第1シーンは、第2シーンよりも重要なシーンである。なお、第1シーンおよび第2シーンを利用者が選択してもよい。
 図2は、任意の1個のテンプレートTの構成を示す模式図である。図2に例示される通り、各テンプレートTは、当該テンプレートTの属性を表す属性データXと、相異なるシーンに関する複数の単位データUを含んで構成される。
 任意の1個のテンプレートTの属性データXは、当該テンプレートTを基礎として生成されるコンテンツの種別X1と、コンテンツの趣旨X2と、コンテンツで表現される企業または製品等の対象(以下「表現対象」という)に関する優位点X3とを表す。コンテンツの趣旨X2は、利用者が当該コンテンツの視聴者に主張したい事柄である。優位点X3は、他の企業または製品との比較において利用者が表現対象の強味として認識する事項(結果的には視聴者に主張したい事柄)である。
 任意の1個のシーンの単位データUは、案内文字列U1と付加文字列U2とを含む。各シーンの案内文字列U1は、当該シーンの動画の撮影を案内する文字列である。例えば撮影時の留意点等が案内文字列U1としてシーン毎に用意される。付加文字列U2は、動画に付加されるべき文字列(すなわち動画とともに表示されるテロップ)である。
 第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、図3に例示した処理を実行する。例えば、入力装置15に対する利用者からの指示を契機として図3の処理が開始される。処理を開始すると、制御装置11は、記憶装置12に記憶された複数のテンプレートTの何れか(以下「使用テンプレートT」という)を選択する(Sa1)。
 図4は、使用テンプレートTを選択する処理(Sa1)の具体的な手順を例示するフローチャートである。制御装置11は、コンテンツの種別(カテゴリ)に関する複数の選択肢を含む図5の画面Ga1を表示装置14に表示させ(Sb1)、利用者による選択の指示を待機する(Sb2:NO)。利用者による種別の選択の指示を受付けると(Sb2:YES)、制御装置11は、コンテンツの趣旨に関する複数の選択肢を含む図5の画面Ga2を表示装置14に表示させ(Sb3)、利用者による選択の指示を待機する(Sb4:NO)。例えば「会社の特徴」「技術力のアピール」または「イメージアップ」等の複数の選択肢が画面Ga2に表示される。利用者による趣旨の選択の指示を受付けると(Sb4:YES)、制御装置11は、コンテンツの表現対象の優位点に関する複数の選択肢を含む図5の画面Ga3を表示装置14に表示させ(Sb5)、利用者による選択の指示を待機する(Sb6:NO)。例えば「信頼性」「先進性」または「安全性」等の複数の選択肢(すなわち表現対象の優位点を表現する語句)が画面Ga3に表示される。以上の説明から理解される通り、制御装置11は、複数の事項(以下「指示事項」という)の各々について利用者による選択の指示を受付ける。コンテンツの種別および趣旨と表現対象の優位点とは、指示事項の例示である。
 利用者による優位点の選択の指示を受付けると(Sb6:YES)、制御装置11は、記憶装置12に記憶された複数のテンプレートTから利用者による選択の結果に応じた1個の使用テンプレートTを選択する(Sb7)。具体的には、制御装置11は、利用者が選択した種別、趣旨および優位点の組合せに類似する属性データXのテンプレートTを使用テンプレートTとして選択する。すなわち、利用者の意図に沿ったコンテンツの生成に好適な使用テンプレートTが選択される。以上の説明から理解される通り、制御装置11は、複数のテンプレートTから使用テンプレートTを選択する要素(選択処理部)として機能する。具体的には、制御装置11は、複数の指示事項の各々に関する利用者からの指示に応じて使用テンプレートTを選択する。
 以上の手順(Sb1~Sb7)で使用テンプレートTを選択すると、制御装置11は、図3に例示される通り、2個の語句W(WaおよびWb)の入力を利用者から受付ける(Sa2)。具体的には、制御装置11は、各語句Wの入力欄を含む図6の画面Gb0を表示装置14に表示させて利用者による入力を待機する。各語句Wは、利用者がコンテンツの視聴者に主張したい事項を表す任意のキーワード(単語または句)である。例えば、企業の技術力の高さを主張したい場合、利用者は「高度な技術」等の語句Wを入力し、自社製品の実績を主張したい場合、利用者は「豊富な実績」等の語句Wを入力する。
 語句Waおよび語句Wbの入力を利用者から受付けると、制御装置11は、語句Waに対応する動画Maと語句Wbに対応する動画Mbとを、収録装置16により収録する(Sa3,Sa4)。図7は、語句Wに対応する動画Mを収録する処理(以下「第1収録処理」という)の具体的な手順を例示するフローチャートである。語句Waについて第1収録処理が実行されることで動画Maが収録され(Sa3)、語句Wbについて第1収録処理が実行されることで動画Mbが生成される(Sa4)。
 第1収録処理を開始すると、制御装置11は、語句Wに対応する動画Mの撮影を利用者に案内する図6の画面Gb1を表示装置14に表示させる(Sc1)。画面Gb1の案内には語句Wが含まれる。具体的には、動画Maを生成する第1収録処理(Sa3)においては語句Waを含む案内が画面Gb1に表示され、動画Mbを生成する第1収録処理(Sa4)においては語句Wbを含む案内が画面Gb1に表示される。利用者が処理の進行を指示すると、制御装置11は、語句Wに対応する動画Mを撮影するための図6の画面Gb2を表示装置14に表示させる(Sc2)。
 画面Gb2は、撮影領域R1と付加領域R2と操作領域R3とを含んで構成される。撮影領域R1には、収録装置16の撮像装置により撮像される映像が実時間的に表示(すなわちライブビュー表示)される。付加領域R2には語句Wが表示される。操作領域R3には、利用者からの操作を受付ける操作子が表示される。例えば、動画Mの収録の開始および終了を指示する操作子Bが操作領域R3に配置される。
 画面Gb2の表示後、制御装置11は、語句Wに対応する動画Mを、利用者からの指示に応じて収録装置16により収録する(Sc3)。具体的には、制御装置11は、語句Waに対応する動画Maの収録(Sa3)、または、語句Wbに対応する動画Mbの収録(Sa4)を、収録装置16に実行させる。例えば、画面Gb2の操作子Bを利用者が操作すると、制御装置11は、収録装置16に動画Mの収録を開始させる。利用者は、収録装置16を利用して、語句Wに適合する動画Mを撮影する。また、収録中に利用者が操作子Bを操作すると、収録装置16による動画Mの収録は終了する。なお、収録の開始から所定の時間が経過した場合に動画Mの収録を終了してもよい。収録装置16が収録した動画Mは記憶装置12に記憶される。以上の説明から理解される通り、制御装置11は、収録装置16により複数の動画M(動画Maおよび動画Mb)を収録する要素(第1収録処理部)として機能する。
 以上の手順で動画Maおよび動画Mbを収録すると、制御装置11は、図8の画面Gcを表示装置14に表示させる(Sa5)。画面Gcは、再生領域Qaと再生領域Qbとを含んで構成される。再生領域Qaには動画Maと語句Waとが表示され、再生領域Qbには動画Mbと語句Wbとが表示される。利用者は、画面Gcを視認することで動画Maと動画Mbとを比較し、入力装置15を操作することで動画Maおよび動画Mbのうちの一方の動画M(以下「第1動画M1」という)を選択する。例えば利用者は、動画Maおよび動画Mbのうちの印象的な方を第1動画M1として選択する。制御装置11は、利用者による第1動画M1の選択の指示を受付ける(Sa6)。動画Maおよび動画Mbのうち利用者が画面Gcで選択しない動画を以下では「第2動画M2」と表記する。以上の説明から理解される通り、制御装置11は、複数の動画Mのうち第1動画M1の選択の指示を利用者から受付ける要素(選択受付部)として機能する。
 制御装置11は、図2に例示される通り、使用テンプレートTに含まれる複数のシーンのうち第1シーンに第1動画M1を対応付け、第2シーンに第2動画M2を対応付ける(Sa7)。例えば、制御装置11は、第1動画M1に第1シーンの識別情報を付加し、第2動画M2に第2シーンの識別情報を付加する。以上の説明から理解される通り、制御装置11は、使用テンプレートTの第1シーンに第1動画M1を対応付け、第2シーンに第2動画M2を対応付ける要素(動画対応部)として機能する。
 また、制御装置11は、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じた付加文字列U2をシーン毎に生成する(Sa8)。具体的には、制御装置11は、使用テンプレートTの複数のシーンの各々について、当該シーンの初期的な付加文字列U2に語句Wと優位点X3とを挿入する。すなわち、付加文字列U2が語句Wおよび優位点X3に応じて更新される。
 例えば、初期的な付加文字列U2が「{A}によって実現される{B}」という文字列である場合を想定する。第1動画M1の語句Wが「高度な技術」であり、優位点X3が「信頼性」である場合、語句Wを空欄{A}に挿入するとともに優位点X3を空欄{B}に挿入することで、「{高度な技術}によって実現される{信頼性}」という付加文字列U2が生成される。
 語句Wおよび優位点X3に応じてシーン毎に生成された付加文字列U2が、使用テンプレートTの当該シーンに対応付けられる。前述の通り、第1シーンには第1動画M1が対応付けられる。したがって、制御装置11は、第1動画M1の語句Wに応じて生成された付加文字列U2を第1動画M1とともに当該第1シーンに対応付ける要素(対応管理部)として機能する。
 なお、以上の説明では使用テンプレートTの全部のシーンについて付加文字列U2を生成したが、使用テンプレートTの一部のシーンのみについて付加文字列U2を生成してもよい。また、以上の説明では属性データXが示す優位点X3に応じた付加文字列U2を生成したが、使用テンプレートTを選択する処理(Sb5,Sb6)において利用者が選択した優位点に応じて付加文字列U2を生成してもよい。
 制御装置11は、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じた案内文字列U1をシーン毎に生成する(Sa9)。具体的には、制御装置11は、使用テンプレートTの複数のシーンの各々について、当該シーンの初期的な案内文字列U1に語句Wと優位点X3とを挿入する。すなわち、案内文字列U1が語句Wおよび優位点X3に応じて更新される。なお、付加文字列U2の生成(Sa8)と案内文字列U1の生成(Sa9)との順序を逆転してもよい。
 例えば、初期的な案内文字列U1が「{A}を視聴者に印象付けるために{B}を強調する動画を撮影しましょう」という文字列である場合を想定する。第1動画M1の語句Wが「高度な技術」であり、優位点X3が「信頼性」である場合を仮定する。語句Wを空欄{A}に挿入するとともに優位点X3を空欄{B}に挿入することで、「{高度な技術}を視聴者に印象付けるために{信頼性}を強調する動画を撮影しましょう」という案内文字列U1が生成される。
 語句Wおよび優位点X3に応じてシーン毎に生成された案内文字列U1が、使用テンプレートTの当該シーンに対応付けられる。なお、以上の説明では使用テンプレートTの全部のシーンについて案内文字列U1を生成したが、使用テンプレートTの一部のシーンのみについて案内文字列U1を生成してもよい。また、以上の説明では属性データXが示す優位点X3に応じた案内文字列U1を生成したが、使用テンプレートTの選択(Sb5,Sb6)において利用者が選択した優位点に応じて案内文字列U1を生成してもよい。
 以上の処理を実行すると、制御装置11は、利用者からの指示に応じて、使用テンプレートTの各シーンについて動画Mを収録する処理(以下「第2収録処理」という)を実行する(Sa10)。第2収録処理において、制御装置11は、複数のシーンのうち利用者が選択したシーン(以下「収録シーン」という)の動画Mを収録装置16により収録する。利用者は、入力装置15を適宜に操作することで、第1シーンおよび第2シーンを含む任意のシーンを収録シーンとして選択できる。動画Mが未収録である収録シーンが選択されると、第2収録処理で収録された動画Mが当該収録シーンに対応付けられる。他方、動画Mが収録済である収録シーン(例えば第1シーンまたは第2シーン)が選択されると、当該収録シーンに対応付けられた収録済の動画Mが、直近の第2収録処理で収録された動画Mに置換される。
 図9は、1個の収録シーンの動画Mを収録する第2収録処理(Sa10)の具体的な手順を例示するフローチャートである。利用者による収録シーンの選択の指示を契機として第2収録処理が開始される。
 第2収録処理を開始すると、制御装置11は、収録シーンの動画Mの撮影を利用者に案内する図10の画面Gd1を表示装置14に表示させる(Sd1)。画面Gd1には、収録シーンに対応付けられた案内文字列U1が表示される。前述の通り、案内文字列U1には、利用者が指示した語句Wおよび優位点X3が包含される。したがって、案内文字列U1を参照することで、収録シーンの撮影に関する留意点とともにコンテンツの全体的な趣旨を利用者が再認識できる。
 利用者が処理の進行を指示すると、制御装置11は、収録シーンの動画Mを撮影するための図10の画面Gd2を表示装置14に表示させる(Sd2)。画面Gd2は、図6に例示した画面Gb1と同様に、撮影領域R1と付加領域R2と操作領域R3とを含んで構成される。撮影領域R1には、収録装置16により撮像された映像が実時間的に表示される。付加領域R2には、収録シーンに対応付けられた付加文字列U2が表示される。操作領域R3には、利用者からの操作を受付ける操作子Bが表示される。制御装置11は、操作領域R3の操作子に対する利用者からの指示に応じて、収録シーンの動画Mを収録装置16により収録する(Sd3)。以上の説明から理解される通り、制御装置11は、収録シーン(例えば第1シーンおよび第2シーン等の収録済のシーン以外のシーン)に対応する動画を収録装置16により収録する要素(第2収録処理部)として機能する。制御装置11は、収録シーンについて収録した動画Mを、使用テンプレートTの当該収録シーンに対応付ける(Sd4)。
 第2収録処理は、利用者が処理の終了を指示するまでシーン毎に反復される(Sa11:NO)。複数回にわたる第2収録処理の実行中の任意の時点において、利用者は、収録済の各シーンの動画Mを視聴することが可能である。すなわち、制御装置11は、利用者から視聴が指示された収録済の動画Mを表示装置14に表示させる。したがって、利用者は、例えば第1シーンについて収録済の第1動画M1または第2シーンについて収録済の第2動画M2を適宜に視聴しながら、その他のシーンの動画Mを撮影することが可能である。
 以上に説明した第2収録処理の反復により、使用テンプレートTの各シーンについて動画Mと付加文字列U2とが対応付けられる。利用者が処理の終了を指示すると(Sa11:YES)、制御装置11は、使用テンプレートTの複数のシーンの各々に対応する動画Mと付加文字列U2とを含む素材データを通信装置13から編集装置300に送信する(Sa12)。編集装置300は、付加文字列U2が合成された動画Mを適宜に調整したうえで複数のシーンについて時系列に配列したコンテンツを生成する。
 以上に説明した通り、第1実施形態では、複数の動画Mのうち利用者が選択した第1動画M1が使用テンプレートTの第1シーンに対応付けられたうえで、第1シーン以外のシーンに対応する動画Mが収録装置16により収録される。したがって、利用者は、第1シーンに対応する収録済の第1動画M1を適宜に確認しながら、収録装置16により第1シーン以外のシーンに対応する動画Mを撮影できる。第1実施形態では特に、第1動画M1が第1シーンに対応付けられるだけでなく、第2動画M2が第2シーンに対応付けられる。したがって、利用者は、第1動画M1および第2動画M2を適宜に参照しながら、第1シーンおよび第2シーン以外のシーンに対応する動画を収録装置16により撮影できる。
 第1実施形態では、利用者から受付けた語句Wに対応する複数の動画M(Ma,Mb)が収録装置16により収録され、当該語句Wに応じた付加文字列U2と第1動画M1とが第1シーンに対応付けられる。したがって、語句Wとは別個に付加文字列U2を利用者が指示する構成と比較して、利用者の作業の負荷を軽減することが可能である。また、第1実施形態では、利用者がコンテンツについて指示した趣旨および優位点に応じて使用テンプレートTが選択されるから、利用者の意図に沿ったコンテンツを生成することが可能である。
<第2実施形態>
 本開示の第2実施形態を説明する。なお、以下の各例示において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
 図11は、第2実施形態の制御装置11が使用テンプレートTを選択する処理(Sa1)の手順を例示するフローチャートである。図11に例示される通り、第2実施形態では、コンテンツの種別(Sb1,Sb2)とコンテンツの趣旨(Sb3,Sb4)と表現対象の優位点(Sb5,Sb6)との入力を利用者から受付けると、制御装置11は所要時間τを特定する(Se)。所要時間τは、複数の指示事項の各々を指示するために利用者が必要とした時間である。例えば、制御装置11は、例えば画面Ga1の表示(Sb1)とともに計時を開始し、優位点の選択の指示を受付けた時点(Sb6:YES)までに経過した時間を所要時間τとして特定する。
 所要時間τを特定すると、制御装置11は、各指示事項に関する利用者からの指示と当該所要時間τとに応じて使用テンプレートTを選択する(Sb7)。具体的には、制御装置11は、所要時間τが長いほど、複数のテンプレートTのうち長時間のテンプレートTを使用テンプレートTとして選択する。
 所要時間τに応じた使用テンプレートTの選択(Se,Sb7)以外の動作は第1実施形態と同様である。したがって、第2実施形態においても第1実施形態と同様の効果が実現される。ところで、所要時間τが長い場合、コンテンツに関する複数の指示事項(コンテンツの種別および趣旨と表現対象の優位点)を利用者が充分に絞込めずに悩んでいる状態が想定される。第2実施形態では、所要時間τに応じた使用テンプレートTが選択されるから、利用者の多様な意図を充分に盛込んだ好適なコンテンツを生成できるという利点がある。
<第3実施形態>
 第1実施形態では、複数の指示事項(コンテンツの種別および趣旨と表現対象の優位点)に関する利用者からの指示に応じて使用テンプレートTを選択した。第3実施形態では、利用者が指示した語句Wに応じて使用テンプレートTを選択する。
 図12は、第3実施形態におけるテンプレートTの模式図である。図12に例示される通り、第3実施形態のテンプレートTの属性データXは、当該テンプレートTに関連する語句を表す語句ベクトルVを記憶する。各テンプレートTに関連する語句は、当該テンプレートTを使用したコンテンツにおいて利用者が視聴者に主張したいと推測される事項を表す単語または句であり、テンプレートTの作成者が事前に設定する。語句ベクトルVは、語句間の意味的な関係を表す言語空間(意味空間)における位置を表すベクトルである。語句ベクトルVは、例えばニューラルネットワーク等の統計的推定モデル(Word2Vec)を利用した自然言語処理により特定される。統計的推定モデルの具体例については、例えばTomas Mikolov et al."Efficient Estimation of Word Representations in Vector Space," arXiv:1301.3781 [cs.CL], 2013に詳述されている。
 図13は、第3実施形態の制御装置11が実行する処理の具体的な手順を例示するフローチャートである。図13に例示される通り、第3実施形態の制御装置11は、図3のステップSa1およびステップSa2に代えてステップSf1からステップSf3を実行する。第3実施形態では、複数の指示事項に関する利用者からの指示に応じて使用テンプレートTを選択する図4の処理は実行されない。
 図13の処理を開始すると、制御装置11は、図3のステップSa2と同様に、2個の語句W(WaおよびWb)の入力を利用者から受付ける(Sf1)。具体的には、制御装置11は、各語句Wの入力欄を含む図6の画面Gb0を表示装置14に表示させ、利用者による各語句Wの入力を受付ける。語句Waおよび語句Wbの入力を利用者から受付けると、制御装置11は、利用者が指示した語句Waを解析することで語句ベクトルωを特定する(Sf2)。語句ベクトルωの特定には、前述の通り、例えばニューラルネットワーク等の統計的推定モデルを利用した自然言語処理が採用される。
 制御装置11は、記憶装置12に記憶された複数のテンプレートTから語句Waに応じた使用テンプレートTを選択する(Sf3)。具体的には、制御装置11は、複数のテンプレートTの各々について、当該テンプレートTの語句ベクトルVと語句Waの語句ベクトルωとの間の類似指標を算定する。類似指標は、語句ベクトルVと語句ベクトルωとの類似度の指標(相関または距離)である。制御装置11は、記憶装置12に記憶された複数のテンプレートTのうち、類似指標が表す類似度が最大(相関最大または距離最小)となるテンプレートTを、使用テンプレートTとして選択する。すなわち、利用者が指示した語句Waに対して意味的な相関が高い語句が対応付けられたテンプレートTが選択される。以上の説明から理解される通り、第3実施形態の制御装置11は、利用者が指示した語句Waに応じた使用テンプレートTを選択する要素(選択処理部)として機能する。
 第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、利用者が指示した語句Waに応じた使用テンプレートTが選択されるから、利用者の意図に適合したテンプレートTを利用して好適なコンテンツを生成できるという利点がある。なお、以上の説明では、複数の指示事項に関する利用者からの指示を使用テンプレートTの選択に加味しない構成を例示したが、複数の指示事項に関する利用者からの指示と利用者が指示した語句Waとの双方に応じて使用テンプレートTを選択してもよい。
<変形例>
 以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、2個の語句W(WaおよびWb)にそれぞれ対応する2個の動画M(MaおよびMb)を第1収録処理により収録したが、利用者が指示する語句Wの総数および第1収録処理により収録される動画Mの総数は、以上の例示に限定されない。例えば、3個以上の語句Wの入力を利用者から受付け、各語句Wに対応する3個以上の動画Mを第1収録処理により収録してもよい。
(2)前述の各形態では、複数の動画M(MaおよびMb)のうち1個の動画Mを利用者が選択したが、利用者が複数の動画Mの何れかを択一的に選択することは必須ではない。例えば、複数の動画Mの各々について利用者が優先度を設定し、優先度が第1位(すなわち最大)である動画Mを第1動画M1として第1シーンに対応付けてもよい。複数の動画Mのうち優先度が第2位である動画Mを第2動画M2として第2シーンに対応付けてもよい。
(3)前述の各形態では、利用者が選択した第1動画M1を第1シーンに対応付け、非選択の第2動画M2を第2シーンに対応付けたが、非選択の第2動画M2を破棄してもよい。すなわち、第2動画M2を第2シーンに対応付ける処理は省略される。
(4)第3実施形態では、利用者が指示した2個の語句W(WaおよびWb)のうち語句Waに応じて使用テンプレートTを選択したが、制御装置11が、語句Wbに応じて使用テンプレートTを選択してもよい。また、制御装置11が、語句Waおよび語句Wbの双方に応じた使用テンプレートTを選択してもよい。例えば、制御装置11は、語句Waに対応する語句ベクトルと語句Wbに対応する語句ベクトルとの中間的な語句ベクトルωを生成する。そして、制御装置11は、複数のテンプレートTのうち語句ベクトルωに類似する語句ベクトルVが対応付けられたテンプレートTを、使用テンプレートTとして選択する。
(5)前述の各形態では、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じて案内文字列U1および付加文字列U2を生成したが、生成後の案内文字列U1および付加文字列U2を利用者からの指示に応じて変更してもよい。また、編集装置300が情報処理装置100から受信した素材データについて、編集装置300が、当該素材データの送信元の情報処理装置100または他の情報端末からの指示に応じて案内文字列U1および付加文字列U2を変更してもよい。
(6)前述の各形態では、初期的な付加文字列U2に語句Wと優位点X3とを挿入することで更新後の付加文字列U2を生成したが、語句Wおよび優位点X3の一方のみを初期的な付加文字列U2に挿入してもよい。また、前述の各形態では、初期的な案内文字列U1に語句Wと優位点X3とを挿入することで更新後の案内文字列U1を生成したが、語句Wおよび優位点X3の一方のみを初期的な案内文字列U1に挿入してもよい。
(7)編集装置300が、情報処理装置100から受信した素材データ内の動画Mを、当該情報処理装置100または他の情報端末からの指示に応じて編集してもよい。また、編集装置300が、情報処理装置100から受信した素材データ内の動画Mを、当該情報処理装置100または他の情報端末から送信された動画に置換してもよい。
(8)前述の各形態に係る情報処理装置100の機能は、各形態での例示の通り、制御装置11等の処理回路とプログラムとの協働により実現される。前述の各形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
<付記>
 以上に例示した形態から、例えば以下の構成が把握される。
 本開示のひとつの態様(第1態様)に係る情報処理方法は、収録装置により複数の動画を収録する第1収録処理を実行し、前記複数の動画のうち第1動画の選択の指示を利用者から受付け、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付け、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理を実行する。以上の態様では、複数の動画のうち利用者が選択した第1動画がテンプレートの第1シーンに対応付けられたうえで、第1シーン以外のシーンに対応する動画が第2収録処理において収録装置により収録される。したがって、利用者は、第1シーンに対応する第1動画を適宜に確認しながら、収録装置により第1シーン以外のシーンに対応する動画を撮影できる。なお、「第1シーン以外のシーン」は、複数のシーンのうち第1シーン以外の全部のシーンには限定されず、第1シーン以外の一部のシーンでもよい。
 第1態様の具体例(第2態様)において、複数の語句の入力を利用者から受付け、前記第1収録処理においては、前記複数の語句にそれぞれ対応する前記複数の動画を前記収録装置により収録し、前記第1動画に合成される付加文字列を、前記第1動画に対応する語句に応じて生成し、前記第1動画と前記付加文字列とを前記第1シーンに対応付ける。以上の態様では、利用者から受付けた語句に対応する複数の動画が収録装置により収録され、当該語句に応じた付加文字列と第1動画とが第1シーンに対応付けられる。したがって、当該語句とは別個に付加文字列を利用者が指示する構成と比較して、利用者の作業の負荷を軽減することが可能である。
 第1態様の具体例(第3態様)において、利用者からの指示に応じて前記複数の動画から前記第1動画以外の第2動画を選択し、前記複数のシーンのうち前記第1シーン以外の第2シーンに前記第2動画を対応付ける。以上の態様によれば、利用者は、第1動画および第2動画を参照しながら、第1シーンおよび第2シーン以外のシーンに対応する動画を収録装置により撮影できる。
 第1態様から第3態様の何れかの具体例(第4態様)において、前記テンプレートを使用して生成されるコンテンツの趣旨の入力を利用者から受付け、前記コンテンツで表現される対象に関する優位点の入力を利用者から受付け、前記コンテンツの趣旨と前記対象に関する優位点とに応じて前記テンプレートを選択する。以上の態様によれば、コンテンツの趣旨とコンテンツで表現される対象に関する優位点とに応じてテンプレートが選択されるから、利用者の意図に沿ったコンテンツを生成することが可能である。
 第4態様の具体例(第5態様)において、テンプレートの選択においては、前記コンテンツの趣旨と前記対象に関する優位点とを含む1以上の項目について利用者が選択肢を選択するための所要時間が長いほど、前記複数のテンプレートのうち長時間のテンプレートを選択する。利用者が各項目について選択肢を選択するための所要時間が長い場合、各項目を利用者が充分に絞込めずに悩んでいる状態が想定される。第5態様によれば、所要時間が長いほど長時間のテンプレートが選択されるから、利用者の多様な意図を充分に盛込んだ好適なコンテンツを生成できるという利点がある。
 第2態様の具体例(第6態様)において、前記複数の語句のうち1個以上の語句に応じて複数のテンプレートから前記テンプレートを選択する。以上の態様によれば、利用者の意図に適合したテンプレートを選択できるという利点がある。
 本開示のひとつの態様(第7態様)に係る情報処理装置は、収録装置により複数の動画を収録する第1収録処理部と、前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部と、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部と、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部とを具備する。
 本開示のひとつの態様(第8態様)に係るプログラムは、収録装置により複数の動画を収録する第1収録処理部、前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部、テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部、および、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部としてコンピュータを機能させる。
<他の態様>
 特開2015-115718号公報には、複数のテンプレートのうち利用者が選択したテンプレートを利用してシーン毎の動画を撮影し、複数の動画を統合することで映像作品を作成する技術が開示されている。しかし、動画の撮影または編集に関する専門的な知識がない利用者にとって、複数のテンプレートから自身の意図に沿った適切なテンプレートを選択することは、実際には容易ではない。
 以上の事情を考慮して、本開示のひとつの態様に係る情報処理方法は、利用者から語句の入力を受付け、複数のテンプレートのうち前記語句に対応するテンプレートと選択し、前記テンプレートに含まれる複数のシーンの各々に対応する動画を収録装置により収録する。以上の態様によれば、利用者から受付けた語句に対応するテンプレートが選択されるから、動画の撮影または編集に関する専門的な知識がない利用者でも、自身の意図に沿った適切なテンプレートを利用して動画を撮影できるという利点がある。
100…情報提供装置、11…制御装置、12…記憶装置、13…通信装置、14…表示装置、15…入力装置、16…収録装置、200…通信網、300…編集装置。

Claims (8)

  1.  収録装置により複数の動画を収録する第1収録処理を実行し、
     前記複数の動画のうち第1動画の選択の指示を利用者から受付け、
     テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付け、
     前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理を実行する
     コンピュータにより実現される情報処理方法。
  2.  複数の語句の入力を前記利用者から受付け、
     前記第1収録処理においては、前記複数の語句にそれぞれ対応する前記複数の動画を前記収録装置により収録し、
     前記第1動画に合成される付加文字列を、前記第1動画に対応する語句に応じて生成し、
     前記第1動画と前記付加文字列とを前記第1シーンに対応付ける
     請求項1の情報処理方法。
  3.  前記利用者からの指示に応じて前記複数の動画から前記第1動画以外の第2動画を選択し、
     前記複数のシーンのうち前記第1シーン以外の第2シーンに前記第2動画を対応付ける
     請求項1の情報処理方法。
  4.  前記テンプレートを使用して生成されるコンテンツの趣旨の入力を前記利用者から受付け、
     前記コンテンツで表現される対象に関する優位点の入力を前記利用者から受付け、
     前記コンテンツの趣旨と前記対象に関する優位点とに応じて前記テンプレートを選択する
     請求項1から請求項3の何れかの情報処理方法。
  5.  前記テンプレートの選択においては、前記コンテンツの趣旨と前記対象に関する優位点とを含む1以上の項目について前記利用者が選択肢を選択するための所要時間が長いほど、複数のテンプレートのうち長時間のテンプレートを選択する
     請求項4の情報処理方法。
  6.  前記複数の語句のうち1個以上の語句に応じて複数のテンプレートから前記テンプレートを選択する
     請求項2の情報処理方法。
  7.  収録装置により複数の動画を収録する第1収録処理部と、
     前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部と、
     テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部と、
     前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部と
     を具備する情報処理装置。
  8.  収録装置により複数の動画を収録する第1収録処理部、
     前記複数の動画のうち第1動画の選択の指示を利用者から受付ける選択受付部、
     テンプレートに含まれる複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部、および、
     前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部
     としてコンピュータを機能させるプログラム。
PCT/JP2019/035901 2018-09-28 2019-09-12 情報処理方法、情報処理装置およびプログラム WO2020066659A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018184197A JP7167602B2 (ja) 2018-09-28 2018-09-28 情報処理方法および情報処理装置
JP2018-184197 2018-09-28

Publications (1)

Publication Number Publication Date
WO2020066659A1 true WO2020066659A1 (ja) 2020-04-02

Family

ID=69952697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035901 WO2020066659A1 (ja) 2018-09-28 2019-09-12 情報処理方法、情報処理装置およびプログラム

Country Status (2)

Country Link
JP (1) JP7167602B2 (ja)
WO (1) WO2020066659A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022143924A1 (zh) * 2020-12-31 2022-07-07 北京字跳网络技术有限公司 视频生成方法、装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051708A (ja) * 2003-07-31 2005-02-24 Sony Corp コンテンツ企画作成方法、コンテンツ企画作成プログラム、プログラム記録媒体、コンテンツ企画作成装置、撮像装置、撮像方法、撮像プログラム、音声入力装置、音声入力方法、音声入力プログラム
JP2007104336A (ja) * 2005-10-04 2007-04-19 Olympus Imaging Corp カメラ、表示制御方法、表示制御装置、プログラム及び記録媒体
JP2012004739A (ja) * 2010-06-15 2012-01-05 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013090267A (ja) * 2011-10-21 2013-05-13 Sanyo Electric Co Ltd 撮像装置
JP2015115718A (ja) * 2013-12-10 2015-06-22 株式会社フレイ・スリー 映像処理装置、映像処理方法および映像処理プログラム
JP2017130109A (ja) * 2016-01-21 2017-07-27 キヤノン株式会社 プログラム、情報処理装置および制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051708A (ja) * 2003-07-31 2005-02-24 Sony Corp コンテンツ企画作成方法、コンテンツ企画作成プログラム、プログラム記録媒体、コンテンツ企画作成装置、撮像装置、撮像方法、撮像プログラム、音声入力装置、音声入力方法、音声入力プログラム
JP2007104336A (ja) * 2005-10-04 2007-04-19 Olympus Imaging Corp カメラ、表示制御方法、表示制御装置、プログラム及び記録媒体
JP2012004739A (ja) * 2010-06-15 2012-01-05 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2013090267A (ja) * 2011-10-21 2013-05-13 Sanyo Electric Co Ltd 撮像装置
JP2015115718A (ja) * 2013-12-10 2015-06-22 株式会社フレイ・スリー 映像処理装置、映像処理方法および映像処理プログラム
JP2017130109A (ja) * 2016-01-21 2017-07-27 キヤノン株式会社 プログラム、情報処理装置および制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022143924A1 (zh) * 2020-12-31 2022-07-07 北京字跳网络技术有限公司 视频生成方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
JP2020053936A (ja) 2020-04-02
JP7167602B2 (ja) 2022-11-09

Similar Documents

Publication Publication Date Title
JP6093289B2 (ja) 映像処理装置、映像処理方法およびプログラム
JP4794740B2 (ja) オーディオ/ビデオ信号生成装置、及びオーディオ/ビデオ信号生成方法
TW202002611A (zh) 視頻字幕顯示方法及裝置
JP2008124574A (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
JP2008312061A (ja) 画像処理装置、その処理方法およびプログラム
JP2016119600A (ja) 編集装置及び編集方法
KR101440168B1 (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
JP2018078402A (ja) コンテンツ制作装置、及び音声付コンテンツ制作システム
KR101490506B1 (ko) 동영상 컨텐츠 편집 방법 및 장치
WO2020066659A1 (ja) 情報処理方法、情報処理装置およびプログラム
JP2012178028A (ja) アルバム作成装置、アルバム作成装置の制御方法、及びプログラム
KR102308508B1 (ko) 리뷰 제작 시스템
CN106488324A (zh) 一种视频剪辑方法及系统
JP2006060279A (ja) 動画再生装置
KR102523813B1 (ko) 영상에 대한 키워드 기반 검색을 가능하게 하는 영상 스트리밍 서비스 서버 및 그 동작 방법
JP2000222417A (ja) 画像ファイリング装置
KR102078479B1 (ko) 영상 편집 방법 및 영상 편집 장치
JP7133367B2 (ja) 動画編集装置、動画編集方法、及び動画編集プログラム
TWI497959B (zh) Scene extraction and playback system, method and its recording media
WO2020038290A1 (zh) 一种书签展示的方法及装置
JP2018074337A (ja) 動画処理装置、動画処理方法およびプログラム
WO2020066660A1 (ja) 情報処理方法、情報処理装置およびプログラム
WO2018201195A1 (en) Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data
KR102523814B1 (ko) 음성 인식을 기반으로 영상이 재생되는 화면에 자막을 출력하는 전자 장치 및 그 동작 방법
KR102523746B1 (ko) 프레젠테이션 문서를 구성하는 슬라이드에 음성 데이터의 삽입을 가능하게 하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19866501

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19866501

Country of ref document: EP

Kind code of ref document: A1