JP7167602B2 - Information processing method and information processing device - Google Patents

Information processing method and information processing device Download PDF

Info

Publication number
JP7167602B2
JP7167602B2 JP2018184197A JP2018184197A JP7167602B2 JP 7167602 B2 JP7167602 B2 JP 7167602B2 JP 2018184197 A JP2018184197 A JP 2018184197A JP 2018184197 A JP2018184197 A JP 2018184197A JP 7167602 B2 JP7167602 B2 JP 7167602B2
Authority
JP
Japan
Prior art keywords
moving image
scene
template
user
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018184197A
Other languages
Japanese (ja)
Other versions
JP2020053936A (en
Inventor
直之 安立
克己 石川
康之介 加藤
祐二 小池
謙一良 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018184197A priority Critical patent/JP7167602B2/en
Priority to PCT/JP2019/035901 priority patent/WO2020066659A1/en
Publication of JP2020053936A publication Critical patent/JP2020053936A/en
Application granted granted Critical
Publication of JP7167602B2 publication Critical patent/JP7167602B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画を処理する技術に関する。 The present invention relates to technology for processing moving images.

端末装置を利用して動画を収録する技術が従来から提案されている。例えば特許文献1には、複数のシーンで構成されるコンテンツを生成するために、各シーンをビデオカメラで撮影する技術が開示されている。 Techniques for recording moving images using a terminal device have been conventionally proposed. For example, Japanese Laid-Open Patent Publication No. 2002-100001 discloses a technique for capturing each scene with a video camera in order to generate content composed of a plurality of scenes.

特開2004-32277号公報Japanese Patent Application Laid-Open No. 2004-32277

動画の撮影または編集に関する専門的な知識がない利用者にとって、複数のシーンの各々について当該シーンに適切な動画を撮影することは、実際には容易ではない。以上の事情を考慮して、本発明の好適な態様は、複数のシーンの各々について適切な動画を撮影することを目的とする。 It is actually not easy for a user who does not have specialized knowledge about shooting or editing moving images to shoot appropriate moving images for each of a plurality of scenes. In consideration of the above circumstances, a preferred aspect of the present invention aims to shoot appropriate moving images for each of a plurality of scenes.

以上の課題を解決するために、本発明の好適な態様に係る情報処理方法は、収録装置により複数の動画を収録し、前記複数の動画のうち第1動画の選択を利用者から受付け、使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付け、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する。 In order to solve the above problems, an information processing method according to a preferred aspect of the present invention records a plurality of moving images by a recording device, receives a selection of a first moving image from among the plurality of moving images from a user, and uses the moving image. The first moving image is associated with a first scene among the plurality of scenes indicated by the template, and the recording device records a moving image corresponding to scenes other than the first scene among the plurality of scenes.

本発明の好適な態様に係る情報処理装置は、収録装置により複数の動画を収録する第1収録処理部と、前記複数の動画のうち第1動画の選択を利用者から受付ける選択受付部と、使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部と、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部とを具備する。 An information processing apparatus according to a preferred aspect of the present invention includes a first recording processing unit that records a plurality of moving images using a recording device; a selection receiving unit that receives a selection of a first moving image from among the plurality of moving images from a user; a moving image handling unit that associates the first moving image with a first scene out of a plurality of scenes indicated by a template to be used; 2 recording processing unit.

第1実施形態における情報処理装置の構成を例示するブロック図である。1 is a block diagram illustrating the configuration of an information processing device according to a first embodiment; FIG. テンプレートの模式図である。FIG. 4 is a schematic diagram of a template; 制御装置が実行する処理の具体的な手順を例示するフローチャートである。4 is a flowchart illustrating a specific procedure of processing executed by a control device; 使用テンプレートを選択する処理の具体的な手順を例示するフローチャートである。FIG. 10 is a flowchart illustrating a specific procedure of processing for selecting a template to be used; FIG. 使用テンプレートを選択する過程で表示装置が表示する画面の遷移を例示する模式図である。FIG. 10 is a schematic diagram illustrating transition of screens displayed by the display device in the process of selecting a template to be used; 語句に対応する動画を撮影する過程で表示装置が表示する画面の遷移を例示する模式図である。FIG. 10 is a schematic diagram illustrating transition of screens displayed by the display device in the process of shooting a moving image corresponding to a phrase; 第1収録処理の具体的な手順を例示するフローチャートである。9 is a flowchart illustrating a specific procedure of first recording processing; 複数の動画の何れかを利用者が選択するための画面の模式図である。FIG. 10 is a schematic diagram of a screen for a user to select one of a plurality of moving images; 第2収録処理の具体的な手順を例示するフローチャートである。9 is a flowchart illustrating a specific procedure of second recording processing; 第2収録処理の過程で表示装置が表示する画面の遷移を例示する模式図である。FIG. 11 is a schematic diagram illustrating transition of screens displayed by the display device in the course of the second recording process; 第2実施形態において使用テンプレートを選択する処理の具体的な手順を例示するフローチャートである。FIG. 11 is a flowchart illustrating a specific procedure of processing for selecting a template to be used in the second embodiment; FIG. 第3実施形態におけるテンプレートの模式図である。FIG. 11 is a schematic diagram of a template in the third embodiment; 第3実施形態の制御装置が実行する処理の具体的な手順を例示するフローチャートである。FIG. 11 is a flow chart illustrating a specific procedure of processing executed by a control device according to a third embodiment; FIG.

<第1実施形態>
図1は、本発明の第1実施形態に係る情報処理装置100の構成を例示するブロック図である。情報処理装置100は、コンテンツを構成する複数の動画を収録するためのコンピュータシステムである。例えば、携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の情報端末が、情報処理装置100として好適に利用される。コンテンツは、複数のシーンにそれぞれ対応する複数の動画の時系列で構成される。第1実施形態では、例えば企業を紹介するコンテンツまたは人材募集のためのコンテンツなど、企業に関する各種のコンテンツを想定する。企業を紹介するコンテンツとしては、例えば企業自体を紹介するコンテンツのほか、企業が取扱う製品を紹介するコンテンツ、または、企業が開発した技術を紹介するコンテンツなどが想定される。もっとも、コンテンツの内容は以上の例示に限定されない。
<First Embodiment>
FIG. 1 is a block diagram illustrating the configuration of an information processing apparatus 100 according to the first embodiment of the invention. The information processing device 100 is a computer system for recording a plurality of moving images that constitute content. For example, an information terminal such as a mobile phone, a smart phone, a tablet terminal, or a personal computer is preferably used as the information processing device 100 . The content is composed of a plurality of time series of moving images respectively corresponding to a plurality of scenes. In the first embodiment, various types of content related to companies are assumed, such as content introducing companies or content for recruiting personnel. Examples of content that introduces a company include content that introduces the company itself, content that introduces products handled by the company, content that introduces technology developed by the company, and the like. However, the details of the content are not limited to the above examples.

図1に例示される通り、第1実施形態の情報処理装置100は、制御装置11と記憶装置12と通信装置13と表示装置14と入力装置15と収録装置16とを具備する。制御装置11は、例えばCPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)等の処理回路で構成され、情報処理装置100の各要素を統括的に制御する。なお、制御装置11の一部の機能を専用の電子回路で実現してもよい。また、制御装置11の機能を複数の装置に搭載してもよい。 As illustrated in FIG. 1, the information processing apparatus 100 of the first embodiment includes a control device 11, a storage device 12, a communication device 13, a display device 14, an input device 15, and a recording device 16. The control device 11 is composed of a processing circuit such as a CPU (Central Processing Unit) or an FPGA (Field Programmable Gate Array), and controls each element of the information processing device 100 in an integrated manner. A part of the functions of the control device 11 may be realized by a dedicated electronic circuit. Also, the functions of the control device 11 may be installed in a plurality of devices.

通信装置13は、移動体通信網またはインターネット等を含む通信網200を介して編集装置300と通信する。具体的には、通信装置13は、複数のシーンの各々について収録された動画を含むデータ(以下「素材データ」という)を編集装置300に送信する。編集装置300は、情報処理装置100から受信した素材データを編集することで1個のコンテンツを生成する。例えば自動または手動による編集でコンテンツが生成される。編集装置300が生成したコンテンツは情報処理装置100に提供される。なお、情報処理装置100が素材データからコンテンツを生成してもよい。 The communication device 13 communicates with the editing device 300 via a communication network 200 including a mobile communication network or the Internet. Specifically, the communication device 13 transmits data (hereinafter referred to as “material data”) including moving images recorded for each of a plurality of scenes to the editing device 300 . The editing device 300 edits the material data received from the information processing device 100 to generate one piece of content. For example, content is generated by automatic or manual editing. The content generated by the editing device 300 is provided to the information processing device 100 . Note that the information processing apparatus 100 may generate content from material data.

表示装置14は、制御装置11による制御のもとで各種の画像を表示する。例えば液晶表示パネルが表示装置14として好適に利用される。表示装置14は、例えば複数の動画を収録するための画面、および、編集装置300が生成したコンテンツの各動画を表示する。入力装置15は、利用者による操作を受付ける。例えば、利用者が操作する操作子、または表示装置14と一体に構成されたタッチパネルが、入力装置15として好適に利用される。また、音声入力が可能な収音装置を入力装置15として利用してもよい。 The display device 14 displays various images under the control of the control device 11 . For example, a liquid crystal display panel is preferably used as the display device 14 . The display device 14 displays, for example, a screen for recording a plurality of moving images and each moving image of content generated by the editing device 300 . The input device 15 receives an operation by a user. For example, an operator operated by a user or a touch panel integrated with the display device 14 is preferably used as the input device 15 . Also, a sound collecting device capable of voice input may be used as the input device 15 .

収録装置16は、映像と音響とを含む動画を収録する画像入力機器である。具体的には、収録装置16は、撮影レンズ等の光学系からの入射光を電気信号に変換する撮像装置と、周囲の音響を収音する収音装置とを具備する。収録装置16が収録した動画は、任意の形式の動画データで表現される。なお、情報処理装置100とは別体の収録装置16を有線または無線により情報処理装置100に接続してもよい。なお、音響を含まない動画を収録してもよい。 The recording device 16 is an image input device that records moving images including video and sound. Specifically, the recording device 16 includes an imaging device that converts incident light from an optical system such as a photographing lens into an electrical signal, and a sound pickup device that picks up ambient sound. The moving image recorded by the recording device 16 is represented by moving image data in any format. Note that the recording device 16, which is separate from the information processing device 100, may be connected to the information processing device 100 by wire or wirelessly. In addition, you may record the moving image which does not contain sound.

記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば収録装置16が収録した動画が記憶装置12に記憶される。半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置12として任意に採用される。なお、情報処理装置100に対して着脱可能な可搬型の記録媒体、または情報処理装置100が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。すなわち、記憶装置12は情報処理装置100から省略され得る。 The storage device 12 stores programs executed by the control device 11 and various data used by the control device 11 . For example, a moving image recorded by the recording device 16 is stored in the storage device 12 . A known recording medium such as a semiconductor recording medium and a magnetic recording medium, or a combination of a plurality of types of recording media may be arbitrarily adopted as the storage device 12 . A portable recording medium detachable from the information processing apparatus 100 or an external recording medium (for example, online storage) with which the information processing apparatus 100 can communicate may be used as the storage device 12 . That is, the storage device 12 can be omitted from the information processing device 100 .

第1実施形態の記憶装置12は、コンテンツの基礎となる複数のテンプレートTを記憶する。複数のテンプレートTの各々は、図2に例示される通り、動画の収録の単位となる複数のシーンを示す時系列データである。1個のテンプレートTに含まれるシーンの総数および組合せはテンプレートT毎に相違する。各シーンは、特定の題材または趣旨に対応した単位である。例えば企業名または製品名等の表題のシーン、製品を紹介するシーン、製品の複数の型式を提示するシーン、または製品の利用例を紹介するシーンなど、多様なシーンがテンプレートTに登録される。適切な動画の内容はシーン毎に相違する。 The storage device 12 of the first embodiment stores a plurality of templates T that are the basis of content. As illustrated in FIG. 2, each of the multiple templates T is time-series data representing multiple scenes that are units for recording a moving image. The total number and combinations of scenes included in one template T differ from template T to template T. FIG. Each scene is a unit that corresponds to a particular subject or theme. For example, a variety of scenes are registered in the template T, such as scenes with titles such as company names or product names, scenes introducing products, scenes presenting a plurality of product models, and scenes introducing usage examples of products. Appropriate content of moving images differs from scene to scene.

図2に例示される通り、各テンプレートTが示す複数のシーンは、第1シーンと第2シーンとを含む。第1シーンおよび第2シーンは、テンプレートTの作成者により事前に選択される。具体的には、テンプレートTは、複数のシーンのうち第1シーンおよび第2シーンを指定するデータを含む。第1シーンおよび第2シーンは、コンテンツのなかで重要なシーンである。例えば、コンテンツの複数のシーンのうち、企業を紹介する序盤のハイライトシーン、または、当該企業の製品の優位点を主張する中盤または終盤のハイライトシーンが、第1シーンおよび第2シーンとして事前に選定される。第1シーンは、第2シーンよりも重要なシーンである。なお、第1シーンおよび第2シーンを利用者が選択してもよい。 As illustrated in FIG. 2, the multiple scenes indicated by each template T include a first scene and a second scene. The first scene and the second scene are pre-selected by the template T creator. Specifically, the template T includes data designating a first scene and a second scene among a plurality of scenes. The first scene and the second scene are important scenes in the content. For example, among a plurality of scenes of the content, a highlight scene at the beginning introducing a company, or a highlight scene at the middle or end claiming the superiority of the product of the company may be preliminarily set as the first scene and the second scene. selected for The first scene is a more important scene than the second scene. Note that the user may select the first scene and the second scene.

図2は、任意の1個のテンプレートTの構成を示す模式図である。図2に例示される通り、各テンプレートTは、当該テンプレートTの属性を表す属性データXと、相異なるシーンに関する複数の単位データUを含んで構成される。 FIG. 2 is a schematic diagram showing the configuration of any one template T. As shown in FIG. As illustrated in FIG. 2, each template T includes attribute data X representing attributes of the template T and a plurality of unit data U regarding different scenes.

任意の1個のテンプレートTの属性データXは、当該テンプレートTを基礎として生成されるコンテンツの種別X1と、コンテンツの趣旨X2と、コンテンツで表現される企業または製品等の対象(以下「表現対象」という)に関する優位点X3とを表す。コンテンツの趣旨X2は、利用者が当該コンテンツの視聴者に主張したい事柄である。優位点X3は、他の企業または製品との比較において利用者が表現対象の強味として認識する事項(結果的には視聴者に主張したい事柄)である。 The attribute data X of any one template T consists of the type X1 of the content generated based on the template T, the intent X2 of the content, and the target of the company or product represented by the content (hereinafter referred to as the “target of expression”). ) is expressed as an advantage X3. The purport X2 of the content is what the user wants to emphasize to the viewer of the content. The advantage X3 is a matter that the user recognizes as the strength of the object of expression in comparison with other companies or products (as a result, the matter that the viewer wants to assert).

任意の1個のシーンの単位データUは、案内文字列U1と付加文字列U2とを含む。各シーンの案内文字列U1は、当該シーンの動画の撮影を案内する文字列である。例えば撮影時の留意点等が案内文字列U1としてシーン毎に用意される。付加文字列U2は、動画に付加されるべき文字列(すなわち動画とともに表示されるテロップ)である。 Unit data U for any one scene includes a guidance character string U1 and an additional character string U2. The guidance character string U1 of each scene is a character string that guides the shooting of the moving image of the scene. For example, points to be noted at the time of photographing are prepared for each scene as a guidance character string U1. The additional character string U2 is a character string to be added to the moving image (that is, a telop displayed together with the moving image).

第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、図3に例示した処理を実行する。例えば、入力装置15に対する利用者からの指示を契機として図3の処理が開始される。処理を開始すると、制御装置11は、記憶装置12に記憶された複数のテンプレートTの何れか(以下「使用テンプレートT」という)を選択する(Sa1)。 The control device 11 of the first embodiment executes the processes illustrated in FIG. 3 by executing the programs stored in the storage device 12 . For example, the process of FIG. 3 is started with an instruction from the user to the input device 15 as a trigger. When the process starts, the control device 11 selects one of the plurality of templates T stored in the storage device 12 (hereinafter referred to as "use template T") (Sa1).

図4は、使用テンプレートTを選択する処理(Sa1)の具体的な手順を例示するフローチャートである。制御装置11は、コンテンツの種別(カテゴリ)に関する複数の選択肢を含む図5の画面Ga1を表示装置14に表示させ(Sb1)、利用者による選択を待機する(Sb2:NO)。利用者による種別の選択を受付けると(Sb2:YES)、制御装置11は、コンテンツの趣旨に関する複数の選択肢を含む図5の画面Ga2を表示装置14に表示させ(Sb3)、利用者による選択を待機する(Sb4:NO)。例えば「会社の特徴」「技術力のアピール」または「イメージアップ」等の複数の選択肢が画面Ga2に表示される。利用者による趣旨の選択を受付けると(Sb4:YES)、制御装置11は、コンテンツの表現対象の優位点に関する複数の選択肢を含む図5の画面Ga3を表示装置14に表示させ(Sb5)、利用者による選択を待機する(Sb6:NO)。例えば「信頼性」「先進性」または「安全性」等の複数の選択肢(すなわち表現対象の優位点を表現する語句)が画面Ga3に表示される。以上の説明から理解される通り、制御装置11は、複数の事項(以下「指示事項」という)の各々について利用者による選択の指示を受付ける。コンテンツの種別および趣旨と表現対象の優位点とは、指示事項の例示である。 FIG. 4 is a flowchart illustrating a specific procedure of the process (Sa1) for selecting the template T to use. The control device 11 causes the display device 14 to display the screen Ga1 of FIG. 5 including a plurality of options regarding the type (category) of the content (Sb1), and waits for selection by the user (Sb2: NO). When the selection of the type by the user is accepted (Sb2: YES), the control device 11 causes the display device 14 to display the screen Ga2 of FIG. Wait (Sb4: NO). For example, the screen Ga2 displays a plurality of options such as "characteristics of the company", "appeal of technical capabilities", and "improvement of image". When the selection of the purpose by the user is accepted (Sb4: YES), the control device 11 causes the display device 14 to display the screen Ga3 of FIG. It waits for selection by the person (Sb6: NO). For example, a plurality of options such as "reliability", "advancement", and "safety" (that is, words expressing the superiority of the object to be expressed) are displayed on the screen Ga3. As can be understood from the above description, the control device 11 receives a user's selection instruction for each of a plurality of items (hereinafter referred to as "instruction items"). The type and purpose of the content and the advantages of the object of expression are examples of instructions.

利用者による優位点の選択を受付けると(Sb6:YES)、制御装置11は、記憶装置12に記憶された複数のテンプレートTから利用者による選択の結果に応じた1個の使用テンプレートTを選択する(Sb7)。具体的には、制御装置11は、利用者が選択した種別、趣旨および優位点の組合せに類似する属性データXのテンプレートTを使用テンプレートTとして選択する。すなわち、利用者の意図に沿ったコンテンツの生成に好適な使用テンプレートTが選択される。以上の説明から理解される通り、制御装置11は、複数のテンプレートTから使用テンプレートTを選択する要素(選択処理部)として機能する。具体的には、制御装置11は、複数の指示事項の各々に関する利用者からの指示に応じて使用テンプレートTを選択する。 Upon receiving the user's selection of the advantage (Sb6: YES), the control device 11 selects one use template T from a plurality of templates T stored in the storage device 12 according to the result of the user's selection. (Sb7). Specifically, the control device 11 selects the template T of the attribute data X similar to the combination of the type, purpose and advantage selected by the user as the template T to be used. That is, a usage template T suitable for generating content in accordance with the user's intention is selected. As can be understood from the above description, the control device 11 functions as an element (selection processing unit) that selects a template to be used T from a plurality of templates T. FIG. Specifically, the control device 11 selects the usage template T according to the user's instruction regarding each of the plurality of instruction items.

以上の手順(Sb1~Sb7)で使用テンプレートTを選択すると、制御装置11は、図3に例示される通り、2個の語句W(WaおよびWb)を利用者から受付ける(Sa2)。具体的には、制御装置11は、各語句Wの入力欄を含む図6の画面Gb0を表示装置14に表示させて利用者による入力を待機する。各語句Wは、利用者がコンテンツの視聴者に主張したい事項を表す任意のキーワード(単語または句)である。例えば、企業の技術力の高さを主張したい場合、利用者は「高度な技術」等の語句Wを入力し、自社製品の実績を主張したい場合、利用者は「豊富な実績」等の語句Wを入力する。 When the use template T is selected in the above procedure (Sb1 to Sb7), the control device 11 receives two words W (Wa and Wb) from the user (Sa2), as illustrated in FIG. Specifically, the control device 11 causes the display device 14 to display the screen Gb0 of FIG. 6 including input fields for each word W, and waits for input by the user. Each word/phrase W is an arbitrary keyword (word or phrase) that expresses what the user wants to assert to the viewer of the content. For example, if the user wishes to claim the company's high technical strength, the user enters a phrase W such as "advanced technology", and if the user wishes to claim the achievements of his company's products, the user enters a phrase such as "abundant achievements". Enter W.

語句Waおよび語句Wbを利用者から受付けると、制御装置11は、語句Waに対応する動画Maと語句Wbに対応する動画Mbとを、収録装置16により収録する(Sa3,Sa4)。図7は、語句Wに対応する動画Mを収録する処理(以下「第1収録処理」という)の具体的な手順を例示するフローチャートである。語句Waについて第1収録処理が実行されることで動画Maが収録され(Sa3)、語句Wbについて第1収録処理が実行されることで動画Mbが生成される(Sa4)。 Upon receiving the words Wa and Wb from the user, the control device 11 records the video Ma corresponding to the words Wa and the video Mb corresponding to the words Wb by the recording device 16 (Sa3, Sa4). FIG. 7 is a flowchart illustrating a specific procedure of processing for recording the moving image M corresponding to the word W (hereinafter referred to as "first recording processing"). A moving image Ma is recorded by executing the first recording process for the word Wa (Sa3), and a moving image Mb is generated by executing the first recording process for the word Wb (Sa4).

第1収録処理を開始すると、制御装置11は、語句Wに対応する動画Mの撮影を利用者に案内する図6の画面Gb1を表示装置14に表示させる(Sc1)。画面Gb1の案内には語句Wが含まれる。具体的には、動画Maを生成する第1収録処理(Sa3)においては語句Waを含む案内が画面Gb1に表示され、動画Mbを生成する第1収録処理(Sa4)においては語句Wbを含む案内が画面Gb1に表示される。利用者が処理の進行を指示すると、制御装置11は、語句Wに対応する動画Mを撮影するための図6の画面Gb2を表示装置14に表示させる(Sc2)。 When the first recording process is started, the control device 11 causes the display device 14 to display the screen Gb1 of FIG. 6 for guiding the user to shoot the moving image M corresponding to the word W (Sc1). The guidance on the screen Gb1 includes a word W. Specifically, in the first recording process (Sa3) for generating the moving image Ma, the guidance including the word Wa is displayed on the screen Gb1, and in the first recording process (Sa4) for generating the moving picture Mb, the guidance including the word Wb is displayed. is displayed on the screen Gb1. When the user instructs the progress of the process, the control device 11 causes the display device 14 to display the screen Gb2 of FIG. 6 for shooting the moving image M corresponding to the word W (Sc2).

画面Gb2は、撮影領域R1と付加領域R2と操作領域R3とを含んで構成される。撮影領域R1には、収録装置16の撮像装置により撮像される映像が実時間的に表示(すなわちライブビュー表示)される。付加領域R2には語句Wが表示される。操作領域R3には、利用者からの操作を受付ける操作子が表示される。例えば、動画Mの収録の開始および終了を指示する操作子Bが操作領域R3に配置される。 The screen Gb2 includes a photographing area R1, an additional area R2, and an operation area R3. In the shooting area R1, an image picked up by the imaging device of the recording device 16 is displayed in real time (that is, live view display). A word W is displayed in the additional area R2. In the operation area R3, operators for receiving operations from the user are displayed. For example, an operator B for instructing the start and end of recording of the moving image M is arranged in the operation area R3.

画面Gb2の表示後、制御装置11は、語句Wに対応する動画Mを、利用者からの指示に応じて収録装置16により収録する(Sc3)。具体的には、制御装置11は、語句Waに対応する動画Maの収録(Sa3)、または、語句Wbに対応する動画Mbの収録(Sa4)を、収録装置16に実行させる。例えば、画面Gb2の操作子Bを利用者が操作すると、制御装置11は、収録装置16に動画Mの収録を開始させる。利用者は、収録装置16を利用して、語句Wに適合する動画Mを撮影する。また、収録中に利用者が操作子Bを操作すると、収録装置16による動画Mの収録は終了する。なお、収録の開始から所定の時間が経過した場合に動画Mの収録を終了してもよい。収録装置16が収録した動画Mは記憶装置12に記憶される。以上の説明から理解される通り、制御装置11は、収録装置16により複数の動画M(動画Maおよび動画Mb)を収録する要素(第1収録処理部)として機能する。 After the screen Gb2 is displayed, the control device 11 records the moving image M corresponding to the word W by the recording device 16 in accordance with the instruction from the user (Sc3). Specifically, the control device 11 causes the recording device 16 to record the moving image Ma corresponding to the word Wa (Sa3) or record the moving image Mb corresponding to the word Wb (Sa4). For example, when the user operates the operator B on the screen Gb2, the control device 11 causes the recording device 16 to start recording the moving image M. FIG. The user uses the recording device 16 to shoot the moving image M that matches the phrase W. - 特許庁Also, when the user operates the operator B during recording, the recording of the moving image M by the recording device 16 ends. Note that the recording of the moving image M may be ended when a predetermined time has passed since the start of recording. The moving image M recorded by the recording device 16 is stored in the storage device 12 . As can be understood from the above description, the control device 11 functions as an element (first recording processing unit) that records a plurality of moving images M (moving images Ma and moving images Mb) using the recording device 16 .

以上の手順で動画Maおよび動画Mbを収録すると、制御装置11は、図8の画面Gcを表示装置14に表示させる(Sa5)。画面Gcは、再生領域Qaと再生領域Qbとを含んで構成される。再生領域Qaには動画Maと語句Waとが表示され、再生領域Qbには動画Mbと語句Wbとが表示される。利用者は、画面Gcを視認することで動画Maと動画Mbとを比較し、入力装置15を操作することで動画Maおよび動画Mbのうちの一方の動画M(以下「第1動画M1」という)を選択する。例えば利用者は、動画Maおよび動画Mbのうちの印象的な方を第1動画M1として選択する。制御装置11は、利用者による第1動画M1の選択を受付ける(Sa6)。動画Maおよび動画Mbのうち利用者が画面Gcで選択しない動画を以下では「第2動画M2」と表記する。以上の説明から理解される通り、制御装置11は、複数の動画Mのうち第1動画M1の選択を利用者から受付ける要素(選択受付部)として機能する。 After the moving images Ma and Mb are recorded in the above procedure, the control device 11 causes the display device 14 to display the screen Gc of FIG. 8 (Sa5). The screen Gc includes a reproduction area Qa and a reproduction area Qb. A moving image Ma and a word/phrase Wa are displayed in the reproduction area Qa, and a moving image Mb and a word/phrase Wb are displayed in the reproduction area Qb. The user compares the moving images Ma and Mb by viewing the screen Gc, and operates the input device 15 to select one of the moving images M (hereinafter referred to as "first moving image M1"). ). For example, the user selects the more impressive one of the moving images Ma and Mb as the first moving image M1. The control device 11 accepts the selection of the first moving image M1 by the user (Sa6). A moving image that the user does not select on the screen Gc out of the moving images Ma and Mb is hereinafter referred to as a "second moving image M2". As can be understood from the above description, the control device 11 functions as an element (selection receiving unit) that receives the selection of the first moving image M1 from the plurality of moving images M from the user.

制御装置11は、図2に例示される通り、使用テンプレートTが示す複数のシーンのうち第1シーンに第1動画M1を対応付け、第2シーンに第2動画M2を対応付ける(Sa7)。例えば、第1動画M1に第1シーンの識別情報を付加し、第2動画M2に第2シーンの識別情報を付加する。以上の説明から理解される通り、制御装置11は、使用テンプレートTの第1シーンに第1動画M1を対応付け、第2シーンに第2動画M2を対応付ける要素(動画対応部)として機能する。 As illustrated in FIG. 2, the control device 11 associates the first scene with the first moving image M1 and the second scene with the second moving image M2 among the plurality of scenes indicated by the use template T (Sa7). For example, the identification information of the first scene is added to the first moving image M1, and the identification information of the second scene is added to the second moving image M2. As can be understood from the above description, the control device 11 functions as an element (moving image correspondence section) that associates the first scene of the template T to be used with the first moving image M1 and associates the second scene with the second moving image M2.

また、制御装置11は、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じた付加文字列U2をシーン毎に生成する(Sa8)。具体的には、制御装置11は、使用テンプレートTの複数のシーンの各々について、当該シーンの初期的な付加文字列U2に語句Wと優位点X3とを挿入する。すなわち、付加文字列U2が語句Wおよび優位点X3に応じて更新される。 Further, the control device 11 generates an additional character string U2 corresponding to the word/phrase W corresponding to the first moving image M1 and the advantage X3 indicated by the attribute data X for each scene (Sa8). Specifically, the control device 11 inserts the word/phrase W and the advantage X3 into the initial additional character string U2 of each scene of the template T to be used. That is, the additional character string U2 is updated according to the word/phrase W and the advantage X3.

例えば、初期的な付加文字列U2が「{A}によって実現される{B}」という文字列である場合を想定する。第1動画M1の語句Wが「高度な技術」であり、優位点X3が「信頼性」である場合、語句Wを空欄{A}に挿入するとともに優位点X3を空欄{B}に挿入することで、「{高度な技術}によって実現される{信頼性}」という付加文字列U2が生成される。 For example, assume that the initial additional character string U2 is a character string "{B} realized by {A}". If the word/phrase W of the first moving image M1 is "advanced technology" and the advantage X3 is "reliability", the word/phrase W is inserted into the blank {A} and the advantage X3 is inserted into the blank {B}. As a result, an additional character string U2 of "{reliability} realized by {advanced technology}" is generated.

語句Wおよび優位点X3に応じてシーン毎に生成された付加文字列U2が、使用テンプレートTの当該シーンに対応付けられる。前述の通り、第1シーンには第1動画M1が対応付けられる。したがって、制御装置11は、第1動画M1の語句Wに応じて生成された付加文字列U2を第1動画M1とともに当該第1シーンに対応付ける要素(対応管理部)として機能する。 An additional character string U2 generated for each scene according to the word W and the advantage X3 is associated with the scene of the template T to be used. As described above, the first scene is associated with the first moving image M1. Therefore, the control device 11 functions as an element (correspondence management unit) that associates the additional character string U2 generated according to the word/phrase W of the first moving image M1 with the first scene along with the first moving image M1.

なお、以上の説明では使用テンプレートTの全部のシーンについて付加文字列U2を生成したが、使用テンプレートTの一部のシーンのみについて付加文字列U2を生成してもよい。また、以上の説明では属性データXが示す優位点X3に応じた付加文字列U2を生成したが、使用テンプレートTを選択する処理(Sb5,Sb6)において利用者が選択した優位点に応じて付加文字列U2を生成してもよい。 In the above description, the additional character string U2 is generated for all scenes of the template T to be used, but the additional character string U2 may be generated for only some scenes of the template T to be used. In the above description, the additional character string U2 is generated according to the advantage X3 indicated by the attribute data X. A string U2 may be generated.

制御装置11は、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じた案内文字列U1をシーン毎に生成する(Sa9)。具体的には、制御装置11は、使用テンプレートTの複数のシーンの各々について、当該シーンの初期的な案内文字列U1に語句Wと優位点X3とを挿入する。すなわち、案内文字列U1が語句Wおよび優位点X3に応じて更新される。なお、付加文字列U2の生成(Sa8)と案内文字列U1の生成(Sa9)との順序を逆転してもよい。 The control device 11 generates, for each scene, a guidance character string U1 corresponding to the word/phrase W corresponding to the first moving image M1 and the advantage X3 indicated by the attribute data X (Sa9). Specifically, the control device 11 inserts the word/phrase W and the advantage X3 into the initial guidance character string U1 for each of the plurality of scenes of the template T to be used. That is, the guidance character string U1 is updated according to the word W and the advantage X3. The order of generating the additional character string U2 (Sa8) and generating the guidance character string U1 (Sa9) may be reversed.

例えば、初期的な案内文字列U1が「{A}を視聴者に印象付けるために{B}を強調する動画を撮影しましょう」という文字列である場合を想定する。第1動画M1の語句Wが「高度な技術」であり、優位点X3が「信頼性」である場合、語句Wを空欄{A}に挿入するとともに優位点X3を空欄{B}に挿入することで、「{高度な技術}を視聴者に印象付けるために{信頼性}を強調する動画を撮影しましょう」という案内文字列U1が生成される。 For example, assume that the initial guidance character string U1 is a character string "Let's shoot a video that emphasizes {B} to impress the viewer with {A}". If the word/phrase W of the first moving image M1 is "advanced technology" and the advantage X3 is "reliability", the word/phrase W is inserted into the blank {A} and the advantage X3 is inserted into the blank {B}. As a result, a guidance character string U1 is generated that reads, "Let's shoot a video that emphasizes {reliability} in order to impress viewers with {advanced technology}."

語句Wおよび優位点X3に応じてシーン毎に生成された案内文字列U1が、使用テンプレートTの当該シーンに対応付けられる。なお、以上の説明では使用テンプレートTの全部のシーンについて案内文字列U1を生成したが、使用テンプレートTの一部のシーンのみについて案内文字列U1を生成してもよい。また、以上の説明では属性データXが示す優位点X3に応じた案内文字列U1を生成したが、使用テンプレートTの選択(Sb5,Sb6)において利用者が選択した優位点に応じて案内文字列U1を生成してもよい。 A guidance character string U1 generated for each scene according to the word/phrase W and the advantage X3 is associated with the scene of the template T to be used. In the above description, the guide character string U1 is generated for all scenes of the template T to be used, but the guide character string U1 may be generated for only some scenes of the template T to be used. In the above description, the guidance character string U1 is generated according to the advantage X3 indicated by the attribute data X. U1 may be generated.

以上の処理を実行すると、制御装置11は、利用者からの指示に応じて、使用テンプレートTの各シーンについて動画Mを収録する処理(以下「第2収録処理」という)を実行する(Sa10)。第2収録処理において、制御装置11は、複数のシーンのうち利用者が選択したシーン(以下「収録シーン」という)の動画Mを収録装置16により収録する。利用者は、入力装置15を適宜に操作することで、第1シーンおよび第2シーンを含む任意のシーンを収録シーンとして選択できる。動画Mが未収録である収録シーンが選択されると、第2収録処理で収録された動画Mが当該収録シーンに対応付けられる。他方、動画Mが収録済である収録シーン(例えば第1シーンまたは第2シーン)が選択されると、当該収録シーンに対応付けられた収録済の動画Mが、直近の第2収録処理で収録された動画Mに置換される。 After executing the above process, the control device 11 executes the process of recording the moving image M for each scene of the usage template T (hereinafter referred to as "second recording process") according to the instruction from the user (Sa10). . In the second recording process, the control device 11 records the moving image M of the scene selected by the user (hereinafter referred to as “recording scene”) from among the plurality of scenes by the recording device 16 . By appropriately operating the input device 15, the user can select any scene including the first scene and the second scene as the recording scene. When a recording scene in which no moving image M is recorded is selected, the moving image M recorded in the second recording process is associated with the recording scene. On the other hand, when a recording scene (for example, the first scene or the second scene) in which the moving image M has been recorded is selected, the recorded moving image M associated with the recording scene is recorded in the most recent second recording process. is replaced with the moving image M.

図9は、1個の収録シーンの動画Mを収録する第2収録処理(Sa10)の具体的な手順を例示するフローチャートである。利用者による収録シーンの選択を契機として第2収録処理が開始される。 FIG. 9 is a flowchart illustrating a specific procedure of the second recording process (Sa10) for recording the moving image M of one recording scene. The second recording process is started when the user selects a scene to be recorded.

第2収録処理を開始すると、制御装置11は、収録シーンの動画Mの撮影を利用者に案内する図10の画面Gd1を表示装置14に表示させる(Sd1)。画面Gd1には、収録シーンに対応付けられた案内文字列U1が表示される。前述の通り、案内文字列U1には、利用者が指示した語句Wおよび優位点X3が包含される。したがって、案内文字列U1を参照することで、収録シーンの撮影に関する留意点とともにコンテンツの全体的な趣旨を利用者が再認識できる。 When the second recording process is started, the control device 11 causes the display device 14 to display the screen Gd1 of FIG. 10 for guiding the user to shoot the moving image M of the recording scene (Sd1). A guidance character string U1 associated with the recording scene is displayed on the screen Gd1. As described above, the guidance character string U1 includes the phrase W designated by the user and the advantage X3. Therefore, by referring to the guide character string U1, the user can re-recognize the overall purpose of the content as well as points to note regarding shooting of the recording scene.

利用者が処理の進行を指示すると、制御装置11は、収録シーンの動画Mを撮影するための図10の画面Gd2を表示装置14に表示させる(Sd2)。画面Gd2は、図6に例示した画面Gb1と同様に、撮影領域R1と付加領域R2と操作領域R3とを含んで構成される。撮影領域R1には、収録装置16により撮像された映像が実時間的に表示される。付加領域R2には、収録シーンに対応付けられた付加文字列U2が表示される。操作領域R3には、利用者からの操作を受付ける操作子Bが表示される。制御装置11は、操作領域R3の操作子に対する利用者からの指示に応じて、収録シーンの動画Mを収録装置16により収録する(Sd3)。以上の説明から理解される通り、制御装置11は、収録シーン(例えば第1シーンおよび第2シーン等の収録済のシーン以外のシーン)に対応する動画を収録装置16により収録する要素(第2収録処理部)として機能する。制御装置11は、収録シーンについて収録した動画Mを、使用テンプレートTの当該収録シーンに対応付ける(Sd4)。 When the user gives an instruction to proceed with the process, the control device 11 causes the display device 14 to display the screen Gd2 of FIG. 10 for shooting the moving image M of the recording scene (Sd2). The screen Gd2, like the screen Gb1 illustrated in FIG. 6, includes a photographing area R1, an additional area R2, and an operation area R3. An image captured by the recording device 16 is displayed in real time in the shooting area R1. An additional character string U2 associated with the recording scene is displayed in the additional area R2. An operator B for receiving an operation from the user is displayed in the operation area R3. The control device 11 records the moving image M of the recording scene by the recording device 16 according to the user's instruction to the manipulator of the operation area R3 (Sd3). As can be understood from the above description, the control device 11 controls the element (the second recording processing unit). The control device 11 associates the moving image M recorded for the recording scene with the recording scene of the usage template T (Sd4).

第2収録処理は、利用者が処理の終了を指示するまでシーン毎に反復される(Sa11:NO)。複数回にわたる第2収録処理の実行中の任意の時点において、利用者は、収録済の各シーンの動画Mを視聴することが可能である。すなわち、制御装置11は、利用者から視聴が指示された収録済の動画Mを表示装置14に表示させる。したがって、利用者は、例えば第1シーンについて収録済の第1動画M1または第2シーンについて収録済の第2動画M2を適宜に視聴しながら、その他のシーンの動画Mを撮影することが可能である。 The second recording process is repeated for each scene until the user instructs the end of the process (Sa11: NO). At any time during execution of the second recording process over a plurality of times, the user can view the recorded moving image M of each scene. That is, the control device 11 causes the display device 14 to display the recorded moving image M which the user instructs to view. Therefore, the user can, for example, appropriately view the first moving image M1 already recorded for the first scene or the second moving image M2 already recorded for the second scene, and shoot the moving image M of other scenes. be.

以上に説明した第2収録処理の反復により、使用テンプレートTの各シーンについて動画Mと付加文字列U2とが対応付けられる。利用者が処理の終了を指示すると(Sa11:YES)、制御装置11は、使用テンプレートTの複数のシーンの各々に対応する動画Mと付加文字列U2とを含む素材データを通信装置13から編集装置300に送信する(Sa12)。編集装置300は、付加文字列U2が合成された動画Mを適宜に調整したうえで複数のシーンについて時系列に配列したコンテンツを生成する。 By repeating the second recording process described above, each scene of the used template T is associated with the moving image M and the additional character string U2. When the user instructs the end of the process (Sa11: YES), the control device 11 edits the material data including the moving image M and the additional character string U2 corresponding to each of the plurality of scenes of the use template T from the communication device 13. It is transmitted to the device 300 (Sa12). The editing device 300 appropriately adjusts the moving image M synthesized with the additional character string U2, and then generates content in which a plurality of scenes are arranged in time series.

以上に説明した通り、第1実施形態では、複数の動画Mのうち利用者が選択した第1動画M1が使用テンプレートTの第1シーンに対応付けられたうえで、第1シーン以外のシーンに対応する動画Mが収録装置16により収録される。したがって、利用者は、第1シーンに対応する収録済の第1動画M1を適宜に確認しながら、収録装置16により第1シーン以外のシーンに対応する動画Mを撮影できる。第1実施形態では特に、第1動画M1が第1シーンに対応付けられるだけでなく、第2動画M2が第2シーンに対応付けられる。したがって、利用者は、第1動画M1および第2動画M2を適宜に参照しながら、第1シーンおよび第2シーン以外のシーンに対応する動画を収録装置16により撮影できる。 As described above, in the first embodiment, the first moving image M1 selected by the user from among the plurality of moving images M is associated with the first scene of the template to be used T, and then the scene other than the first scene is associated with the first moving image M1. A corresponding moving image M is recorded by the recording device 16 . Therefore, the user can shoot a moving image M corresponding to a scene other than the first scene using the recording device 16 while appropriately confirming the recorded first moving image M1 corresponding to the first scene. Particularly in the first embodiment, not only is the first moving image M1 associated with the first scene, but the second moving image M2 is associated with the second scene. Therefore, the user can record moving images corresponding to scenes other than the first scene and the second scene with the recording device 16 while appropriately referring to the first moving image M1 and the second moving image M2.

第1実施形態では、利用者から受付けた語句Wに対応する複数の動画M(Ma,Mb)が収録装置16により収録され、当該語句Wに応じた付加文字列U2と第1動画M1とが第1シーンに対応付けられる。したがって、語句Wとは別個に付加文字列U2を利用者が指示する構成と比較して、利用者の作業の負荷を軽減することが可能である。また、第1実施形態では、利用者がコンテンツについて指示した趣旨および優位点に応じて使用テンプレートTが選択されるから、利用者の意図に沿ったコンテンツを生成することが可能である。 In the first embodiment, a plurality of moving images M (Ma, Mb) corresponding to a word/phrase W received from a user are recorded by the recording device 16, and an additional character string U2 corresponding to the word/phrase W and the first moving picture M1 are recorded. Associated with the first scene. Therefore, it is possible to reduce the work load of the user compared to the configuration in which the user designates the additional character string U2 separately from the word W. In addition, in the first embodiment, the usage template T is selected according to the purpose and advantages of the content specified by the user, so that it is possible to generate the content in accordance with the user's intention.

<第2実施形態>
本発明の第2実施形態を説明する。なお、以下の各例示において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
<Second embodiment>
A second embodiment of the present invention will be described. It should be noted that, in each of the following illustrations, the reference numerals used in the description of the first embodiment are used for the elements whose functions are the same as those of the first embodiment, and detailed description of each will be omitted as appropriate.

図11は、第2実施形態の制御装置11が使用テンプレートTを選択する処理(Sa1)の手順を例示するフローチャートである。図11に例示される通り、第2実施形態では、コンテンツの種別(Sb1,Sb2)とコンテンツの趣旨(Sb3,Sb4)と表現対象の優位点(Sb5,Sb6)とを利用者から受付けると、制御装置11は所要時間τを特定する(Se)。所要時間τは、複数の指示事項の各々を指示するために利用者が必要とした時間である。例えば、制御装置11は、例えば画面Ga1の表示(Sb1)とともに計時を開始し、優位点の選択を受付けた時点(Sb6:YES)までに経過した時間を所要時間τとして特定する。 FIG. 11 is a flowchart illustrating a procedure of processing (Sa1) in which the control device 11 of the second embodiment selects the template T to be used. As illustrated in FIG. 11, in the second embodiment, when the type of content (Sb1, Sb2), the purpose of the content (Sb3, Sb4), and the advantage of the object to be expressed (Sb5, Sb6) are received from the user, The controller 11 specifies the required time τ (Se). The required time τ is the time required by the user to indicate each of the plurality of instruction items. For example, the control device 11 starts clocking when the screen Ga1 is displayed (Sb1), and specifies the time elapsed up to the reception of the selection of the superiority point (Sb6: YES) as the required time τ.

所要時間τを特定すると、制御装置11は、各指示事項に関する利用者からの指示と当該所要時間τとに応じて使用テンプレートTを選択する(Sb7)。具体的には、制御装置11は、所要時間τが長いほど、複数のテンプレートTのうち長時間のテンプレートTを使用テンプレートTとして選択する。 When the required time τ is specified, the control device 11 selects the use template T according to the instruction from the user regarding each instruction item and the required time τ (Sb7). Specifically, the control device 11 selects the longer template T from among the plurality of templates T as the used template T as the required time τ is longer.

所要時間τに応じた使用テンプレートTの選択(Se,Sb7)以外の動作は第1実施形態と同様である。したがって、第2実施形態においても第1実施形態と同様の効果が実現される。ところで、所要時間τが長い場合、コンテンツに関する複数の指示事項(コンテンツの種別および趣旨と表現対象の優位点)を利用者が充分に絞込めずに悩んでいる状態が想定される。第2実施形態では、所要時間τに応じた使用テンプレートTが選択されるから、利用者の多様な意図を充分に盛込んだ好適なコンテンツを生成できるという利点がある。 Operations other than the selection of the template to be used T according to the required time τ (Se, Sb7) are the same as in the first embodiment. Therefore, the same effects as in the first embodiment are realized in the second embodiment as well. By the way, when the required time τ is long, it is assumed that the user is troubled because he/she cannot sufficiently narrow down a plurality of instructions regarding the content (the type and purpose of the content and the advantages of the object to be expressed). In the second embodiment, since the usage template T is selected according to the required time τ, there is the advantage that suitable content can be generated that fully incorporates the various intentions of the user.

<第3実施形態>
第1実施形態では、複数の指示事項(コンテンツの種別および趣旨と表現対象の優位点)に関する利用者からの指示に応じて使用テンプレートTを選択した。第3実施形態では、利用者が指示した語句Wに応じて使用テンプレートTを選択する。
<Third Embodiment>
In the first embodiment, the template to be used T is selected according to instructions from the user regarding a plurality of instructions (the type and purpose of the content and the advantages of the object to be expressed). In the third embodiment, the template T to be used is selected according to the word/phrase W designated by the user.

図12は、第3実施形態におけるテンプレートTの模式図である。図12に例示される通り、第3実施形態のテンプレートTの属性データXは、当該テンプレートTに関連する語句を表す語句ベクトルVを記憶する。各テンプレートTに関連する語句は、当該テンプレートTを使用したコンテンツにおいて利用者が視聴者に主張したいと推測される事項を表す単語または句であり、テンプレートTの作成者が事前に設定する。語句ベクトルVは、語句間の意味的な関係を表す言語空間(意味空間)における位置を表すベクトルである。語句ベクトルVは、例えばニューラルネットワーク等の統計的推定モデル(Word2Vec)を利用した自然言語処理により特定される。統計的推定モデルの具体例については、例えばTomas Mikolov et al."Efficient Estimation of Word Representations in Vector Space," arXiv:1301.3781 [cs.CL], 2013に詳述されている。 FIG. 12 is a schematic diagram of the template T in the third embodiment. As illustrated in FIG. 12, the attribute data X of the template T of the third embodiment stores word vectors V representing words related to the template T. FIG. Words and phrases associated with each template T are words or phrases that indicate what the user wants to assert to viewers in the content using the template T, and are set in advance by the creator of the template T. The phrase vector V is a vector representing the position in the language space (semantic space) that represents the semantic relationship between the phrases. The word vector V is identified by natural language processing using a statistical estimation model (Word2Vec) such as a neural network, for example. A specific example of the statistical estimation model is described in detail in, for example, Tomas Mikolov et al.

図13は、第3実施形態の制御装置11が実行する処理の具体的な手順を例示するフローチャートである。図13に例示される通り、第3実施形態の制御装置11は、図3のステップSa1およびステップSa2に代えてステップSf1からステップSf3を実行する。第3実施形態では、複数の指示事項に関する利用者からの指示に応じて使用テンプレートTを選択する図4の処理は実行されない。 FIG. 13 is a flowchart illustrating a specific procedure of processing executed by the control device 11 of the third embodiment. As illustrated in FIG. 13, the control device 11 of the third embodiment executes steps Sf1 to Sf3 instead of steps Sa1 and Sa2 in FIG. In the third embodiment, the process of FIG. 4 for selecting a template to be used T according to instructions from the user regarding a plurality of instructions is not executed.

図13の処理を開始すると、制御装置11は、図3のステップSa2と同様に、2個の語句W(WaおよびWb)を利用者から受付ける(Sf1)。具体的には、制御装置11は、各語句Wの入力欄を含む図6の画面Gb0を表示装置14に表示させ、利用者による各語句Wの入力を受付ける。語句Waおよび語句Wbを利用者から受付けると、制御装置11は、利用者が指示した語句Waを解析することで語句ベクトルωを特定する(Sf2)。語句ベクトルωの特定には、前述の通り、例えばニューラルネットワーク等の統計的推定モデルを利用した自然言語処理が好適に採用される。 13, the controller 11 receives two words W (Wa and Wb) from the user (Sf1), as in step Sa2 of FIG. Specifically, the control device 11 causes the display device 14 to display the screen Gb0 of FIG. 6 including input fields for each word W, and accepts input of each word W by the user. Upon receiving the words Wa and Wb from the user, the control device 11 identifies the word vector ω by analyzing the words Wa specified by the user (Sf2). As described above, natural language processing using a statistical estimation model such as a neural network is preferably used to specify the word/phrase vector ω.

制御装置11は、記憶装置12に記憶された複数のテンプレートTから語句Waに応じた使用テンプレートTを選択する(Sf3)。具体的には、制御装置11は、複数のテンプレートTの各々について、当該テンプレートTの語句ベクトルVと語句Waの語句ベクトルωとの間の類似指標を算定する。類似指標は、語句ベクトルVと語句ベクトルωとの類似度の指標(相関または距離)である。制御装置11は、記憶装置12に記憶された複数のテンプレートTのうち、類似指標が表す類似度が最大(相関最大または距離最小)となるテンプレートTを、使用テンプレートTとして選択する。すなわち、利用者が指示した語句Waに対して意味的な相関が高い語句が対応付けられたテンプレートTが選択される。以上の説明から理解される通り、第3実施形態の制御装置11は、利用者が指示した語句Waに応じた使用テンプレートTを選択する要素(選択処理部)として機能する。 The control device 11 selects a use template T corresponding to the word Wa from a plurality of templates T stored in the storage device 12 (Sf3). Specifically, for each of a plurality of templates T, the control device 11 calculates a similarity index between the word/phrase vector V of the template T and the word/phrase vector ω of the word/phrase Wa. The similarity index is an index of similarity (correlation or distance) between the word vector V and the word vector ω. The control device 11 selects, as a template T to be used, the template T having the highest degree of similarity (maximum correlation or minimum distance) indicated by the similarity index from the plurality of templates T stored in the storage device 12 . That is, a template T is selected in which a word/phrase having a high semantic correlation is associated with the word/phrase Wa designated by the user. As can be understood from the above description, the control device 11 of the third embodiment functions as an element (selection processing section) that selects the use template T according to the word/phrase Wa designated by the user.

第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、利用者が指示した語句Waに応じた使用テンプレートTが選択されるから、利用者の意図に適合したテンプレートTを利用して好適なコンテンツを生成できるという利点がある。なお、以上の説明では、複数の指示事項に関する利用者からの指示を使用テンプレートTの選択に加味しない構成を例示したが、複数の指示事項に関する利用者からの指示と利用者が指示した語句Waとの双方に応じて使用テンプレートTを選択してもよい。 The third embodiment also achieves the same effect as the first embodiment. In addition, in the third embodiment, since the usage template T is selected according to the word Wa instructed by the user, there is an advantage that suitable contents can be generated using the template T that matches the intention of the user. . In the above description, the user's instructions regarding a plurality of instruction items are not taken into account in the selection of the template to be used T. You may select the use template T according to both.

<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
<Modification>
Specific modified aspects added to the above-exemplified aspects will be exemplified below. A plurality of aspects arbitrarily selected from the following examples may be combined as appropriate within a mutually consistent range.

(1)前述の各形態では、2個の語句W(WaおよびWb)にそれぞれ対応する2個の動画M(MaおよびMb)を第1収録処理により収録したが、利用者が指示する語句Wの総数および第1収録処理により収録される動画Mの総数は、以上の例示に限定されない。例えば、3個以上の語句Wを利用者から受付け、各語句Wに対応する3個以上の動画Mを第1収録処理により収録してもよい。 (1) In each of the above-described forms, two moving images M (Ma and Mb) respectively corresponding to two words W (Wa and Wb) were recorded by the first recording process. and the total number of moving images M recorded by the first recording process are not limited to the above examples. For example, three or more words W may be received from the user, and three or more moving images M corresponding to each word W may be recorded by the first recording process.

(2)前述の各形態では、複数の動画M(MaおよびMb)のうち1個の動画Mを利用者が選択したが、利用者が複数の動画Mの何れかを択一的に選択することは必須ではない。例えば、複数の動画Mの各々について利用者が優先度を設定し、優先度が第1位(すなわち最大)である動画Mを第1動画M1として第1シーンに対応付けてもよい。複数の動画Mのうち優先度が第2位である動画Mを第2動画M2として第2シーンに対応付けてもよい。 (2) In each of the above-described forms, the user selects one moving image M from among the plurality of moving images M (Ma and Mb), but the user alternatively selects one of the plurality of moving images M. is not required. For example, the user may set a priority for each of a plurality of moving images M, and the moving image M having the highest priority (that is, the highest priority) may be associated with the first scene as the first moving image M1. A moving image M having the second highest priority among the plurality of moving images M may be associated with the second scene as the second moving image M2.

(3)前述の各形態では、利用者が選択した第1動画M1を第1シーンに対応付け、非選択の第2動画M2を第2シーンに対応付けたが、非選択の第2動画M2を破棄してもよい。すなわち、第2動画M2を第2シーンに対応付ける処理は省略される。 (3) In the above embodiments, the first moving image M1 selected by the user is associated with the first scene, and the non-selected second moving image M2 is associated with the second scene. may be discarded. That is, the process of associating the second moving image M2 with the second scene is omitted.

(4)第3実施形態では、利用者が指示した2個の語句W(WaおよびWb)のうち語句Waに応じて使用テンプレートTを選択したが、制御装置11が、語句Wbに応じて使用テンプレートTを選択してもよい。また、制御装置11が、語句Waおよび語句Wbの双方に応じた使用テンプレートTを選択してもよい。例えば、制御装置11は、語句Waに対応する語句ベクトルと語句Wbに対応する語句ベクトルとの中間的な語句ベクトルωを生成し、複数のテンプレートTのうち語句ベクトルωに類似する語句ベクトルVが対応付けられたテンプレートTを、使用テンプレートTとして選択する。 (4) In the third embodiment, the use template T is selected according to the word/phrase Wa from the two words/phrases W (Wa and Wb) indicated by the user. A template T may be selected. Alternatively, the control device 11 may select the usage template T corresponding to both the word/phrase Wa and the word/phrase Wb. For example, the control device 11 generates an intermediate word/phrase vector ω between the word/phrase vector corresponding to the word/phrase Wa and the word/phrase vector corresponding to the word/phrase Wb. The associated template T is selected as the template T to use.

(5)前述の各形態では、第1動画M1に対応する語句Wと属性データXが示す優位点X3とに応じて案内文字列U1および付加文字列U2を生成したが、生成後の案内文字列U1および付加文字列U2を利用者からの指示に応じて変更してもよい。また、編集装置300が情報処理装置100から受信した素材データについて、編集装置300が、当該素材データの送信元の情報処理装置100または他の情報端末からの指示に応じて案内文字列U1および付加文字列U2を変更してもよい。 (5) In each of the above-described embodiments, the guidance character string U1 and the additional character string U2 are generated according to the word/phrase W corresponding to the first moving image M1 and the advantage X3 indicated by the attribute data X. The string U1 and additional character string U2 may be changed according to instructions from the user. Further, with respect to the material data received by the editing device 300 from the information processing device 100, the editing device 300 responds to instructions from the information processing device 100 or other information terminal, which is the transmission source of the material data. You may change the character string U2.

(6)前述の各形態では、初期的な付加文字列U2に語句Wと優位点X3とを挿入することで更新後の付加文字列U2を生成したが、語句Wおよび優位点X3の一方のみを初期的な付加文字列U2に挿入してもよい。また、前述の各形態では、初期的な案内文字列U1に語句Wと優位点X3とを挿入することで更新後の案内文字列U1を生成したが、語句Wおよび優位点X3の一方のみを初期的な案内文字列U1に挿入してもよい。 (6) In each of the above-described forms, the updated additional character string U2 is generated by inserting the word W and the advantage X3 into the initial additional character string U2, but only one of the word W and the advantage X3 is generated. may be inserted into the initial additional string U2. In each of the above-described forms, the updated guidance character string U1 is generated by inserting the word W and the advantage X3 into the initial guidance character string U1. It may be inserted into the initial guidance character string U1.

(7)編集装置300が、情報処理装置100から受信した素材データ内の動画Mを、当該情報処理装置100または他の情報端末からの指示に応じて編集してもよい。また、編集装置300が、情報処理装置100から受信した素材データ内の動画Mを、当該情報処理装置100または他の情報端末から送信された動画に置換してもよい。 (7) The editing device 300 may edit the moving image M in the material data received from the information processing device 100 according to an instruction from the information processing device 100 or another information terminal. Also, the editing device 300 may replace the moving image M in the material data received from the information processing device 100 with a moving image transmitted from the information processing device 100 or another information terminal.

(8)前述の各形態に係る情報処理装置100の機能は、各形態での例示の通り、制御装置11等の処理回路とプログラムとの協働により実現される。前述の各形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。 (8) The functions of the information processing apparatus 100 according to each of the embodiments described above are realized by cooperation between processing circuits such as the control device 11 and programs, as illustrated in each embodiment. The program according to each of the forms described above can be provided in a form stored in a computer-readable recording medium and installed in a computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disc) such as a CD-ROM is a good example. Also included are recording media in the form of It should be noted that the non-transitory recording medium includes any recording medium other than transitory, propagating signals, and does not exclude volatile recording media. Alternatively, the program may be provided to the computer in the form of distribution via a communication network.

<付記>
以上に例示した形態から、例えば以下の構成が把握される。
<Appendix>
For example, the following configuration can be grasped from the form illustrated above.

本発明の好適な態様(第1態様)に係る情報処理方法は、収録装置により複数の動画を収録し、前記複数の動画のうち第1動画の選択を利用者から受付け、使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付け、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する。以上の態様では、複数の動画のうち利用者が選択した第1動画が使用テンプレートの第1シーンに対応付けられたうえで、第1シーン以外のシーンに対応する動画が収録装置により収録される。したがって、利用者は、第1シーンに対応する第1動画を適宜に確認しながら、収録装置により第1シーン以外のシーンに対応する動画を撮影できる。なお、「第1シーン以外のシーン」は、複数のシーンのうち第1シーン以外の全部のシーンには限定されず、第1シーン以外の一部のシーンでもよい。 An information processing method according to a preferred aspect (first aspect) of the present invention includes: recording a plurality of moving images with a recording device; The first moving image is associated with a first scene among the scenes, and a moving image corresponding to scenes other than the first scene among the plurality of scenes is recorded by the recording device. In the above aspect, the first moving image selected by the user from among the plurality of moving images is associated with the first scene of the used template, and then the recording device records the moving images corresponding to the scenes other than the first scene. . Therefore, the user can shoot moving images corresponding to scenes other than the first scene using the recording device while properly confirming the first moving image corresponding to the first scene. Note that the “scenes other than the first scene” are not limited to all the scenes other than the first scene among the plurality of scenes, and may be some scenes other than the first scene.

第1態様の好適例(第2態様)において、複数の語句を利用者から受付け、前記複数の語句にそれぞれ対応する前記複数の動画を前記収録装置により収録し、前記第1動画に合成される付加文字列を、前記第1動画に対応する語句に応じて生成し、前記第1動画と前記付加文字列とを前記第1シーンに対応付ける。以上の態様では、利用者から受付けた語句に対応する複数の動画が収録装置により収録され、当該語句に応じた付加文字列と第1動画とが第1シーンに対応付けられる。したがって、当該語句とは別個に付加文字列を利用者が指示する構成と比較して、利用者の作業の負荷を軽減することが可能である。 In a preferred example of the first aspect (second aspect), a plurality of words and phrases are received from a user, and the plurality of moving images respectively corresponding to the plurality of words and phrases are recorded by the recording device and combined with the first moving image. An additional character string is generated according to a phrase corresponding to the first moving image, and the first moving image and the additional character string are associated with the first scene. In the above aspect, a plurality of moving images corresponding to the phrase received from the user are recorded by the recording device, and the additional character string corresponding to the phrase and the first moving image are associated with the first scene. Therefore, it is possible to reduce the work load on the user compared to a configuration in which the user indicates the additional character string separately from the relevant phrase.

第1態様の好適例(第3態様)において、利用者からの指示に応じて前記複数の動画から前記第1動画以外の第2動画を選択し、前記複数のシーンのうち前記第1シーン以外の第2シーンに前記第2動画を対応付ける。以上の態様によれば、利用者は、第1動画および第2動画を参照しながら、第1シーンおよび第2シーン以外のシーンに対応する動画を収録装置により撮影できる。 In a preferred example of the first aspect (third aspect), a second moving image other than the first moving image is selected from the plurality of moving images according to an instruction from the user, and the plurality of scenes other than the first scene is selected. The second moving image is associated with the second scene of the. According to the above aspect, the user can shoot a moving image corresponding to a scene other than the first scene and the second scene using the recording device while referring to the first moving image and the second moving image.

第1態様から第3態様の何れかの好適例(第4態様)において、前記使用テンプレートを使用して生成されるコンテンツの趣旨を利用者から受付け、前記コンテンツの対象に関する優位点を利用者から受付け、前記コンテンツの趣旨と前記対象に関する優位点とに応じて前記使用テンプレートを選択する。以上の態様によれば、コンテンツの趣旨とコンテンツの対象に関する優位点とに応じて使用テンプレートが選択されるから、利用者の意図に沿ったコンテンツを生成することが可能である。 In a preferred example (fourth aspect) of any one of the first to third aspects (fourth aspect), the gist of the content generated using the usage template is received from the user, and the advantages regarding the target of the content are received from the user. Receive and select the template for use according to the intent of the content and its advantages with respect to the object. According to the above aspect, since the template to be used is selected according to the purpose of the content and the advantages of the target of the content, it is possible to generate the content that meets the user's intention.

第4態様の好適例(第5態様)において、前記コンテンツの趣旨と前記対象に関する優位点とを含む1以上の項目について利用者が選択肢を選択するための所要時間が長いほど、前記複数のテンプレートのうち長時間のテンプレートを前記使用テンプレートとして選択する。利用者が各項目について選択肢を選択するための所要時間が長い場合、各項目を利用者が充分に絞込めずに悩んでいる状態が想定される。第5態様によれば、所要時間が長いほど長時間の使用テンプレートが選択されるから、利用者の多様な意図を充分に盛込んだ好適なコンテンツを生成できるという利点がある。 In a preferred example of the fourth aspect (fifth aspect), the longer the time required for the user to select an option for one or more items including the purpose of the content and the advantage of the object, the more the plurality of templates A template with a long duration is selected as the template to be used. If it takes a long time for the user to select an option for each item, it is assumed that the user is troubled because the user cannot sufficiently narrow down each item. According to the fifth aspect, since the longer the required time is, the longer the usage template is selected, there is an advantage in that it is possible to generate suitable content that fully incorporates the diverse intentions of the user.

第2態様の好適例(第6態様)において、前記複数の語句のうち1個以上の語句に応じて複数のテンプレートから前記使用テンプレートを選択する。以上の態様によれば、利用者の意図に適合したテンプレートを選択できるという利点がある。 In a preferred example of the second aspect (sixth aspect), the template to be used is selected from a plurality of templates in accordance with one or more phrases among the plurality of phrases. According to the above aspect, there is an advantage that a template that matches the user's intention can be selected.

本発明の好適な態様(第7態様)に係る情報処理装置は、収録装置により複数の動画を収録する第1収録処理部と、前記複数の動画のうち第1動画の選択を利用者から受付ける選択受付部と、使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付ける動画対応部と、前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する第2収録処理部とを具備する。 An information processing apparatus according to a preferred aspect (seventh aspect) of the present invention includes a first recording processing unit that records a plurality of moving images by a recording device, and receives selection of a first moving image from among the plurality of moving images from a user. a selection receiving unit; a moving image corresponding unit that associates the first moving image with a first scene out of the plurality of scenes indicated by the used template; and recording the moving image corresponding to scenes other than the first scene out of the plurality of scenes and a second recording processing unit for recording by the device.

<他の態様>
特開2015-115718号公報には、複数のテンプレートのうち利用者が選択したテンプレートを利用してシーン毎の動画を撮影し、複数の動画を統合することで映像作品を作成する技術が開示されている。しかし、動画の撮影または編集に関する専門的な知識がない利用者にとって、複数のテンプレートから自身の意図に沿った適切なテンプレートを選択することは、実際には容易ではない。
<Other aspects>
Japanese Patent Laying-Open No. 2015-115718 discloses a technique of creating a video work by shooting a video for each scene using a template selected by a user from among a plurality of templates and integrating the plurality of videos. ing. However, it is actually not easy for a user who does not have professional knowledge of video shooting or editing to select an appropriate template that matches his/her intention from a plurality of templates.

以上の事情を考慮して、本発明の好適な態様に係る情報処理方法は、利用者から語句を受付け、複数のテンプレートのうち前記語句に対応する使用テンプレートと選択し、前記使用テンプレートが示す複数のシーンの各々に対応する動画を収録装置により収録する。以上の態様によれば、利用者から受付けた語句に対応する使用テンプレートが選択されるから、動画の撮影または編集に関する専門的な知識がない利用者でも、自身の意図に沿った適切なテンプレートを利用して動画を撮影できるという利点がある。 In consideration of the above circumstances, an information processing method according to a preferred aspect of the present invention receives a phrase from a user, selects a template to be used corresponding to the phrase from among a plurality of templates, and selects a plurality of templates indicated by the template to be used. A moving image corresponding to each of the scenes is recorded by a recording device. According to the above aspect, since a template to be used corresponding to a phrase received from a user is selected, even a user who does not have specialized knowledge regarding video shooting or editing can select an appropriate template in line with his/her intention. It has the advantage of being able to shoot videos.

100…情報提供装置、11…制御装置、12…記憶装置、13…通信装置、14…表示装置、15…入力装置、16…収録装置、200…通信網、300…編集装置。 DESCRIPTION OF SYMBOLS 100... Information provision apparatus, 11... Control apparatus, 12... Storage apparatus, 13... Communication apparatus, 14... Display apparatus, 15... Input device, 16... Recording apparatus, 200... Communication network, 300... Editing apparatus.

Claims (5)

複数の語句を利用者から受付け、
前記複数の語句にそれぞれ対応する複数の動画を収録装置により収録し、
前記複数の動画のうち第1動画の選択を利用者から受付け、
前記第1動画に合成される付加文字列を、前記第1動画に対応する語句に応じて生成し、
使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画と前記付加文字列とを対応付け、
前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する
コンピュータにより実現される情報処理方法。
Accept multiple phrases from users,
recording a plurality of moving images respectively corresponding to the plurality of words by a recording device ;
Receiving selection of a first moving image from the plurality of moving images from the user;
generating an additional character string to be synthesized with the first moving image according to a phrase corresponding to the first moving image;
associating the first moving image and the additional character string with a first scene among a plurality of scenes indicated by the template to be used;
An information processing method realized by a computer, wherein a moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
前記複数の語句のうち1個以上の語句に応じて複数のテンプレートから前記使用テンプレートを選択する
請求項の情報処理方法。
2. The information processing method according to claim 1 , wherein said template to be used is selected from a plurality of templates according to one or more phrases among said plurality of phrases.
収録装置により複数の動画を収録し、
前記複数の動画のうち第1動画の選択を利用者から受付け、
複数の指示事項の各々の指示を利用者から受付け、
前記複数の指示事項の各々を利用者が指示するための所要時間が長いほど、複数のテンプレートのうち長時間のテンプレートを使用テンプレートとして選択し、
前記使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付け、
前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する
コンピュータにより実現される情報処理方法。
Record multiple videos with a recording device,
Receiving selection of a first moving image from the plurality of moving images from the user;
Receiving instructions from users for each of a plurality of instructions,
selecting, as a template to be used, a template that takes a longer time from among the plurality of templates as the time required for the user to indicate each of the plurality of instructions is longer;
associating the first moving image with a first scene out of a plurality of scenes indicated by the template to be used ;
An information processing method realized by a computer, wherein a moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
制御装置と記憶装置とを具備し、 comprising a control device and a storage device;
前記制御装置は、前記記憶装置に記憶されたプログラムを実行することで、 By executing the program stored in the storage device, the control device
複数の語句を利用者から受付け、 Accept multiple phrases from users,
前記複数の語句にそれぞれ対応する複数の動画を収録装置により収録し、 recording a plurality of moving images respectively corresponding to the plurality of words by a recording device;
前記複数の動画のうち第1動画の選択を利用者から受付け、 Receiving selection of a first moving image from the plurality of moving images from the user;
前記第1動画に合成される付加文字列を、前記第1動画に対応する語句に応じて生成し、 generating an additional character string to be synthesized with the first moving image according to a phrase corresponding to the first moving image;
使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画と前記付加文字列とを対応付け、 associating the first moving image and the additional character string with a first scene among a plurality of scenes indicated by the template to be used;
前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する A moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
情報処理装置。 Information processing equipment.
制御装置と記憶装置とを具備し、 comprising a control device and a storage device;
前記制御装置は、前記記憶装置に記憶されたプログラムを実行することで、 By executing the program stored in the storage device, the control device
収録装置により複数の動画を収録し、 Record multiple videos with a recording device,
前記複数の動画のうち第1動画の選択を利用者から受付け、 Receiving selection of a first moving image from the plurality of moving images from the user;
複数の指示事項の各々の指示を利用者から受付け、 Receiving instructions from users for each of a plurality of instructions,
前記複数の指示事項の各々を利用者が指示するための所要時間が長いほど、複数のテンプレートのうち長時間のテンプレートを使用テンプレートとして選択し、 selecting, as a template to be used, a template that takes a longer time from among the plurality of templates as the time required for the user to indicate each of the plurality of instructions is longer;
前記使用テンプレートが示す複数のシーンのうちの第1シーンに前記第1動画を対応付け、 associating the first moving image with a first scene out of a plurality of scenes indicated by the template to be used;
前記複数のシーンのうち前記第1シーン以外のシーンに対応する動画を前記収録装置により収録する A moving image corresponding to a scene other than the first scene among the plurality of scenes is recorded by the recording device.
情報処理装置。 Information processing equipment.
JP2018184197A 2018-09-28 2018-09-28 Information processing method and information processing device Active JP7167602B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018184197A JP7167602B2 (en) 2018-09-28 2018-09-28 Information processing method and information processing device
PCT/JP2019/035901 WO2020066659A1 (en) 2018-09-28 2019-09-12 Information processing method, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018184197A JP7167602B2 (en) 2018-09-28 2018-09-28 Information processing method and information processing device

Publications (2)

Publication Number Publication Date
JP2020053936A JP2020053936A (en) 2020-04-02
JP7167602B2 true JP7167602B2 (en) 2022-11-09

Family

ID=69952697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018184197A Active JP7167602B2 (en) 2018-09-28 2018-09-28 Information processing method and information processing device

Country Status (2)

Country Link
JP (1) JP7167602B2 (en)
WO (1) WO2020066659A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866796A (en) * 2020-12-31 2021-05-28 北京字跳网络技术有限公司 Video generation method and device, electronic equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051708A (en) 2003-07-31 2005-02-24 Sony Corp Method, program, and device for content plan creation program recording media, imaging device, imaging method, imaging program, audio inputting device, audio inputting method, audio inputting program
JP2007104336A (en) 2005-10-04 2007-04-19 Olympus Imaging Corp Camera, display control method, display control apparatus, program, and recording medium
JP2012004739A (en) 2010-06-15 2012-01-05 Sony Corp Information processor, information processing method and program
JP2013090267A (en) 2011-10-21 2013-05-13 Sanyo Electric Co Ltd Imaging device
JP2015115718A (en) 2013-12-10 2015-06-22 株式会社フレイ・スリー Video processing device, video processing method and video processing program
JP2017130109A (en) 2016-01-21 2017-07-27 キヤノン株式会社 Program, information processor and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005051708A (en) 2003-07-31 2005-02-24 Sony Corp Method, program, and device for content plan creation program recording media, imaging device, imaging method, imaging program, audio inputting device, audio inputting method, audio inputting program
JP2007104336A (en) 2005-10-04 2007-04-19 Olympus Imaging Corp Camera, display control method, display control apparatus, program, and recording medium
JP2012004739A (en) 2010-06-15 2012-01-05 Sony Corp Information processor, information processing method and program
JP2013090267A (en) 2011-10-21 2013-05-13 Sanyo Electric Co Ltd Imaging device
JP2015115718A (en) 2013-12-10 2015-06-22 株式会社フレイ・スリー Video processing device, video processing method and video processing program
JP2017130109A (en) 2016-01-21 2017-07-27 キヤノン株式会社 Program, information processor and control method

Also Published As

Publication number Publication date
WO2020066659A1 (en) 2020-04-02
JP2020053936A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
CN103702039B (en) image editing apparatus and image editing method
US8244104B2 (en) System for creating content using content project data
JP4360425B2 (en) Image processing apparatus, processing method thereof, and program
JP4482829B2 (en) Preference extraction device, preference extraction method, and preference extraction program
JP6093289B2 (en) Video processing apparatus, video processing method, and program
JP3615195B2 (en) Content recording / playback apparatus and content editing method
WO2003102953A1 (en) Authoring device and authoring method
JP2016119600A (en) Editing device and editing method
JP2016038601A (en) Cg character interaction device and cg character interaction program
JP2007336106A (en) Video image editing assistant apparatus
CN111742557A (en) Display device and system including the same
JP7167602B2 (en) Information processing method and information processing device
KR101490506B1 (en) Method and apparatus for editing moving picture contents
JP6524831B2 (en) Information processing apparatus and program
KR101458139B1 (en) Apparatus and method of camerawork based on direction rule
CN106372106A (en) Method and apparatus for providing video content assistance information
CN106936830B (en) Multimedia data playing method and device
JP2012178028A (en) Album creation device, control method thereof, and program
US20230049225A1 (en) Emotion tag assigning system, method, and program
JP4941524B2 (en) Post data creation device, and post system comprising post data creation device and posting server
JP5310682B2 (en) Karaoke equipment
CN100461291C (en) Method of modifying a playlist in an audio and/or video apparatus, and corresponding audio and/or video apparatus
JP2000222417A (en) Image filing device
JP6110731B2 (en) Command input recognition system by gesture
JP2005167822A (en) Information reproducing device and information reproduction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R151 Written notification of patent or utility model registration

Ref document number: 7167602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151