JP6903364B1 - Server and data allocation method - Google Patents

Server and data allocation method Download PDF

Info

Publication number
JP6903364B1
JP6903364B1 JP2021051064A JP2021051064A JP6903364B1 JP 6903364 B1 JP6903364 B1 JP 6903364B1 JP 2021051064 A JP2021051064 A JP 2021051064A JP 2021051064 A JP2021051064 A JP 2021051064A JP 6903364 B1 JP6903364 B1 JP 6903364B1
Authority
JP
Japan
Prior art keywords
data
text data
material content
content data
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021051064A
Other languages
Japanese (ja)
Other versions
JP2022061934A (en
Inventor
孝弘 坪野
孝弘 坪野
尚武 石橋
尚武 石橋
雄康 高松
雄康 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Open8 Inc
Original Assignee
Open8 Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Open8 Inc filed Critical Open8 Inc
Priority to JP2021051064A priority Critical patent/JP6903364B1/en
Application granted granted Critical
Publication of JP6903364B1 publication Critical patent/JP6903364B1/en
Publication of JP2022061934A publication Critical patent/JP2022061934A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Abstract

【課題】複合コンテンツデータを簡便に作成することを可能とするサーバおよびデータ割り当て方法(プログラム)を提供する。【解決手段】サーバ1と、管理者端末2と、ユーザ端末3とが、ネットワークを介して互いに通信可能に接続されているシステムにおいて、サーバ1は、少なくとも被識別情報を含む第1のデータの入力を受け付け、被識別情報の少なくとも一部を含む一以上の第2のデータを生成する第2のデータ生成部130と、1つ以上のカットを含む第3のデータのカットに第2のデータを割り当てる第2のデータ割り当て部142と、第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき、第2のデータと、素材コンテンツデータとを関連付ける関連付け部150と、関連付けに基づき、カットに素材コンテンツデータを割り当てる素材コンテンツデータ割り当て部144と、を備える。【選択図】図4PROBLEM TO BE SOLVED: To provide a server and a data allocation method (program) capable of easily creating composite content data. In a system in which a server 1, an administrator terminal 2, and a user terminal 3 are connected to each other so as to be able to communicate with each other via a network, the server 1 is a first piece of data including at least identified information. A second data generation unit 130 that accepts input and generates one or more second data including at least a part of the identified information, and a second data in a third data cut including one or more cuts. The second data and the material content data are assigned based on the second data allocation unit 142 to which the data is assigned, at least a part of the identified information included in the second data, and the extracted information extracted from the material content data. It includes an association unit 150 to be associated, and a material content data allocation unit 144 that allocates material content data to the cut based on the association. [Selection diagram] Fig. 4

Description

本発明は、複合コンテンツデータを生成するサーバおよびデータ割り当て方法に関する
The present invention relates to a server that generates composite content data and a data allocation method.

従来から、動画等コンテンツデータ作成が行われており、例えば、特許文献1には、複
数のチャプタを有する動画から所望のシーン画像を効率的に検索する動画処理装置が提案
されている。
Conventionally, content data such as moving images has been created. For example, Patent Document 1 proposes a moving image processing device that efficiently searches for a desired scene image from moving images having a plurality of chapters.

特開2011−130007号公報Japanese Unexamined Patent Publication No. 2011-130007

動画等コンテンツデータを作成することには多大な手間がかかり、特に、テキストデー
タや画像、音データなどの複数の素材コンテンツデータが用いられた複合コンテンツデー
タを作成する場合には、最適な組み合わせを考慮することがユーザの技術レベルによって
は難しいため、簡便に複合コンテンツデータを作成することができる装置の提供が求めら
れていた。
Creating content data such as moving images takes a lot of time and effort, and in particular, when creating composite content data using multiple material content data such as text data, images, and sound data, the optimum combination is used. Since it is difficult to take this into consideration depending on the technical level of the user, it has been required to provide a device that can easily create composite content data.

そこで、本発明では、複合コンテンツデータを簡便に作成することを可能とするサーバ
およびプログラムを提供することを目的とする。
Therefore, an object of the present invention is to provide a server and a program that enable easy creation of composite content data.

上記課題を解決するための本発明の主たる発明は、少なくとも被識別情報を含む第1の
データの入力を受け付け、前記被識別情報の少なくとも一部を含む一以上の第2のデータ
を生成する第2のデータ生成部と、1つ以上のカットを含む第3のデータの前記カットに
前記第2のデータを割り当てる第2のデータ割り当て部と、前記第2のデータに含まれる
被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき
、前記第2のデータと、前記素材コンテンツデータとを関連付ける関連付け部と、前記関
連付けに基づき、前記カットに前記素材コンテンツデータを割り当てる素材コンテンツデ
ータ割り当て部と、を備えることを特徴とするサーバ、である。
The main invention of the present invention for solving the above problems is a first method of accepting input of first data including at least the identified information and generating one or more second data including at least a part of the identified information. At least the second data generation unit, the second data allocation unit that allocates the second data to the cut of the third data including one or more cuts, and the identified information included in the second data. Based on a part and the extracted information extracted from the material content data, the association unit that associates the second data with the material content data, and the material content that allocates the material content data to the cut based on the association. It is a server characterized by including a data allocation unit.

本発明によれば、複合コンテンツデータを簡便に作成することを可能とするサーバおよ
びデータ割り当て方法を提供することが可能となる。
According to the present invention, it is possible to provide a server and a data allocation method that enable easy creation of composite content data.

実施形態例に係るシステムの構成図である。It is a block diagram of the system which concerns on embodiment. 実施形態例に係るサーバの構成図である。It is a block diagram of the server which concerns on embodiment. 実施形態例に係る管理端末、ユーザ端末の構成図である。It is a block diagram of the management terminal and the user terminal which concerns on embodiment. 実施形態例に係るシステムの機能ブロック図である。It is a functional block diagram of the system which concerns on embodiment. 第3のデータを構成する画面レイアウト例を説明する図である。It is a figure explaining the screen layout example which constitutes the 3rd data. 実施形態例に係るシステムのフローチャートである。It is a flowchart of the system which concerns on embodiment. 複合コンテンツデータを構成する複数のカットを画面上に一覧表示する態様の説明図である。It is explanatory drawing of the aspect of displaying a list of a plurality of cuts constituting the composite content data on the screen. 要約文作成機能の処理フローである。This is the processing flow of the summary sentence creation function. 文書を形態素解析にかけ、トークンに分ける処理を説明する図である。It is a figure explaining the process of subjecting a document to morphological analysis and dividing it into tokens. 第3のデータの各カットへの文章の挿入を説明する図である。It is a figure explaining the insertion of the sentence into each cut of the 3rd data.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるサーバ及びデ
ータ割り当て方法は、以下のような構成を備える。
[項目1]
少なくとも被識別情報を含む第1のデータの入力を受け付け、前記被識別情報の少なく
とも一部を含む一以上の第2のデータを生成する第2のデータ生成部と、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てる第
2のデータ割り当て部と、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータか
ら抽出された抽出情報に基づき、前記第2のデータと、前記素材コンテンツデータとを関
連付ける関連付け部と、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てる素材コン
テンツデータ割り当て部と、
を備えることを特徴とするサーバ。
[項目2]
前記被識別情報は、言語モデルにより定義された単語形式または文全体を表すベクトル
である、
ことを特徴とする項目1に記載のサーバ。
[項目3]
前記第1のデータは、前記被識別情報を含むテキストデータ、前記被識別情報を含む画
像データ若しくは動画データ、前記被識別情報を含む音声データの少なくともいずれか1
つである、
ことを特徴とする項目1または2に記載のサーバ。
[項目4]
前記第2のデータは、前記第3のデータの各カットの最大文字数及び前記第1のデータ
の文節間の修飾関係を解析し、文章として自然な区間が各カットに収まるように文を区切
られたものである、
ことを特徴とする項目1ないし3に記載のサーバ。
[項目5]
素材コンテンツデータは、画像データ、動画データ、音データの少なくともいずれか1
つである、
ことを特徴とする項目1ないし4に記載のサーバ。
[項目6]
前記関連付け部は、前記第2のデータに含まれる被識別情報の少なくとも一部と、前記
素材コンテンツデータから抽出された抽出情報とを比較し、互いの類似度を判定して、前
記第2のデータに適した素材コンテンツデータと前記第2のデータとを互いに関連付けを
行う、
ことを特徴とする項目1ないし5に記載のサーバ。
[項目7]
学習データを用いて機械学習を行った学習済モデルであり、前記素材コンテンツデータ
の前記抽出情報を抽出する分類器を備え、
前記抽出情報は、前記分類器が出力したクラスラベルである、
ことを特徴とする項目6に記載のサーバ。
[項目8]
前記サーバは、さらに、前記第1のデータに含まれる文章情報を要約する機能を有し、
前記第2のデータ生成部は、前記要約から第2のデータを生成する、
ことを特徴とする項目1ないし7のいずれかに記載のサーバ。
[項目9]
前記素材コンテンツデータは、ネットワーク上から取得されて、素材コンテンツデータ
記憶部に格納される、
ことを特徴とする項目1ないし8のいずれかに記載のサーバ。
[項目10]
少なくとも被識別情報を含む第1のデータの入力を受け付け、前記被識別情報の少なく
とも一部を含む一以上の第2のデータを生成するステップと、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てるス
テップと、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータに
基づき、前記第2のデータと、前記素材コンテンツデータとを関連付けるステップと、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てるステップ
と、を含む、
ことを特徴とするデータ割り当て方法。
The contents of the embodiments of the present invention will be described in a list. The server and the data allocation method according to the embodiment of the present invention have the following configurations.
[Item 1]
A second data generation unit that accepts input of first data including at least the identified information and generates one or more second data including at least a part of the identified information.
A second data allocation unit that allocates the second data to the cut of the third data including one or more cuts, and a second data allocation unit.
An association unit that associates the second data with the material content data based on at least a part of the identified information included in the second data and the extracted information extracted from the material content data.
Based on the association, the material content data allocation unit that allocates the material content data to the cut, and
A server characterized by being equipped with.
[Item 2]
The identified information is a vector representing a word form or an entire sentence defined by a language model.
The server according to item 1, characterized in that.
[Item 3]
The first data is at least one of text data including the identified information, image data or moving image data including the identified information, and audio data including the identified information.
One,
The server according to item 1 or 2, characterized in that.
[Item 4]
The second data analyzes the maximum number of characters in each cut of the third data and the modification relationship between the clauses of the first data, and divides the sentence so that a natural section as a sentence fits in each cut. It is
The server according to items 1 to 3, wherein the server is characterized by the above.
[Item 5]
The material content data is at least one of image data, video data, and sound data.
One,
The server according to items 1 to 4, wherein the server is characterized by the above.
[Item 6]
The associating unit compares at least a part of the identified information included in the second data with the extracted information extracted from the material content data, determines the degree of similarity to each other, and determines the degree of similarity to each other. The material content data suitable for the data and the second data are associated with each other.
The server according to items 1 to 5, wherein the server is characterized by the above.
[Item 7]
It is a trained model in which machine learning is performed using the training data, and is provided with a classifier that extracts the extracted information of the material content data.
The extracted information is a class label output by the classifier.
The server according to item 6, characterized in that.
[Item 8]
The server further has a function of summarizing text information contained in the first data.
The second data generation unit generates the second data from the summary.
The server according to any one of items 1 to 7, characterized in that.
[Item 9]
The material content data is acquired from the network and stored in the material content data storage unit.
The server according to any one of items 1 to 8, characterized in that.
[Item 10]
A step of accepting input of first data including at least the identified information and generating one or more second data including at least a part of the identified information.
A step of assigning the second data to the cut of the third data including one or more cuts,
A step of associating the second data with the material content data based on at least a part of the identified information included in the second data and the material content data.
Including a step of assigning the material content data to the cut based on the association.
A data allocation method characterized by that.

<実施の形態の詳細>
以下、本発明の実施の形態による複合コンテンツデータを作成するためのシステム(以
下「本システム」という)等について説明する。添付図面において、同一または類似の要
素には同一または類似の参照符号及び名称が付され、各実施形態の説明において同一また
は類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される
特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。
<Details of the embodiment>
Hereinafter, a system for creating composite content data according to an embodiment of the present invention (hereinafter referred to as “the present system”) and the like will be described. In the accompanying drawings, the same or similar elements are given the same or similar reference numerals and names, and duplicate description of the same or similar elements may be omitted in the description of each embodiment. In addition, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other.

<構成>
実施形態例に係る本システムは、図1に示すように、サーバ1と、管理者端末2と、ユ
ーザ端末3とを備えて構成される。サーバ1と、管理者端末2と、ユーザ端末3は、ネッ
トワークを介して互いに通信可能に接続されている。ネットワークは、ローカルネットワ
ークであってもよいし、外部ネットワークに接続可能なものであってもよい。図1の例で
は、サーバ1を1台で構成する例を説明しているが、複数台のサーバ装置によりサーバ1
を実現することも可能である。また、サーバ1と管理者端末2が共通化されていてもよい
<Structure>
As shown in FIG. 1, the system according to the embodiment is configured to include a server 1, an administrator terminal 2, and a user terminal 3. The server 1, the administrator terminal 2, and the user terminal 3 are connected to each other so as to be able to communicate with each other via a network. The network may be a local network or may be connectable to an external network. In the example of FIG. 1, an example in which one server 1 is configured is described, but the server 1 is composed of a plurality of server devices.
It is also possible to realize. Further, the server 1 and the administrator terminal 2 may be shared.

<サーバ1>
図2は、図1に記載のサーバ1のハードウェア構成を示す図である。なお、図示された
構成は一例であり、これ以外の構成を有していてもよい。また、サーバ1は、例えばワー
クステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或
いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Server 1>
FIG. 2 is a diagram showing a hardware configuration of the server 1 shown in FIG. The illustrated configuration is an example, and may have other configurations. Further, the server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部1
3、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The server 1 has at least a processor 10, a memory 11, a storage 12, and a transmitter / receiver 1.
3. Input / output units 14 and the like are provided, and these are electrically connected to each other through a bus 15.

プロセッサ10は、サーバ1全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置であ
る。例えばプロセッサ10はCPU(Central Processing Unit
)およびGPU(Graphics Processing Unit)であり、ストレ
ージ12に格納されメモリ11に展開された本システムのためのプログラム等を実行して
各情報処理を実施する。なお、プロセッサ10の処理能力は、必要な情報処理を実行する
ために十分であればよいので、例えば、プロセッサ10はCPUのみで構成されていても
よいし、これに限るものでもない。
The processor 10 is an arithmetic unit that controls the operation of the entire server 1, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing. For example, the processor 10 is a CPU (Central Processing Unit).
) And GPU (Graphics Processing Unit), and execute each information processing by executing a program or the like for this system stored in the storage 12 and expanded in the memory 11. The processing capacity of the processor 10 may be sufficient to execute necessary information processing. Therefore, for example, the processor 10 may be composed of only a CPU, and is not limited to this.

メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、プロセッサ10のワークエリア等として使用され、また、サーバ1の起動時に実
行されるBIOS(Basic Input / Output System)、及び
各種設定情報等を格納してもよい。
The memory 11 is a DRAM (Dynamic Random Access Memory).
Main memory composed of volatile storage devices such as y), flash memory and HDD (Hard)
Includes auxiliary storage configured with a non-volatile storage device such as Disk Drive). The memory 11 may be used as a work area of the processor 10 or the like, and may store a BIOS (Basic Input / Output System) executed when the server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよ
い。
The storage 12 stores various programs such as application programs. A database storing data used for each process may be built in the storage 12.

送受信部13は、サーバ1をネットワークに接続する。 The transmission / reception unit 13 connects the server 1 to the network.

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力
機器である。
The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

<管理者端末2、ユーザ端末3>
図3に示される管理者端末2、ユーザ端末3もまた、プロセッサ20、メモリ21、ス
トレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に
電気的に接続される。各要素の機能は、上述したサーバ1と同様に構成することが可能で
あることから、各要素の詳細な説明は省略する。管理者は、管理者端末2により、例えば
サーバ1の設定変更やデータベースの運用管理などを行う。ユーザは、ユーザ端末3によ
りサーバ1にアクセスして、例えば、作成された複合コンテンツデータを閲覧することな
どができる。
<Administrator terminal 2, user terminal 3>
The administrator terminal 2 and the user terminal 3 shown in FIG. 3 also include a processor 20, a memory 21, a storage 22, a transmission / reception unit 23, an input / output unit 24, and the like, and these are electrically connected to each other through a bus 25. .. Since the functions of each element can be configured in the same manner as the server 1 described above, detailed description of each element will be omitted. The administrator uses the administrator terminal 2 to change the settings of the server 1 and manage the operation of the database, for example. The user can access the server 1 by the user terminal 3 and browse the created composite content data, for example.

<サーバ1の機能>
図4は、サーバ1に実装される機能を例示したブロック図である。本実施の形態におい
ては、サーバ1は、通信部110、被識別情報解析部120、第2のデータ生成部130
、複合コンテンツデータ生成部140、関連付け部150、記憶部160、分類器170
を備えている。複合コンテンツデータ生成部140は、第2のデータ割り当て部142、
素材コンテンツデータ割り当て部144を含む。また、記憶部160は、第3のデータ記
憶部162、素材コンテンツデータ記憶部164、複合コンテンツデータ記憶部166、
インターフェース情報記憶部168などの各種データベースを含む。
<Function of server 1>
FIG. 4 is a block diagram illustrating the functions implemented in the server 1. In the present embodiment, the server 1 is the communication unit 110, the identified information analysis unit 120, and the second data generation unit 130.
, Composite content data generation unit 140, association unit 150, storage unit 160, classifier 170
It has. The composite content data generation unit 140 is the second data allocation unit 142,
The material content data allocation unit 144 is included. Further, the storage unit 160 includes a third data storage unit 162, a material content data storage unit 164, and a composite content data storage unit 166.
Includes various databases such as the interface information storage unit 168.

通信部110は、管理端末2や、ユーザ端末3と通信を行う。通信部110は、ユーザ
端末2から、少なくとも被識別情報を含む第1のデータを受け付ける受付部としても機能
する。そして、第1のデータは、例えば、被識別情報を含む記事(例えば、プレスリリー
スや、ニュースなど)などのテキストデータ、被識別情報を含む画像データ(例えば、写
真や、イラストなど)若しくは動画データ、被識別情報を含む音声データなどであっても
よい。なお、ここでいうテキストデータは、サーバ1に送信された時点においてテキスト
データであるものに限らず、例えば、サーバ1に送信された音声データを既知の音声認識
技術により生成されたテキストデータであってもよい。また、第1のデータは、例えば記
事などのテキストデータなどが、既存の抽出的要約若しくは生成的要約などの自動要約技
術により要約されたもの(被識別情報を含む)であってもよく、その場合、第3のデータ
に含まれるカット数が減り、複合コンテンツデータ全体のデータ容量を小さくすることが
でき、内容も簡潔なものとなり得る。
The communication unit 110 communicates with the management terminal 2 and the user terminal 3. The communication unit 110 also functions as a reception unit that receives at least the first data including the identified information from the user terminal 2. The first data is, for example, text data such as an article containing the identified information (for example, a press release or news), image data including the identified information (for example, a photograph or an illustration) or moving image data. , Voice data including identified information may be used. The text data referred to here is not limited to the text data at the time of being transmitted to the server 1, for example, the voice data transmitted to the server 1 is text data generated by a known voice recognition technique. You may. Further, the first data may be, for example, text data such as an article summarized by an existing automatic summarization technique such as an extractive summarization or a generative summarization (including identified information). In this case, the number of cuts included in the third data can be reduced, the data capacity of the entire composite content data can be reduced, and the content can be simplified.

また、ここでいう音声データは、動画データから音声認識により抽出された音声データ
や、テキストデータから生成された音声データであってもよい。前者の場合、例えばラフ
スケッチなどの仮画像及び仮映像による動画といった仮動画から、ナレーションやセリフ
などの音声データだけを抽出し、後述されるように当該音声データを基に素材コンテンツ
データと共に複合コンテンツデータを生成するようにしてもよい。後者の場合、例えば、
ストーリーのあるテキストデータから音声データを作成し、例えば童話であれば、読み上
げられたストーリーと素材コンテンツデータによる紙芝居や動画を複合コンテンツデータ
として生成するようにしてもよい。
Further, the voice data referred to here may be voice data extracted from moving image data by voice recognition or voice data generated from text data. In the former case, only audio data such as narration and dialogue is extracted from the temporary video such as a temporary image such as a rough sketch and a video based on the temporary video, and as will be described later, the composite content is combined with the material content data based on the audio data. Data may be generated. In the latter case, for example
Audio data may be created from text data with a story, and in the case of a fairy tale, for example, a picture-story show or a moving image based on the story read aloud and the material content data may be generated as composite content data.

第2のデータ生成部130は、例えば第1のデータを分割する必要がないと判定した場
合(例えば、テキストデータが予め設定された文字数以下の短文であったりするなど)に
は、第2のデータ生成部130は、そのまま第1のデータを第2のデータとして生成する
。一方で、例えば第1のデータを分割する必要があると判定した場合(例えば、予め設定
された文字数よりも長文であったりするなど)には、第2のデータ生成部130は、第1
のデータを分割し、それぞれ第1のデータの被識別情報の少なくとも一部を含む第2のデ
ータとして生成する。なお、第2のデータ生成部130による第1のデータ分割の方法は
、既知の何れの技術を利用してもよく、例えば、後述するように、第1のデータがテキス
ト化できるものであれば、第3のデータの各カットの最大文字数及び文節間の修飾関係を
解析し、文章として自然な区間が各カットに収まるように文を区切るようにしてもよい。
When the second data generation unit 130 determines, for example, that it is not necessary to divide the first data (for example, the text data is a short sentence having a preset number of characters or less), the second data generation unit 130 is used for the second data. The data generation unit 130 directly generates the first data as the second data. On the other hand, for example, when it is determined that the first data needs to be divided (for example, the sentence is longer than the preset number of characters), the second data generation unit 130 uses the first data generation unit 130.
Data is divided and generated as second data including at least a part of the identified information of the first data. The first data division method by the second data generation unit 130 may use any known technique, for example, as long as the first data can be converted into text, as will be described later. , The maximum number of characters in each cut of the third data and the modification relationship between clauses may be analyzed, and the sentences may be separated so that a natural section as a sentence fits in each cut.

被識別情報解析部120は、上述の第2のデータを解析し、被識別情報を取得する。こ
こで、被識別情報は、被識別情報解析部120により解析可能であれば、どのような情報
であってもよい。一つの態様としては、被識別情報は、言語モデルにより定義された単語
形式であり得る。より具体的には、後述の単語ベクトルを伴う一以上の単語(例えば、「
渋谷、新宿、六本木」や「渋谷、ランドマーク、若者」など)であってもよい。なお、当
該単語には、言語モデルに応じて「ん」などの通常はそれ単体では利用されない単語も含
み得る。また、上記単語形式の代わりに文全体を表すベクトルを伴う文書、または画像や
動画から抽出された特徴ベクトルであってもよい。
The identified information analysis unit 120 analyzes the above-mentioned second data and acquires the identified information. Here, the identified information may be any information as long as it can be analyzed by the identified information analysis unit 120. In one embodiment, the identified information can be in the word form defined by the language model. More specifically, one or more words with the word vector described below (eg, ""
It may be "Shibuya, Shinjuku, Roppongi" or "Shibuya, landmark, youth"). It should be noted that the word may include a word that is not normally used by itself, such as "n", depending on the language model. Further, instead of the above word format, it may be a document accompanied by a vector representing the entire sentence, or a feature vector extracted from an image or a moving image.

複合コンテンツデータ生成部140は、第3のデータ記憶部162から一以上のカット
を含む第3のデータを読み出し、素材コンテンツデータ記憶部164に記憶された素材コ
ンテンツデータと上述の第2のデータが割り当てられた第3のデータを複合コンテンツデ
ータとして生成するとともに複合コンテンツデータ記憶部166に記憶し、ユーザ端末2
に複合コンテンツデータを表示する。なお、図5は、第3のデータを構成するカットの画
面レイアウトの一例である。同図中第2のデータフィールド31に編集された第2のデー
タ(例えば、区切られたテキスト文章など)が挿入され、素材コンテンツデータフィール
ド32に選択された素材コンテンツデータが挿入される。第3のデータの各カットには、
予め設定されている上述の最大文字数(テキストデータの場合)や、画面レイアウト、再
生時間(動画の場合)が規定されている。また、複合コンテンツデータは、必ずしも複合
コンテンツデータ記憶部166に保存される必要はなく、適当なタイミングで記憶されて
もよい。また、第2のデータのみが割り当てられた第3のデータを複合コンテンツデータ
の経過情報としてユーザ端末3に表示するようにしてもよい。
The composite content data generation unit 140 reads out the third data including one or more cuts from the third data storage unit 162, and the material content data stored in the material content data storage unit 164 and the above-mentioned second data are combined. The assigned third data is generated as composite content data and stored in the composite content data storage unit 166, and the user terminal 2
Display composite content data in. Note that FIG. 5 is an example of the screen layout of the cuts constituting the third data. The edited second data (for example, a delimited text sentence) is inserted into the second data field 31 in the figure, and the selected material content data is inserted into the material content data field 32. For each cut of the third data
The preset maximum number of characters (in the case of text data), screen layout, and playback time (in the case of moving images) are specified. Further, the composite content data does not necessarily have to be stored in the composite content data storage unit 166, and may be stored at an appropriate timing. Further, the third data to which only the second data is assigned may be displayed on the user terminal 3 as progress information of the composite content data.

第2のデータ割り当て部142は、例えば複数のカットに、カット1、カット2、カッ
ト3といったように番号がふられており、この番号順に、第2のデータを順次割り当てて
いく。なお、このような割り当て方法に限定されず、例えば、第2のデータ割り当て部1
42は、第2のデータの数に合わせて、第3のデータに含まれるカット数を予め設定され
た数から増減し、第2のデータを割り当てるようにしてもよい。
The second data allocation unit 142 assigns numbers to a plurality of cuts, such as cut 1, cut 2, and cut 3, and assigns the second data in this numerical order. The allocation method is not limited to this, and for example, the second data allocation unit 1
42 may increase or decrease the number of cuts included in the third data from a preset number according to the number of the second data, and allocate the second data.

関連付け部150は、上述の第2のデータに含まれる被識別情報の少なくとも一部と、
例えば、素材コンテンツデータから抽出される抽出情報(例えば、分類器が抽出したクラ
スラベルなど)と比較し、例えば、互いの類似度などを判定して、第2のデータに適した
素材コンテンツデータ(例えば、類似度が高いものなど)と第2のデータとを互いに関連
付けを行う。より具体的な例としては、例えば、第2のデータに含まれる被識別情報が「
先生」を表し、抽出情報が「顔」である素材コンテンツデータA(例えば、女性の画像)
と「山」である素材コンテンツデータB(例えば、富士山の画像)が用意されている場合
、「先生」から得られる単語ベクトルと「顔」から得られる単語ベクトルの関連は、「先
生」から得られる単語ベクトルと「山」から得られる単語ベクトルの関連よりも類似して
いるため、第2のデータは素材コンテンツデータAと関連付けられる。なお、素材コンテ
ンツデータの抽出情報は、ユーザが予め抽出して素材コンテンツデータ記憶部164に記
憶したものであってもよく、後述の分類器170により抽出されたものであってもよい。
また、上記類似度の判定は、単語ベクトルを学習した学習済モデルを用意し、そのベクト
ルを利用してコサイン類似度やWord Mover’s Distanceなどの方法により単語の類似度を
判定してもよい。
The association unit 150 includes at least a part of the identified information included in the second data described above and the association unit 150.
For example, the material content data suitable for the second data (for example, by comparing with the extracted information extracted from the material content data (for example, the class label extracted by the classifier) and determining the similarity with each other, for example. (For example, those having a high degree of similarity) and the second data are associated with each other. As a more specific example, for example, the identified information included in the second data is ".
Material content data A that represents "teacher" and whose extracted information is "face" (for example, an image of a woman)
When material content data B (for example, an image of Mt. Fuji) that is "mountain" is prepared, the relationship between the word vector obtained from "teacher" and the word vector obtained from "face" is obtained from "teacher". The second data is associated with the material content data A because it is more similar than the association between the word vector to be obtained and the word vector obtained from the "mountain". The extraction information of the material content data may be extracted in advance by the user and stored in the material content data storage unit 164, or may be extracted by the classifier 170 described later.
Further, in the determination of the similarity, a trained model in which a word vector is learned may be prepared, and the similarity of words may be determined by a method such as cosine similarity or Word Mover's Distance using the vector.

素材コンテンツデータは、例えば、画像データや、動画データ、音データ(例えば、音
楽データ、音声データ、効果音など)などであり得るが、これに限定されない。また、素
材コンテンツデータは、ユーザまたは管理者が素材コンテンツデータ記憶部164に格納
するものであってもよいし、ネットワーク上から、素材コンテンツデータを取得し、素材
コンテンツデータ記憶部164に格納するものであってもよい。
The material content data may be, for example, image data, moving image data, sound data (for example, music data, audio data, sound effects, etc.), but is not limited thereto. Further, the material content data may be stored in the material content data storage unit 164 by the user or the administrator, or the material content data is acquired from the network and stored in the material content data storage unit 164. It may be.

素材コンテンツデータ割り当て部144は、上述の関連付けに基づき、対応する第2の
データが割り当てられたカットに、適した素材コンテンツデータを割り当てる。
The material content data allocation unit 144 allocates suitable material content data to the cut to which the corresponding second data is assigned based on the above-mentioned association.

インターフェース情報記憶部168は、管理端末2若しくはユーザ端末2の表示部(デ
ィスプレイ等)に表示するための各種制御情報を格納している。
The interface information storage unit 168 stores various control information for display on the display unit (display or the like) of the management terminal 2 or the user terminal 2.

分類器170は、学習データを学習データ記憶部(不図示)から取得し、機械学習させ
ることで、学習済モデルとして作成される。分類器170の作成は、定期的に行われる(
例えば、年に数回程度)。分類器作成用の学習データは、ネットワークから収集したデー
タやユーザ保有のデータにクラスラベルをつけたものを利用してもよいし、クラスラベル
のついたデータセットを調達して利用してもよい。そして、分類器170は、例えば、畳
み込みニューラルネットワークを利用した学習済モデルであり、素材コンテンツデータを
入力すると、1つまたは複数の抽出情報(例えば、クラスラベルなど)を抽出する。分類
器170は、例えば、素材コンテンツデータに関連するオブジェクトを表すクラスラベル
(例えば、魚介、焼肉、人物、家具)を抽出する。
The classifier 170 is created as a trained model by acquiring training data from a training data storage unit (not shown) and performing machine learning. The creation of the classifier 170 is done on a regular basis (
For example, several times a year). As the training data for creating the classifier, data collected from the network or data owned by the user with a class label may be used, or a data set with a class label may be procured and used. .. Then, the classifier 170 is, for example, a trained model using a convolutional neural network, and when material content data is input, one or a plurality of extraction information (for example, a class label) is extracted. The classifier 170 extracts, for example, class labels (eg, seafood, grilled meat, people, furniture) representing objects related to material content data.

図6は、複合コンテンツデータを作成する流れの一例を説明する図である。 FIG. 6 is a diagram illustrating an example of a flow of creating composite content data.

まず、サーバ1は、少なくとも被識別情報を含む第1のデータをユーザ端末2より通信
部110を介して受け付ける(ステップS101)。本例においては、被識別情報は、例
えば一以上の単語であり、第1のデータは、例えば一以上の単語を含む記事からなるテキ
ストデータまたはそのテキストデータを要約したものであり得る。
First, the server 1 receives the first data including at least the identified information from the user terminal 2 via the communication unit 110 (step S101). In this example, the identified information may be, for example, one or more words, and the first data may be, for example, text data consisting of an article containing one or more words or a summary of the text data.

次に、サーバ1は、複合コンテンツデータ生成部140により、一以上のカットを含む
第3のデータを第3のデータ記憶部162から読み出す(ステップS102)。本例にお
いては、第3のデータは、例えば複数のカットを含むテンプレートデータであり得る。
Next, the server 1 reads the third data including one or more cuts from the third data storage unit 162 by the composite content data generation unit 140 (step S102). In this example, the third data can be, for example, template data including a plurality of cuts.

次に、サーバ1は、被識別情報解析部120により、第1のデータを解析して被識別情
報を取得し、第2のデータ生成部130により、被識別情報の少なくとも一部を含む一以
上の第2のデータを生成する(ステップS103)。第2のデータは、第3のデータの各
カットの最大文字数及び文節間の修飾関係を解析し、文章として自然な区間が各カットに
収まるように文を区切った個々のテキストデータであり得る。
Next, the server 1 analyzes the first data by the identified information analysis unit 120 to acquire the identified information, and the second data generation unit 130 includes at least a part of the identified information. The second data of the above is generated (step S103). The second data may be individual text data in which the maximum number of characters in each cut of the third data and the modification relationship between clauses are analyzed, and the sentences are divided so that a natural section as a sentence fits in each cut.

次に、サーバ1は、第2のデータ割り当て部により、第2のデータをカットに割り当て
る(ステップS104)。なお、この状態の第3のデータをユーザ端末3にて表示をする
ようにして、経過を確認可能にしてもよい。
Next, the server 1 allocates the second data to the cut by the second data allocation unit (step S104). The progress may be confirmed by displaying the third data in this state on the user terminal 3.

次に、サーバ1は、第2のデータに含まれる被識別情報の少なくとも一部と、素材コン
テンツデータから抽出された抽出情報に基づき、関連付け部150により、素材コンテン
ツデータ記憶部164の素材コンテンツデータと第2のデータとを互いに関連付けし(ス
テップS105)、素材コンテンツデータ割り当て部144によりその素材コンテンツデ
ータをカットに割り当てる(ステップS106)。
Next, the server 1 is based on at least a part of the identified information included in the second data and the extracted information extracted from the material content data, and the association unit 150 causes the material content data of the material content data storage unit 164. And the second data are associated with each other (step S105), and the material content data is assigned to the cut by the material content data allocation unit 144 (step S106).

そして、サーバ1は、第2のデータ及び素材コンテンツデータが割り当てられた第3の
データを複合コンテンツデータとして生成するとともに複合コンテンツデータ記憶部16
6に記憶し、ユーザ端末2に複合コンテンツデータを表示する(ステップS107)。な
お、複合コンテンツデータの表示は、図7に例示するように、複合コンテンツデータを構
成する複数のカットを画面上に一覧表示することができる。各カットには、表示される素
材コンテンツデータおよび第2データと共に各カットの再生時間(秒数)の情報も表示さ
れてもよい。ユーザは、例えば、第2のデータフィールド31や対応するボタンをクリッ
クすることで、その内容を修正することができ、素材コンテンツデータフィールド32や
対応するボタンをクリックすることで素材コンテンツデータを差し替えることができる。
Then, the server 1 generates the second data and the third data to which the material content data is assigned as the composite content data, and the composite content data storage unit 16
It is stored in No. 6 and the composite content data is displayed on the user terminal 2 (step S107). As for the display of the composite content data, as illustrated in FIG. 7, a plurality of cuts constituting the composite content data can be displayed in a list on the screen. In each cut, information on the reproduction time (seconds) of each cut may be displayed together with the displayed material content data and the second data. The user can modify the content by clicking, for example, the second data field 31 or the corresponding button, and replace the material content data by clicking the material content data field 32 or the corresponding button. Can be done.

なお、上述の複合コンテンツデータを作成する流れは一例であり、例えば、第3のデー
タを読み出すためのステップS102は、第2のデータまたは素材コンテンツデータの割
り当てまでに読み出されていればいつ実行されていてもよい。また、例えば、第2のデー
タの割り当てのためのステップS104と、関連付けのためのステップS105と、素材
コンテンツデータの割り当てのためのステップS106の順番も、互いに齟齬が生じなけ
れば何れの順番で実行されてもよい。
The flow of creating the above-mentioned composite content data is an example. For example, step S102 for reading the third data is executed when the second data or the material content data has been read before being assigned. It may have been done. Further, for example, the order of step S104 for allocating the second data, step S105 for associating, and step S106 for allocating the material content data is also executed in any order as long as there is no discrepancy with each other. May be done.

(要約文作成機能)
図8〜図10を参照しながら、第1のデータがテキストデータを含むものである場合に
、サーバ1がテキストデータから要約文作成し、その要約文を含む第1のデータから第2
のデータを作成する一例について説明する。
(Summary sentence creation function)
With reference to FIGS. 8 to 10, when the first data includes text data, the server 1 creates a summary sentence from the text data, and the second data from the first data including the summary sentence is second.
An example of creating the data of is described.

STEP91:段落分割・文書分割
サーバ1は、入力されたテキストデータの文書を段落に分割し、各段落内の文書を文に
分割する。また、動画のテロップとして1シーンで表示すると長すぎて可読性を落とす文
章(例えば80文字以上)については、特定の品詞、表記等の条件を満たす箇所で、さら
に複数の文章に分割する。
STEP91: Paragraph division / document division The server 1 divides the input text data document into paragraphs and divides the document in each paragraph into sentences. Further, a sentence (for example, 80 characters or more) that is too long to be displayed in one scene as a telop of a moving image is further divided into a plurality of sentences at a place satisfying a specific part of speech, notation, and the like.

STEP92:文書の形態素解析
サーバ1は、各文を形態素解析にかけ、構文解析の最小単位となるトークンを取り出す
。図9に示すように、各トークンには品詞が付与されている。
STEP92: Document morphological analysis server 1 performs morphological analysis on each sentence and extracts a token which is the minimum unit of parsing. As shown in FIG. 9, each token is given a part of speech.

STEP93:不要語・不要段落の削除
サーバ1は、予め定義された無効な文の判定ルールより、無効と定義される文、段落を
削除する。例えば、「■」、「▼」などの特定記号から始まる行、特定記号で囲まれた段
落、URL、メールアドレス、住所・電話番号などが記載された段落を削除する。
STEP93: Deletion of unnecessary words / unnecessary paragraphs The server 1 deletes sentences and paragraphs defined as invalid from the predetermined invalid sentence determination rule. For example, delete a line starting with a specific symbol such as "■" or "▼", a paragraph surrounded by a specific symbol, a URL, an email address, an address / telephone number, or the like.

STEP94:ストップワード等の削除
サーバ1は、トークンから「に」、「から」、「これ」、「さん」などのあまり意味と
しては重要でないワード(ストップワード)や助詞などの特定品詞を削除する。
STEP94: Deletion of stop words, etc. Server 1 deletes specific part of speech such as words (stop words) and particles that are not very important, such as "ni", "kara", "kore", and "san", from the token. ..

STEP95:トークンバイグラムの作成
特定の条件(例えば、予め定義された品詞条件)を満たす複数のトークンを繋げ、トー
クンバイグラムを得る。例えば、「2014年」(名詞、固有名詞、一般)と「6月」(
名詞、固有名詞、一般)を繋げて「2014年6月」としたり、「ヴェルディ」(固有名
詞)と「協賛」(普通名詞)を繋げ、「ヴェルディ協賛」としたりする。
STEP95: Creating a token biggram A token biggram is obtained by connecting a plurality of tokens satisfying a specific condition (for example, a predefined part of speech condition). For example, "2014" (nouns, proper nouns, general) and "June" (June)
Connect nouns, proper nouns, and general) to make "June 2014", or connect "Verdi" (proper noun) and "sponsor" (common noun) to make "Verdi sponsor".

STEP96:重要文の抽出
トークンおよびトークンバイグラムを元にTF−IDFなど単語の重要度を評価する指
標から特徴語となるトークンおよびトークンバイアグラムを抽出し、前述の単語類似度判
定などからテキストのセグメンテーションを行い、各セグメントから重要文を抽出するこ
とで要約とする。
STEP96: Extraction of important sentences Extract the tokens and token viagrams that are characteristic words from the index that evaluates the importance of words such as TF-IDF based on the tokens and token assessment, and segment the text from the above-mentioned word similarity judgment. And extract important sentences from each segment to make a summary.

STEP97:テンプレートへの当てはめ
要約(重要文)を構文解析にかけ、文節と構文木に別ける。上述の第3のデータ(例え
ばテンプレートデータ)は各カットに挿入できる文字数が定義されているところ、文節間
の修飾関係から、文章として自然な区間が各テンプレートに収まるように文を区切り、第
3のデータに当てはめる。図10に、第3のデータの各カットへの文章の挿入例を示す。
以上に説明した要約文作成機能は、日本語のみならず、英語をはじめとする多言語に対応
が可能である。
STEP97: Application to template The abstract (important sentence) is parsed and separated into clauses and syntax trees. In the above-mentioned third data (for example, template data), the number of characters that can be inserted into each cut is defined, and the sentence is divided so that a natural section as a sentence fits in each template due to the modification relationship between clauses, and the third data. Apply to the data of. FIG. 10 shows an example of inserting a sentence into each cut of the third data.
The summary sentence creation function described above can support not only Japanese but also multiple languages including English.

以上に説明した実施形態例の本システムによれば、編集用ソフト、サーバ、専門技術を
持った編集者などを自前で揃えなくとも、簡単に複合コンテンツデータを作成することが
可能となる。例えば、下記のような場面での活用が想定される。
1)ECショップで販売している商品情報の動画化
2)プレスリリース情報、CSR情報などを動画で配信
3)利用方法・オペレーションフローなどのマニュアルを動画化
4)動画広告として活用できるクリエイティブを制作
According to this system of the embodiment described above, it is possible to easily create composite content data without having to prepare editing software, a server, an editor with specialized skills, and the like. For example, it is expected to be used in the following situations.
1) Video of product information sold at EC shops 2) Video distribution of press release information, CSR information, etc. 3) Video of manuals such as usage and operation flow 4) Creation of creatives that can be used as video advertisements

以上、本発明の好ましい実施形態例について説明したが、本発明の技術的範囲は上記実
施形態の記載に限定されるものではない。上記実施形態例には様々な変更・改良を加える
ことが可能であり、そのような変更または改良を加えた形態のものも本発明の技術的範囲
に含まれる。
Although the preferred embodiment of the present invention has been described above, the technical scope of the present invention is not limited to the description of the above embodiment. Various changes / improvements can be made to the above-described embodiment, and those in which such changes / improvements have been made are also included in the technical scope of the present invention.

1 サーバ
2 管理者端末
3 ユーザ端末

1 Server 2 Administrator terminal 3 User terminal

Claims (6)

少なくとも被識別情報を含む第1のテキストデータから一以上の第2のテキストデータを生成する第2のテキストデータ生成部と、
前記第2のテキストデータに含まれる前記被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき、前記第2のテキストデータと、前記素材コンテンツデータとを関連付ける関連付け部と、
前記関連付けに基づき、1つ以上のカットを含む第3のデータのカットに前記第2のテキストデータ及び前記素材コンテンツデータを割り当てるデータ割り当て部と、
を備え、
さらに、要約文作成機能を有し、
前記第1のテキストデータは、当該要約文作成機能により、ユーザから入力されたテキストデータから生成された要約テキストデータであり、
前記第1のテキストデータは、HTML形式データを含まず、
前記カットには、前記第2のテキストデータの割り当てのための被識別情報が付されていない、
ことを特徴とするサーバ。
A second text data generator that generates one or more second text data from the first text data that includes at least the identified information, and
And at least a part of the object identification information included in the second text data, and the associating unit for associating on the basis of the extracted information extracted from the material content data, and the second text data, and the material content data,
A data allocation unit that allocates the second text data and the material content data to a third data cut including one or more cuts based on the association.
With
In addition, it has a summary sentence creation function.
The first text data is summary text data generated from text data input by the user by the summary sentence creation function.
The first text data does not include HTML format data and does not include HTML format data.
The cut is not attached with the identified information for the allocation of the second text data.
A server that features that.
素材コンテンツデータは、画像データ、動画データ、音データの少なくともいずれか1つである、
ことを特徴とする請求項1に記載のサーバ。
The material content data is at least one of image data, moving image data, and sound data.
The server according to claim 1.
前記関連付け部は、前記第2のテキストデータに含まれる被識別情報の少なくとも一部と、前記素材コンテンツデータから抽出された抽出情報とを比較し、互いの類似度を判定して、前記第2のテキストデータに適した素材コンテンツデータと前記第2のテキストデータとを互いに関連付けを行う、
ことを特徴とする請求項1または2に記載のサーバ。
The association unit compares at least a part of the identified information included in the second text data with the extracted information extracted from the material content data, determines the degree of similarity to each other, and determines the degree of similarity to each other. The material content data suitable for the text data of the above and the second text data are associated with each other.
The server according to claim 1 or 2.
前記素材コンテンツデータは、ネットワーク上から取得されて、素材コンテンツデータ記憶部に格納される、
ことを特徴とする請求項1ないし3のいずれかに記載のサーバ。
The material content data is acquired from the network and stored in the material content data storage unit.
The server according to any one of claims 1 to 3.
少なくとも被識別情報を含む第1のテキストデータから一以上の第2のテキストデータを生成するステップと、
前記第2のテキストデータに含まれる前記被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき、前記第2のテキストデータと、前記素材コンテンツデータとを関連付けるステップと、
前記関連付けに基づき、1つ以上のカットを含む第3のデータのカットに前記第2のテキストデータ及び前記素材コンテンツデータを割り当てるステップと、
をコンピュータに実行させる情報処理方法であって、
さらに、要約文作成ステップを含み、
前記第1のテキストデータは、当該要約文作成ステップにより、ユーザから入力されたテキストデータから生成された要約テキストデータであり、
前記第1のテキストデータは、HTML形式データを含まず、
前記カットには、前記第2のテキストデータの割り当てのための被識別情報が付されていない、
ことを特徴とする情報処理方法。
A step of generating one or more second text data from the first text data containing at least the identified information, and
Associating at least a portion of the object identification information included in the second text data, based on the extracted information extracted from the material content data, and the second text data, and the material content data,
A step of allocating the second text data and the material content data to a third data cut including one or more cuts based on the association.
Is an information processing method that causes a computer to execute
In addition, it includes a summary writing step
The first text data is summary text data generated from the text data input by the user by the summary sentence creation step.
The first text data does not include HTML format data and does not include HTML format data.
The cut is not attached with the identified information for the allocation of the second text data.
An information processing method characterized by the fact that.
少なくとも被識別情報を含む第1のテキストデータから一以上の第2のテキストデータを生成するステップと、
前記第2のテキストデータに含まれる前記被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき、前記第2のテキストデータと、前記素材コンテンツデータとを関連付けるステップと、
前記関連付けに基づき、1つ以上のカットを含む第3のデータのカットに前記第2のテキストデータ及び前記素材コンテンツデータを割り当てるステップと、
をコンピュータに実行させるプログラムであって、
さらに、要約文作成ステップを含み、
前記第1のテキストデータは、当該要約文作成ステップにより、ユーザから入力されたテキストデータから生成された要約テキストデータであり、
前記第1のテキストデータは、HTML形式データを含まず、
前記カットには、前記第2のテキストデータの割り当てのための被識別情報が付されていない、
ことを特徴とするプログラム。
A step of generating one or more second text data from the first text data containing at least the identified information, and
Associating at least a portion of the object identification information included in the second text data, based on the extracted information extracted from the material content data, and the second text data, and the material content data,
A step of allocating the second text data and the material content data to a third data cut including one or more cuts based on the association.
Is a program that causes a computer to execute
In addition, it includes a summary writing step
The first text data is summary text data generated from the text data input by the user by the summary sentence creation step.
The first text data does not include HTML format data and does not include HTML format data.
The cut is not attached with the identified information for the allocation of the second text data.
A program characterized by that.
JP2021051064A 2019-11-25 2021-03-25 Server and data allocation method Active JP6903364B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021051064A JP6903364B1 (en) 2019-11-25 2021-03-25 Server and data allocation method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020555080A JP6863648B1 (en) 2019-11-25 2019-11-25 Server and data allocation method
PCT/JP2019/046027 WO2021106051A1 (en) 2019-11-25 2019-11-25 Server and data allocating method
JP2021050999A JP2021097417A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051064A JP6903364B1 (en) 2019-11-25 2021-03-25 Server and data allocation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021050999A Division JP2021097417A (en) 2019-11-25 2021-03-25 Server and data allocation method

Publications (2)

Publication Number Publication Date
JP6903364B1 true JP6903364B1 (en) 2021-07-14
JP2022061934A JP2022061934A (en) 2022-04-19

Family

ID=75520990

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2020555080A Active JP6863648B1 (en) 2019-11-25 2019-11-25 Server and data allocation method
JP2021051066A Active JP6903365B1 (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051063A Pending JP2021106397A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051064A Active JP6903364B1 (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021050999A Pending JP2021097417A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051065A Pending JP2021106398A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051062A Pending JP2021119662A (en) 2019-11-25 2021-03-25 Server and data allocation method

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2020555080A Active JP6863648B1 (en) 2019-11-25 2019-11-25 Server and data allocation method
JP2021051066A Active JP6903365B1 (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051063A Pending JP2021106397A (en) 2019-11-25 2021-03-25 Server and data allocation method

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021050999A Pending JP2021097417A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051065A Pending JP2021106398A (en) 2019-11-25 2021-03-25 Server and data allocation method
JP2021051062A Pending JP2021119662A (en) 2019-11-25 2021-03-25 Server and data allocation method

Country Status (2)

Country Link
JP (7) JP6863648B1 (en)
WO (1) WO2021106051A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7030296B1 (en) * 2021-05-26 2022-03-07 株式会社エス・ケイ通信 Programs, methods, information processing equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4865469B2 (en) * 2006-09-20 2012-02-01 日本放送協会 Content production server, content presentation device, content production program, and content presentation program
JP5801104B2 (en) * 2011-06-06 2015-10-28 アビックス株式会社 Automatic production of short video works based on HTML documents
JP6141167B2 (en) * 2013-10-21 2017-06-07 東芝テック株式会社 Content creation apparatus and program
EP2869546B1 (en) * 2013-10-31 2018-12-26 Alcatel Lucent Method and system for providing access to auxiliary information
JP6621054B2 (en) * 2016-06-27 2019-12-18 ブラザー工業株式会社 Tape printer and talk data processing program
JP7009840B2 (en) * 2017-08-30 2022-01-26 富士通株式会社 Information processing equipment, information processing method and dialogue control system
JP6485977B2 (en) * 2017-12-25 2019-03-20 株式会社フェイス Subtitle production apparatus and subtitle production method
JP2019193023A (en) * 2018-04-20 2019-10-31 Jcc株式会社 Desired video information notification system
JP6603925B1 (en) * 2018-06-22 2019-11-13 株式会社オープンエイト Movie editing server and program

Also Published As

Publication number Publication date
JP2021106397A (en) 2021-07-26
JP2021119662A (en) 2021-08-12
JP2021097417A (en) 2021-06-24
JP2022061934A (en) 2022-04-19
JP6903365B1 (en) 2021-07-14
JP2022061935A (en) 2022-04-19
JP2021106398A (en) 2021-07-26
JPWO2021106051A1 (en) 2021-12-02
WO2021106051A1 (en) 2021-06-03
JP6863648B1 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
US6334104B1 (en) Sound effects affixing system and sound effects affixing method
US8548243B2 (en) Information processing device, information processing method, and program
JP2020005309A (en) Moving image editing server and program
JP2013072957A (en) Document read-aloud support device, method and program
JP6730757B2 (en) Server and program, video distribution system
WO2019245033A1 (en) Moving image editing server and program
JP6903364B1 (en) Server and data allocation method
US10691871B2 (en) Devices, methods, and systems to convert standard-text to animated-text and multimedia
JP6730760B2 (en) Server and program, video distribution system
JP6603929B1 (en) Movie editing server and program
JP6713183B1 (en) Servers and programs
WO2021153403A1 (en) Text information editing device and text information editing method
KR102368823B1 (en) Apparatus and method for serving social content based on news articles
WO2022003798A1 (en) Server, composite content data creation system, composite content data creation method, and program
WO2022201515A1 (en) Server, animation recommendation system, animation recommendation method, and program
JP6710884B2 (en) Servers and programs
JP2020129357A (en) Moving image editing server and program
US10606940B2 (en) Annotation sharing method, annotation sharing apparatus, and computer program product
TWM650984U (en) Presentation automatic generation device
KR20210136609A (en) Apparatus and method for generating image news contents
JP2021067922A (en) Content editing support method and system based on real time generation of synthetic sound for video content
JP2009086597A (en) Text-to-speech conversion service system and method
Abrudan Caciora et al. THE USE OF ENGLISH-LOAN WORDS IN THE INFORMATION TECHNOLOGY DOMAIN.
Golomb Dipping a Toe into the DH Waters
JP2016027415A (en) Document reading support device, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210616

R150 Certificate of patent or registration of utility model

Ref document number: 6903364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531