JP2021106397A - Server and data allocation method - Google Patents
Server and data allocation method Download PDFInfo
- Publication number
- JP2021106397A JP2021106397A JP2021051063A JP2021051063A JP2021106397A JP 2021106397 A JP2021106397 A JP 2021106397A JP 2021051063 A JP2021051063 A JP 2021051063A JP 2021051063 A JP2021051063 A JP 2021051063A JP 2021106397 A JP2021106397 A JP 2021106397A
- Authority
- JP
- Japan
- Prior art keywords
- data
- material content
- content data
- server
- identified information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 239000000463 material Substances 0.000 claims abstract description 70
- 238000013500 data storage Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 abstract description 31
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 101100008044 Caenorhabditis elegans cut-1 gene Proteins 0.000 description 1
- 101100008046 Caenorhabditis elegans cut-2 gene Proteins 0.000 description 1
- 101100008047 Caenorhabditis elegans cut-3 gene Proteins 0.000 description 1
- 241000102542 Kara Species 0.000 description 1
- 235000010724 Wisteria floribunda Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 235000014102 seafood Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
本発明は、複合コンテンツデータを生成するサーバおよびデータ割り当て方法に関する
。
The present invention relates to a server that generates composite content data and a data allocation method.
従来から、動画等コンテンツデータ作成が行われており、例えば、特許文献1には、複
数のチャプタを有する動画から所望のシーン画像を効率的に検索する動画処理装置が提案
されている。
Conventionally, content data such as moving images has been created. For example,
動画等コンテンツデータを作成することには多大な手間がかかり、特に、テキストデー
タや画像、音データなどの複数の素材コンテンツデータが用いられた複合コンテンツデー
タを作成する場合には、最適な組み合わせを考慮することがユーザの技術レベルによって
は難しいため、簡便に複合コンテンツデータを作成することができる装置の提供が求めら
れていた。
Creating content data such as moving images takes a lot of time and effort, and in particular, when creating composite content data using multiple material content data such as text data, images, and sound data, the optimum combination is used. Since it is difficult to take this into consideration depending on the technical level of the user, it has been required to provide a device that can easily create composite content data.
そこで、本発明では、複合コンテンツデータを簡便に作成することを可能とするサーバ
およびプログラムを提供することを目的とする。
Therefore, an object of the present invention is to provide a server and a program that enable easy creation of composite content data.
上記課題を解決するための本発明の主たる発明は、少なくとも被識別情報を含む第1の
データの入力を受け付け、前記被識別情報の少なくとも一部を含む一以上の第2のデータ
を生成する第2のデータ生成部と、1つ以上のカットを含む第3のデータの前記カットに
前記第2のデータを割り当てる第2のデータ割り当て部と、前記第2のデータに含まれる
被識別情報の少なくとも一部と、素材コンテンツデータから抽出された抽出情報に基づき
、前記第2のデータと、前記素材コンテンツデータとを関連付ける関連付け部と、前記関
連付けに基づき、前記カットに前記素材コンテンツデータを割り当てる素材コンテンツデ
ータ割り当て部と、を備えることを特徴とするサーバ、である。
The main invention of the present invention for solving the above problems is a first method of accepting input of first data including at least the identified information and generating one or more second data including at least a part of the identified information. At least the second data generation unit, the second data allocation unit that allocates the second data to the cut of the third data including one or more cuts, and the identified information included in the second data. Based on a part and the extracted information extracted from the material content data, the association unit that associates the second data with the material content data, and the material content that allocates the material content data to the cut based on the association. It is a server characterized by including a data allocation unit.
本発明によれば、複合コンテンツデータを簡便に作成することを可能とするサーバおよ
びデータ割り当て方法を提供することが可能となる。
According to the present invention, it is possible to provide a server and a data allocation method that enable easy creation of composite content data.
本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるサーバ及びデ
ータ割り当て方法は、以下のような構成を備える。
[項目1]
少なくとも被識別情報を含む第1のデータの入力を受け付け、前記被識別情報の少なく
とも一部を含む一以上の第2のデータを生成する第2のデータ生成部と、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てる第
2のデータ割り当て部と、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータか
ら抽出された抽出情報に基づき、前記第2のデータと、前記素材コンテンツデータとを関
連付ける関連付け部と、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てる素材コン
テンツデータ割り当て部と、
を備えることを特徴とするサーバ。
[項目2]
前記被識別情報は、言語モデルにより定義された単語形式または文全体を表すベクトル
である、
ことを特徴とする項目1に記載のサーバ。
[項目3]
前記第1のデータは、前記被識別情報を含むテキストデータ、前記被識別情報を含む画
像データ若しくは動画データ、前記被識別情報を含む音声データの少なくともいずれか1
つである、
ことを特徴とする項目1または2に記載のサーバ。
[項目4]
前記第2のデータは、前記第3のデータの各カットの最大文字数及び前記第1のデータ
の文節間の修飾関係を解析し、文章として自然な区間が各カットに収まるように文を区切
られたものである、
ことを特徴とする項目1ないし3に記載のサーバ。
[項目5]
素材コンテンツデータは、画像データ、動画データ、音データの少なくともいずれか1
つである、
ことを特徴とする項目1ないし4に記載のサーバ。
[項目6]
前記関連付け部は、前記第2のデータに含まれる被識別情報の少なくとも一部と、前記
素材コンテンツデータから抽出された抽出情報とを比較し、互いの類似度を判定して、前
記第2のデータに適した素材コンテンツデータと前記第2のデータとを互いに関連付けを
行う、
ことを特徴とする項目1ないし5に記載のサーバ。
[項目7]
学習データを用いて機械学習を行った学習済モデルであり、前記素材コンテンツデータ
の前記抽出情報を抽出する分類器を備え、
前記抽出情報は、前記分類器が出力したクラスラベルである、
ことを特徴とする項目6に記載のサーバ。
[項目8]
前記サーバは、さらに、前記第1のデータに含まれる文章情報を要約する機能を有し、
前記第2のデータ生成部は、前記要約から第2のデータを生成する、
ことを特徴とする項目1ないし7のいずれかに記載のサーバ。
[項目9]
前記素材コンテンツデータは、ネットワーク上から取得されて、素材コンテンツデータ
記憶部に格納される、
ことを特徴とする項目1ないし8のいずれかに記載のサーバ。
[項目10]
少なくとも被識別情報を含む第1のデータの入力を受け付け、前記被識別情報の少なく
とも一部を含む一以上の第2のデータを生成するステップと、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てるス
テップと、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータに
基づき、前記第2のデータと、前記素材コンテンツデータとを関連付けるステップと、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てるステップ
と、を含む、
ことを特徴とするデータ割り当て方法。
The contents of the embodiments of the present invention will be described in a list. The server and the data allocation method according to the embodiment of the present invention have the following configurations.
[Item 1]
A second data generation unit that accepts input of first data including at least the identified information and generates one or more second data including at least a part of the identified information.
A second data allocation unit that allocates the second data to the cut of the third data including one or more cuts, and a second data allocation unit.
An association unit that associates the second data with the material content data based on at least a part of the identified information included in the second data and the extracted information extracted from the material content data.
Based on the association, the material content data allocation unit that allocates the material content data to the cut, and
A server characterized by being equipped with.
[Item 2]
The identified information is a vector representing a word form or an entire sentence defined by a language model.
The server according to
[Item 3]
The first data is at least one of text data including the identified information, image data or moving image data including the identified information, and audio data including the identified information.
One,
The server according to
[Item 4]
The second data analyzes the maximum number of characters in each cut of the third data and the modification relationship between the clauses of the first data, and divides the sentence so that a natural section as a sentence fits in each cut. It is
The server according to
[Item 5]
The material content data is at least one of image data, video data, and sound data.
One,
The server according to
[Item 6]
The associating unit compares at least a part of the identified information included in the second data with the extracted information extracted from the material content data, determines the degree of similarity to each other, and determines the degree of similarity to each other. The material content data suitable for the data and the second data are associated with each other.
The server according to
[Item 7]
It is a trained model in which machine learning is performed using the training data, and is provided with a classifier that extracts the extracted information of the material content data.
The extracted information is a class label output by the classifier.
The server according to
[Item 8]
The server further has a function of summarizing text information contained in the first data.
The second data generation unit generates the second data from the summary.
The server according to any one of
[Item 9]
The material content data is acquired from the network and stored in the material content data storage unit.
The server according to any one of
[Item 10]
A step of accepting input of first data including at least the identified information and generating one or more second data including at least a part of the identified information.
A step of assigning the second data to the cut of the third data including one or more cuts,
A step of associating the second data with the material content data based on at least a part of the identified information included in the second data and the material content data.
Including a step of assigning the material content data to the cut based on the association.
A data allocation method characterized by that.
<実施の形態の詳細>
以下、本発明の実施の形態による複合コンテンツデータを作成するためのシステム(以
下「本システム」という)等について説明する。添付図面において、同一または類似の要
素には同一または類似の参照符号及び名称が付され、各実施形態の説明において同一また
は類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される
特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。
<Details of the embodiment>
Hereinafter, a system for creating composite content data according to an embodiment of the present invention (hereinafter referred to as “the present system”) and the like will be described. In the accompanying drawings, the same or similar elements are given the same or similar reference numerals and names, and duplicate description of the same or similar elements may be omitted in the description of each embodiment. In addition, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other.
<構成>
実施形態例に係る本システムは、図1に示すように、サーバ1と、管理者端末2と、ユ
ーザ端末3とを備えて構成される。サーバ1と、管理者端末2と、ユーザ端末3は、ネッ
トワークを介して互いに通信可能に接続されている。ネットワークは、ローカルネットワ
ークであってもよいし、外部ネットワークに接続可能なものであってもよい。図1の例で
は、サーバ1を1台で構成する例を説明しているが、複数台のサーバ装置によりサーバ1
を実現することも可能である。また、サーバ1と管理者端末2が共通化されていてもよい
。
<Structure>
As shown in FIG. 1, the system according to the embodiment is configured to include a
It is also possible to realize. Further, the
<サーバ1>
図2は、図1に記載のサーバ1のハードウェア構成を示す図である。なお、図示された
構成は一例であり、これ以外の構成を有していてもよい。また、サーバ1は、例えばワー
クステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或
いはクラウド・コンピューティングによって論理的に実現されてもよい。
<
FIG. 2 is a diagram showing a hardware configuration of the
サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部1
3、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The
3. Input / output units 14 and the like are provided, and these are electrically connected to each other through a bus 15.
プロセッサ10は、サーバ1全体の動作を制御し、各要素間におけるデータの送受信の
制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置であ
る。例えばプロセッサ10はCPU(Central Processing Unit
)およびGPU(Graphics Processing Unit)であり、ストレ
ージ12に格納されメモリ11に展開された本システムのためのプログラム等を実行して
各情報処理を実施する。なお、プロセッサ10の処理能力は、必要な情報処理を実行する
ために十分であればよいので、例えば、プロセッサ10はCPUのみで構成されていても
よいし、これに限るものでもない。
The processor 10 is an arithmetic unit that controls the operation of the
) And GPU (Graphics Processing Unit), and execute each information processing by executing a program or the like for this system stored in the storage 12 and expanded in the memory 11. The processing capacity of the processor 10 may be sufficient to execute necessary information processing. Therefore, for example, the processor 10 may be composed of only a CPU, and is not limited to this.
メモリ11は、DRAM(Dynamic Random Access Memor
y)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard
Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ
11は、プロセッサ10のワークエリア等として使用され、また、サーバ1の起動時に実
行されるBIOS(Basic Input / Output System)、及び
各種設定情報等を格納してもよい。
The memory 11 is a DRAM (Dynamic Random Access Memory).
Main memory composed of volatile storage devices such as y), flash memory and HDD (Hard)
Includes auxiliary storage configured with a non-volatile storage device such as Disc Drive). The memory 11 may be used as a work area of the processor 10 or the like, and may store a BIOS (Basic Input / Output System) executed when the
ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各
処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよ
い。
The storage 12 stores various programs such as application programs. A database storing data used for each process may be built in the storage 12.
送受信部13は、サーバ1をネットワークに接続する。
The transmission / reception unit 13 connects the
入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力
機器である。
The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display.
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各
種制御信号を伝達する。
The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.
<管理者端末2、ユーザ端末3>
図3に示される管理者端末2、ユーザ端末3もまた、プロセッサ20、メモリ21、ス
トレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に
電気的に接続される。各要素の機能は、上述したサーバ1と同様に構成することが可能で
あることから、各要素の詳細な説明は省略する。管理者は、管理者端末2により、例えば
サーバ1の設定変更やデータベースの運用管理などを行う。ユーザは、ユーザ端末3によ
りサーバ1にアクセスして、例えば、作成された複合コンテンツデータを閲覧することな
どができる。
<Administrator terminal 2,
The administrator terminal 2 and the
<サーバ1の機能>
図4は、サーバ1に実装される機能を例示したブロック図である。本実施の形態におい
ては、サーバ1は、通信部110、被識別情報解析部120、第2のデータ生成部130
、複合コンテンツデータ生成部140、関連付け部150、記憶部160、分類器170
を備えている。複合コンテンツデータ生成部140は、第2のデータ割り当て部142、
素材コンテンツデータ割り当て部144を含む。また、記憶部160は、第3のデータ記
憶部162、素材コンテンツデータ記憶部164、複合コンテンツデータ記憶部166、
インターフェース情報記憶部168などの各種データベースを含む。
<Function of
FIG. 4 is a block diagram illustrating the functions implemented in the
, Composite content data generation unit 140, association unit 150, storage unit 160, classifier 170
It has. The composite content data generation unit 140 is the second data allocation unit 142,
The material content data allocation unit 144 is included. Further, the storage unit 160 includes a third
Includes various databases such as the interface
通信部110は、管理端末2や、ユーザ端末3と通信を行う。通信部110は、ユーザ
端末2から、少なくとも被識別情報を含む第1のデータを受け付ける受付部としても機能
する。そして、第1のデータは、例えば、被識別情報を含む記事(例えば、プレスリリー
スや、ニュースなど)などのテキストデータ、被識別情報を含む画像データ(例えば、写
真や、イラストなど)若しくは動画データ、被識別情報を含む音声データなどであっても
よい。なお、ここでいうテキストデータは、サーバ1に送信された時点においてテキスト
データであるものに限らず、例えば、サーバ1に送信された音声データを既知の音声認識
技術により生成されたテキストデータであってもよい。また、第1のデータは、例えば記
事などのテキストデータなどが、既存の抽出的要約若しくは生成的要約などの自動要約技
術により要約されたもの(被識別情報を含む)であってもよく、その場合、第3のデータ
に含まれるカット数が減り、複合コンテンツデータ全体のデータ容量を小さくすることが
でき、内容も簡潔なものとなり得る。
The communication unit 110 communicates with the management terminal 2 and the
また、ここでいう音声データは、動画データから音声認識により抽出された音声データ
や、テキストデータから生成された音声データであってもよい。前者の場合、例えばラフ
スケッチなどの仮画像及び仮映像による動画といった仮動画から、ナレーションやセリフ
などの音声データだけを抽出し、後述されるように当該音声データを基に素材コンテンツ
データと共に複合コンテンツデータを生成するようにしてもよい。後者の場合、例えば、
ストーリーのあるテキストデータから音声データを作成し、例えば童話であれば、読み上
げられたストーリーと素材コンテンツデータによる紙芝居や動画を複合コンテンツデータ
として生成するようにしてもよい。
Further, the voice data referred to here may be voice data extracted from moving image data by voice recognition or voice data generated from text data. In the former case, only audio data such as narration and dialogue is extracted from the temporary video such as a temporary image such as a rough sketch and a video based on the temporary video, and as will be described later, the composite content is combined with the material content data based on the audio data. Data may be generated. In the latter case, for example
Audio data may be created from text data with a story, and in the case of a fairy tale, for example, a picture-story show or a moving image based on the story read aloud and the material content data may be generated as composite content data.
第2のデータ生成部130は、例えば第1のデータを分割する必要がないと判定した場
合(例えば、テキストデータが予め設定された文字数以下の短文であったりするなど)に
は、第2のデータ生成部130は、そのまま第1のデータを第2のデータとして生成する
。一方で、例えば第1のデータを分割する必要があると判定した場合(例えば、予め設定
された文字数よりも長文であったりするなど)には、第2のデータ生成部130は、第1
のデータを分割し、それぞれ第1のデータの被識別情報の少なくとも一部を含む第2のデ
ータとして生成する。なお、第2のデータ生成部130による第1のデータ分割の方法は
、既知の何れの技術を利用してもよく、例えば、後述するように、第1のデータがテキス
ト化できるものであれば、第3のデータの各カットの最大文字数及び文節間の修飾関係を
解析し、文章として自然な区間が各カットに収まるように文を区切るようにしてもよい。
When the second data generation unit 130 determines that it is not necessary to divide the first data (for example, the text data is a short sentence having a preset number of characters or less), the second data generation unit 130 is used for the second data. The data generation unit 130 directly generates the first data as the second data. On the other hand, for example, when it is determined that the first data needs to be divided (for example, the sentence is longer than the preset number of characters), the second data generation unit 130 uses the first data generation unit 130.
Data is divided and generated as second data including at least a part of the identified information of the first data. The first data division method by the second data generation unit 130 may use any known technique, for example, as long as the first data can be converted into text, as will be described later. , The maximum number of characters in each cut of the third data and the modification relationship between clauses may be analyzed, and the sentences may be separated so that a natural section as a sentence fits in each cut.
被識別情報解析部120は、上述の第2のデータを解析し、被識別情報を取得する。こ
こで、被識別情報は、被識別情報解析部120により解析可能であれば、どのような情報
であってもよい。一つの態様としては、被識別情報は、言語モデルにより定義された単語
形式であり得る。より具体的には、後述の単語ベクトルを伴う一以上の単語(例えば、「
渋谷、新宿、六本木」や「渋谷、ランドマーク、若者」など)であってもよい。なお、当
該単語には、言語モデルに応じて「ん」などの通常はそれ単体では利用されない単語も含
み得る。また、上記単語形式の代わりに文全体を表すベクトルを伴う文書、または画像や
動画から抽出された特徴ベクトルであってもよい。
The identified information analysis unit 120 analyzes the above-mentioned second data and acquires the identified information. Here, the identified information may be any information as long as it can be analyzed by the identified information analysis unit 120. In one embodiment, the identified information can be in the word form defined by the language model. More specifically, one or more words with the word vector described below (eg, ""
It may be "Shibuya, Shinjuku, Roppongi" or "Shibuya, landmark, youth"). It should be noted that the word may include a word that is not normally used by itself, such as "n", depending on the language model. Further, instead of the above word format, it may be a document accompanied by a vector representing the entire sentence, or a feature vector extracted from an image or a moving image.
複合コンテンツデータ生成部140は、第3のデータ記憶部162から一以上のカット
を含む第3のデータを読み出し、素材コンテンツデータ記憶部164に記憶された素材コ
ンテンツデータと上述の第2のデータが割り当てられた第3のデータを複合コンテンツデ
ータとして生成するとともに複合コンテンツデータ記憶部166に記憶し、ユーザ端末2
に複合コンテンツデータを表示する。なお、図5は、第3のデータを構成するカットの画
面レイアウトの一例である。同図中第2のデータフィールド31に編集された第2のデー
タ(例えば、区切られたテキスト文章など)が挿入され、素材コンテンツデータフィール
ド32に選択された素材コンテンツデータが挿入される。第3のデータの各カットには、
予め設定されている上述の最大文字数(テキストデータの場合)や、画面レイアウト、再
生時間(動画の場合)が規定されている。また、複合コンテンツデータは、必ずしも複合
コンテンツデータ記憶部166に保存される必要はなく、適当なタイミングで記憶されて
もよい。また、第2のデータのみが割り当てられた第3のデータを複合コンテンツデータ
の経過情報としてユーザ端末3に表示するようにしてもよい。
The composite content data generation unit 140 reads out the third data including one or more cuts from the third
Display composite content data in. Note that FIG. 5 is an example of the screen layout of the cuts constituting the third data. The edited second data (for example, a delimited text sentence) is inserted into the second data field 31 in the figure, and the selected material content data is inserted into the material
The preset maximum number of characters (in the case of text data), screen layout, and playback time (in the case of moving images) are specified. Further, the composite content data does not necessarily have to be stored in the composite content data storage unit 166, and may be stored at an appropriate timing. Further, the third data to which only the second data is assigned may be displayed on the
第2のデータ割り当て部142は、例えば複数のカットに、カット1、カット2、カッ
ト3といったように番号がふられており、この番号順に、第2のデータを順次割り当てて
いく。なお、このような割り当て方法に限定されず、例えば、第2のデータ割り当て部1
42は、第2のデータの数に合わせて、第3のデータに含まれるカット数を予め設定され
た数から増減し、第2のデータを割り当てるようにしてもよい。
The second data allocation unit 142 assigns numbers to a plurality of cuts, such as
42 may increase or decrease the number of cuts included in the third data from a preset number according to the number of the second data, and allocate the second data.
関連付け部150は、上述の第2のデータに含まれる被識別情報の少なくとも一部と、
例えば、素材コンテンツデータから抽出される抽出情報(例えば、分類器が抽出したクラ
スラベルなど)と比較し、例えば、互いの類似度などを判定して、第2のデータに適した
素材コンテンツデータ(例えば、類似度が高いものなど)と第2のデータとを互いに関連
付けを行う。より具体的な例としては、例えば、第2のデータに含まれる被識別情報が「
先生」を表し、抽出情報が「顔」である素材コンテンツデータA(例えば、女性の画像)
と「山」である素材コンテンツデータB(例えば、富士山の画像)が用意されている場合
、「先生」から得られる単語ベクトルと「顔」から得られる単語ベクトルの関連は、「先
生」から得られる単語ベクトルと「山」から得られる単語ベクトルの関連よりも類似して
いるため、第2のデータは素材コンテンツデータAと関連付けられる。なお、素材コンテ
ンツデータの抽出情報は、ユーザが予め抽出して素材コンテンツデータ記憶部164に記
憶したものであってもよく、後述の分類器170により抽出されたものであってもよい。
また、上記類似度の判定は、単語ベクトルを学習した学習済モデルを用意し、そのベクト
ルを利用してコサイン類似度やWord Mover’s Distanceなどの方法により単語の類似度を
判定してもよい。
The association unit 150 includes at least a part of the identified information included in the second data described above and the association unit 150.
For example, the material content data suitable for the second data (for example, by comparing with the extracted information extracted from the material content data (for example, the class label extracted by the classifier) and determining the similarity with each other, for example. (For example, those having a high degree of similarity) and the second data are associated with each other. As a more specific example, for example, the identified information included in the second data is ".
Material content data A that represents "teacher" and whose extracted information is "face" (for example, an image of a woman)
When the material content data B (for example, an image of Mt. Fuji) that is "mountain" is prepared, the relationship between the word vector obtained from "teacher" and the word vector obtained from "face" is obtained from "teacher". The second data is associated with the material content data A because it is more similar than the association between the word vector to be obtained and the word vector obtained from the "mountain". The extraction information of the material content data may be extracted in advance by the user and stored in the material content data storage unit 164, or may be extracted by the classifier 170 described later.
Further, in the determination of the similarity, a trained model in which a word vector is learned may be prepared, and the similarity of words may be determined by a method such as cosine similarity or Word Mover's Distance using the vector.
素材コンテンツデータは、例えば、画像データや、動画データ、音データ(例えば、音
楽データ、音声データ、効果音など)などであり得るが、これに限定されない。また、素
材コンテンツデータは、ユーザまたは管理者が素材コンテンツデータ記憶部164に格納
するものであってもよいし、ネットワーク上から、素材コンテンツデータを取得し、素材
コンテンツデータ記憶部164に格納するものであってもよい。
The material content data may be, for example, image data, moving image data, sound data (for example, music data, audio data, sound effects, etc.), but is not limited thereto. Further, the material content data may be stored in the material content data storage unit 164 by the user or the administrator, or the material content data is acquired from the network and stored in the material content data storage unit 164. It may be.
素材コンテンツデータ割り当て部144は、上述の関連付けに基づき、対応する第2の
データが割り当てられたカットに、適した素材コンテンツデータを割り当てる。
The material content data allocation unit 144 allocates suitable material content data to the cut to which the corresponding second data is assigned based on the above-mentioned association.
インターフェース情報記憶部168は、管理端末2若しくはユーザ端末2の表示部(デ
ィスプレイ等)に表示するための各種制御情報を格納している。
The interface
分類器170は、学習データを学習データ記憶部(不図示)から取得し、機械学習させ
ることで、学習済モデルとして作成される。分類器170の作成は、定期的に行われる(
例えば、年に数回程度)。分類器作成用の学習データは、ネットワークから収集したデー
タやユーザ保有のデータにクラスラベルをつけたものを利用してもよいし、クラスラベル
のついたデータセットを調達して利用してもよい。そして、分類器170は、例えば、畳
み込みニューラルネットワークを利用した学習済モデルであり、素材コンテンツデータを
入力すると、1つまたは複数の抽出情報(例えば、クラスラベルなど)を抽出する。分類
器170は、例えば、素材コンテンツデータに関連するオブジェクトを表すクラスラベル
(例えば、魚介、焼肉、人物、家具)を抽出する。
The classifier 170 is created as a trained model by acquiring training data from a training data storage unit (not shown) and performing machine learning. The creation of the classifier 170 is done on a regular basis (
For example, several times a year). As the training data for creating the classifier, data collected from the network or data owned by the user with a class label may be used, or a data set with a class label may be procured and used. .. Then, the classifier 170 is, for example, a trained model using a convolutional neural network, and when material content data is input, one or a plurality of extraction information (for example, a class label) is extracted. The classifier 170 extracts, for example, class labels (eg, seafood, grilled meat, people, furniture) representing objects related to material content data.
図6は、複合コンテンツデータを作成する流れの一例を説明する図である。 FIG. 6 is a diagram illustrating an example of a flow of creating composite content data.
まず、サーバ1は、少なくとも被識別情報を含む第1のデータをユーザ端末2より通信
部110を介して受け付ける(ステップS101)。本例においては、被識別情報は、例
えば一以上の単語であり、第1のデータは、例えば一以上の単語を含む記事からなるテキ
ストデータまたはそのテキストデータを要約したものであり得る。
First, the
次に、サーバ1は、複合コンテンツデータ生成部140により、一以上のカットを含む
第3のデータを第3のデータ記憶部162から読み出す(ステップS102)。本例にお
いては、第3のデータは、例えば複数のカットを含むテンプレートデータであり得る。
Next, the
次に、サーバ1は、被識別情報解析部120により、第1のデータを解析して被識別情
報を取得し、第2のデータ生成部130により、被識別情報の少なくとも一部を含む一以
上の第2のデータを生成する(ステップS103)。第2のデータは、第3のデータの各
カットの最大文字数及び文節間の修飾関係を解析し、文章として自然な区間が各カットに
収まるように文を区切った個々のテキストデータであり得る。
Next, the
次に、サーバ1は、第2のデータ割り当て部により、第2のデータをカットに割り当て
る(ステップS104)。なお、この状態の第3のデータをユーザ端末3にて表示をする
ようにして、経過を確認可能にしてもよい。
Next, the
次に、サーバ1は、第2のデータに含まれる被識別情報の少なくとも一部と、素材コン
テンツデータから抽出された抽出情報に基づき、関連付け部150により、素材コンテン
ツデータ記憶部164の素材コンテンツデータと第2のデータとを互いに関連付けし(ス
テップS105)、素材コンテンツデータ割り当て部144によりその素材コンテンツデ
ータをカットに割り当てる(ステップS106)。
Next, the
そして、サーバ1は、第2のデータ及び素材コンテンツデータが割り当てられた第3の
データを複合コンテンツデータとして生成するとともに複合コンテンツデータ記憶部16
6に記憶し、ユーザ端末2に複合コンテンツデータを表示する(ステップS107)。な
お、複合コンテンツデータの表示は、図7に例示するように、複合コンテンツデータを構
成する複数のカットを画面上に一覧表示することができる。各カットには、表示される素
材コンテンツデータおよび第2データと共に各カットの再生時間(秒数)の情報も表示さ
れてもよい。ユーザは、例えば、第2のデータフィールド31や対応するボタンをクリッ
クすることで、その内容を修正することができ、素材コンテンツデータフィールド32や
対応するボタンをクリックすることで素材コンテンツデータを差し替えることができる。
Then, the
It is stored in No. 6 and the composite content data is displayed on the user terminal 2 (step S107). As for the display of the composite content data, as illustrated in FIG. 7, a plurality of cuts constituting the composite content data can be displayed in a list on the screen. In each cut, information on the reproduction time (seconds) of each cut may be displayed together with the displayed material content data and the second data. The user can modify the content by clicking, for example, the second data field 31 or the corresponding button, and replace the material content data by clicking the material content data field 32 or the corresponding button. Can be done.
なお、上述の複合コンテンツデータを作成する流れは一例であり、例えば、第3のデー
タを読み出すためのステップS102は、第2のデータまたは素材コンテンツデータの割
り当てまでに読み出されていればいつ実行されていてもよい。また、例えば、第2のデー
タの割り当てのためのステップS104と、関連付けのためのステップS105と、素材
コンテンツデータの割り当てのためのステップS106の順番も、互いに齟齬が生じなけ
れば何れの順番で実行されてもよい。
The flow of creating the above-mentioned composite content data is an example. For example, step S102 for reading the third data is executed when the second data or the material content data has been read before being assigned. It may have been done. Further, for example, the order of step S104 for allocating the second data, step S105 for associating, and step S106 for allocating the material content data is also executed in any order as long as there is no discrepancy with each other. May be done.
(要約文作成機能)
図8〜図10を参照しながら、第1のデータがテキストデータを含むものである場合に
、サーバ1がテキストデータから要約文作成し、その要約文を含む第1のデータから第2
のデータを作成する一例について説明する。
(Summary sentence creation function)
With reference to FIGS. 8 to 10, when the first data includes text data, the
An example of creating the data of is described.
STEP91:段落分割・文書分割
サーバ1は、入力されたテキストデータの文書を段落に分割し、各段落内の文書を文に
分割する。また、動画のテロップとして1シーンで表示すると長すぎて可読性を落とす文
章(例えば80文字以上)については、特定の品詞、表記等の条件を満たす箇所で、さら
に複数の文章に分割する。
STEP91: Paragraph division / document division The
STEP92:文書の形態素解析
サーバ1は、各文を形態素解析にかけ、構文解析の最小単位となるトークンを取り出す
。図9に示すように、各トークンには品詞が付与されている。
STEP92: Document
STEP93:不要語・不要段落の削除
サーバ1は、予め定義された無効な文の判定ルールより、無効と定義される文、段落を
削除する。例えば、「■」、「▼」などの特定記号から始まる行、特定記号で囲まれた段
落、URL、メールアドレス、住所・電話番号などが記載された段落を削除する。
STEP93: Deletion of unnecessary words / unnecessary paragraphs The
STEP94:ストップワード等の削除
サーバ1は、トークンから「に」、「から」、「これ」、「さん」などのあまり意味と
しては重要でないワード(ストップワード)や助詞などの特定品詞を削除する。
STEP94: Deletion of stop words, etc.
STEP95:トークンバイグラムの作成
特定の条件(例えば、予め定義された品詞条件)を満たす複数のトークンを繋げ、トー
クンバイグラムを得る。例えば、「2014年」(名詞、固有名詞、一般)と「6月」(
名詞、固有名詞、一般)を繋げて「2014年6月」としたり、「ヴェルディ」(固有名
詞)と「協賛」(普通名詞)を繋げ、「ヴェルディ協賛」としたりする。
STEP95: Creating a token biggram A token biggram is obtained by connecting a plurality of tokens satisfying a specific condition (for example, a predefined part of speech condition). For example, "2014" (nouns, proper nouns, general) and "June" (June)
Connect nouns, proper nouns, and general) to make "June 2014", or connect "Verdi" (proper noun) and "sponsor" (common noun) to make "Verdi sponsor".
STEP96:重要文の抽出
トークンおよびトークンバイグラムを元にTF−IDFなど単語の重要度を評価する指
標から特徴語となるトークンおよびトークンバイアグラムを抽出し、前述の単語類似度判
定などからテキストのセグメンテーションを行い、各セグメントから重要文を抽出するこ
とで要約とする。
STEP96: Extraction of important sentences Extract the tokens and token viagrams that are characteristic words from the index that evaluates the importance of words such as TF-IDF based on the tokens and token bigrams, and segment the text from the above-mentioned word similarity judgment. And extract important sentences from each segment to make a summary.
STEP97:テンプレートへの当てはめ
要約(重要文)を構文解析にかけ、文節と構文木に別ける。上述の第3のデータ(例え
ばテンプレートデータ)は各カットに挿入できる文字数が定義されているところ、文節間
の修飾関係から、文章として自然な区間が各テンプレートに収まるように文を区切り、第
3のデータに当てはめる。図10に、第3のデータの各カットへの文章の挿入例を示す。
以上に説明した要約文作成機能は、日本語のみならず、英語をはじめとする多言語に対応
が可能である。
STEP97: Application to template The abstract (important sentence) is parsed and separated into clauses and syntax trees. In the above-mentioned third data (for example, template data), the number of characters that can be inserted into each cut is defined, and the sentence is divided so that a natural section as a sentence fits in each template due to the modification relationship between clauses, and the third data. Apply to the data of. FIG. 10 shows an example of inserting a sentence into each cut of the third data.
The summary sentence creation function described above can support not only Japanese but also multiple languages including English.
以上に説明した実施形態例の本システムによれば、編集用ソフト、サーバ、専門技術を
持った編集者などを自前で揃えなくとも、簡単に複合コンテンツデータを作成することが
可能となる。例えば、下記のような場面での活用が想定される。
1)ECショップで販売している商品情報の動画化
2)プレスリリース情報、CSR情報などを動画で配信
3)利用方法・オペレーションフローなどのマニュアルを動画化
4)動画広告として活用できるクリエイティブを制作
According to this system of the embodiment described above, it is possible to easily create composite content data without having to prepare editing software, a server, an editor with specialized skills, and the like. For example, it is expected to be used in the following situations.
1) Video of product information sold at EC shops 2) Video distribution of press release information, CSR information, etc. 3) Video of manuals such as usage and operation flow 4) Creation of creatives that can be used as video advertisements
以上、本発明の好ましい実施形態例について説明したが、本発明の技術的範囲は上記実
施形態の記載に限定されるものではない。上記実施形態例には様々な変更・改良を加える
ことが可能であり、そのような変更または改良を加えた形態のものも本発明の技術的範囲
に含まれる。
Although the preferred embodiment of the present invention has been described above, the technical scope of the present invention is not limited to the description of the above embodiment. Various changes / improvements can be made to the above-described embodiment, and those in which such changes / improvements have been made are also included in the technical scope of the present invention.
1 サーバ
2 管理者端末
3 ユーザ端末
1 Server 2
Claims (10)
とも一部を含む一以上の第2のデータを生成する第2のデータ生成部と、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てる第
2のデータ割り当て部と、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータか
ら抽出された抽出情報に基づき、前記第2のデータと、前記素材コンテンツデータとを関
連付ける関連付け部と、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てる素材コン
テンツデータ割り当て部と、
を備えることを特徴とするサーバ。 A second data generation unit that accepts input of first data including at least the identified information and generates one or more second data including at least a part of the identified information.
A second data allocation unit that allocates the second data to the cut of the third data including one or more cuts, and a second data allocation unit.
An association unit that associates the second data with the material content data based on at least a part of the identified information included in the second data and the extracted information extracted from the material content data.
Based on the association, the material content data allocation unit that allocates the material content data to the cut, and
A server characterized by being equipped with.
である、
ことを特徴とする請求項1に記載のサーバ。 The identified information is a vector representing a word form or an entire sentence defined by a language model.
The server according to claim 1.
ことを特徴とする請求項1または2に記載のサーバ。 The first data is text data including the identified information.
The server according to claim 1 or 2.
の文節間の修飾関係を解析し、文章として自然な区間が各カットに収まるように文を区切
られたものである、
ことを特徴とする請求項1ないし3に記載のサーバ。 The second data analyzes the maximum number of characters in each cut of the third data and the modification relationship between the clauses of the first data, and divides the sentence so that a natural section as a sentence fits in each cut. It is
The server according to claim 1 to 3.
つである、
ことを特徴とする請求項1ないし4に記載のサーバ。 The material content data is at least one of image data, video data, and sound data.
One,
The server according to claim 1 to 4.
素材コンテンツデータから抽出された抽出情報とを比較し、互いの類似度を判定して、前
記第2のデータに適した素材コンテンツデータと前記第2のデータとを互いに関連付けを
行う、
ことを特徴とする請求項1ないし5に記載のサーバ。 The associating unit compares at least a part of the identified information included in the second data with the extracted information extracted from the material content data, determines the degree of similarity to each other, and determines the degree of similarity to each other. The material content data suitable for the data and the second data are associated with each other.
The server according to claim 1 to 5.
の前記抽出情報を抽出する分類器を備え、
前記抽出情報は、前記分類器が出力したクラスラベルである、
ことを特徴とする請求項6に記載のサーバ。 It is a trained model in which machine learning is performed using the training data, and is provided with a classifier that extracts the extracted information of the material content data.
The extracted information is a class label output by the classifier.
The server according to claim 6.
前記第2のデータ生成部は、前記要約から第2のデータを生成する、
ことを特徴とする請求項1ないし7のいずれかに記載のサーバ。 The server further has a function of summarizing text information contained in the first data.
The second data generation unit generates the second data from the summary.
The server according to any one of claims 1 to 7.
記憶部に格納される、
ことを特徴とする請求項1ないし8のいずれかに記載のサーバ。 The material content data is acquired from the network and stored in the material content data storage unit.
The server according to any one of claims 1 to 8.
とも一部を含む一以上の第2のデータを生成するステップと、
1つ以上のカットを含む第3のデータの前記カットに前記第2のデータを割り当てるス
テップと、
前記第2のデータに含まれる被識別情報の少なくとも一部と、素材コンテンツデータに
基づき、前記第2のデータと、前記素材コンテンツデータとを関連付けるステップと、
前記関連付けに基づき、前記カットに前記素材コンテンツデータを割り当てるステップ
と、を含む、
ことを特徴とするデータ割り当て方法。
A step of accepting input of first data including at least the identified information and generating one or more second data including at least a part of the identified information.
A step of assigning the second data to the cut of the third data including one or more cuts,
A step of associating the second data with the material content data based on at least a part of the identified information included in the second data and the material content data.
Including a step of assigning the material content data to the cut based on the association.
A data allocation method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021051063A JP2021106397A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/046027 WO2021106051A1 (en) | 2019-11-25 | 2019-11-25 | Server and data allocating method |
JP2021051063A JP2021106397A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021050999A JP2021097417A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021050999A Division JP2021097417A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021106397A true JP2021106397A (en) | 2021-07-26 |
Family
ID=75520990
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020555080A Active JP6863648B1 (en) | 2019-11-25 | 2019-11-25 | Server and data allocation method |
JP2021051065A Pending JP2021106398A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051064A Active JP6903364B1 (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051062A Pending JP2021119662A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051063A Pending JP2021106397A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051066A Active JP6903365B1 (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021050999A Pending JP2021097417A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020555080A Active JP6863648B1 (en) | 2019-11-25 | 2019-11-25 | Server and data allocation method |
JP2021051065A Pending JP2021106398A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051064A Active JP6903364B1 (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021051062A Pending JP2021119662A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021051066A Active JP6903365B1 (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
JP2021050999A Pending JP2021097417A (en) | 2019-11-25 | 2021-03-25 | Server and data allocation method |
Country Status (2)
Country | Link |
---|---|
JP (7) | JP6863648B1 (en) |
WO (1) | WO2021106051A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7030296B1 (en) * | 2021-05-26 | 2022-03-07 | 株式会社エス・ケイ通信 | Programs, methods, information processing equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008078864A (en) * | 2006-09-20 | 2008-04-03 | Nippon Hoso Kyokai <Nhk> | Content creating server, content presentation device, content creating program and content presentation program |
JP2012253673A (en) * | 2011-06-06 | 2012-12-20 | Avix Inc | Automatic production of short animation work based on html document |
JP2015082694A (en) * | 2013-10-21 | 2015-04-27 | 東芝テック株式会社 | Information processor, content creation apparatus and program |
JP2018045256A (en) * | 2017-12-25 | 2018-03-22 | 株式会社フェイス | Subtitle production device and subtitle production method |
JP2019193023A (en) * | 2018-04-20 | 2019-10-31 | Jcc株式会社 | Desired video information notification system |
JP6603925B1 (en) * | 2018-06-22 | 2019-11-13 | 株式会社オープンエイト | Movie editing server and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2869546B1 (en) * | 2013-10-31 | 2018-12-26 | Alcatel Lucent | Method and system for providing access to auxiliary information |
JP6621054B2 (en) * | 2016-06-27 | 2019-12-18 | ブラザー工業株式会社 | Tape printer and talk data processing program |
JP7009840B2 (en) * | 2017-08-30 | 2022-01-26 | 富士通株式会社 | Information processing equipment, information processing method and dialogue control system |
-
2019
- 2019-11-25 WO PCT/JP2019/046027 patent/WO2021106051A1/en active Application Filing
- 2019-11-25 JP JP2020555080A patent/JP6863648B1/en active Active
-
2021
- 2021-03-25 JP JP2021051065A patent/JP2021106398A/en active Pending
- 2021-03-25 JP JP2021051064A patent/JP6903364B1/en active Active
- 2021-03-25 JP JP2021051062A patent/JP2021119662A/en active Pending
- 2021-03-25 JP JP2021051063A patent/JP2021106397A/en active Pending
- 2021-03-25 JP JP2021051066A patent/JP6903365B1/en active Active
- 2021-03-25 JP JP2021050999A patent/JP2021097417A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008078864A (en) * | 2006-09-20 | 2008-04-03 | Nippon Hoso Kyokai <Nhk> | Content creating server, content presentation device, content creating program and content presentation program |
JP2012253673A (en) * | 2011-06-06 | 2012-12-20 | Avix Inc | Automatic production of short animation work based on html document |
JP2015082694A (en) * | 2013-10-21 | 2015-04-27 | 東芝テック株式会社 | Information processor, content creation apparatus and program |
JP2018045256A (en) * | 2017-12-25 | 2018-03-22 | 株式会社フェイス | Subtitle production device and subtitle production method |
JP2019193023A (en) * | 2018-04-20 | 2019-10-31 | Jcc株式会社 | Desired video information notification system |
JP6603925B1 (en) * | 2018-06-22 | 2019-11-13 | 株式会社オープンエイト | Movie editing server and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021097417A (en) | 2021-06-24 |
JP6903364B1 (en) | 2021-07-14 |
JPWO2021106051A1 (en) | 2021-12-02 |
JP2021106398A (en) | 2021-07-26 |
JP6863648B1 (en) | 2021-04-21 |
JP2021119662A (en) | 2021-08-12 |
WO2021106051A1 (en) | 2021-06-03 |
JP2022061935A (en) | 2022-04-19 |
JP6903365B1 (en) | 2021-07-14 |
JP2022061934A (en) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10096145B2 (en) | Method and system for assembling animated media based on keyword and string input | |
US20180130496A1 (en) | Method and system for auto-generation of sketch notes-based visual summary of multimedia content | |
US20130294746A1 (en) | System and method of generating multimedia content | |
JP2020005309A (en) | Moving image editing server and program | |
WO2019245033A1 (en) | Moving image editing server and program | |
JP6730760B2 (en) | Server and program, video distribution system | |
JP6730757B2 (en) | Server and program, video distribution system | |
Kalender et al. | Videolization: knowledge graph based automated video generation from web content | |
JP6903365B1 (en) | Server and data allocation method | |
US10691871B2 (en) | Devices, methods, and systems to convert standard-text to animated-text and multimedia | |
WO2015019774A1 (en) | Data generating device, data generating method, translation processing device, program, and data | |
JP6603929B1 (en) | Movie editing server and program | |
JP6713183B1 (en) | Servers and programs | |
KR102368823B1 (en) | Apparatus and method for serving social content based on news articles | |
WO2022003798A1 (en) | Server, composite content data creation system, composite content data creation method, and program | |
WO2022201236A1 (en) | Server, system, image clipping method, and program | |
JP2021117759A (en) | Text information editing device and text information editing method | |
KR20210136609A (en) | Apparatus and method for generating image news contents | |
JP6979738B1 (en) | Servers and animation recommendation systems, animation recommendation methods, programs | |
JP2020129357A (en) | Moving image editing server and program | |
JP6710884B2 (en) | Servers and programs | |
JP2009086597A (en) | Text-to-speech conversion service system and method | |
WO2015040743A1 (en) | Annotation sharing method, annotation sharing device, and annotation sharing program | |
CN116680440A (en) | Segment division processing device, method, and storage medium | |
JP2016027415A (en) | Document reading support device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210325 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210325 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210506 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210527 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211118 |