JP5801104B2 - Automatic production of short video works based on HTML documents - Google Patents

Automatic production of short video works based on HTML documents Download PDF

Info

Publication number
JP5801104B2
JP5801104B2 JP2011126494A JP2011126494A JP5801104B2 JP 5801104 B2 JP5801104 B2 JP 5801104B2 JP 2011126494 A JP2011126494 A JP 2011126494A JP 2011126494 A JP2011126494 A JP 2011126494A JP 5801104 B2 JP5801104 B2 JP 5801104B2
Authority
JP
Japan
Prior art keywords
character string
dynamic
still image
background
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011126494A
Other languages
Japanese (ja)
Other versions
JP2012253673A (en
Inventor
井上 享
享 井上
和昭 熊倉
和昭 熊倉
豊太郎 時本
豊太郎 時本
Original Assignee
アビックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アビックス株式会社 filed Critical アビックス株式会社
Priority to JP2011126494A priority Critical patent/JP5801104B2/en
Priority to CN201210174422.1A priority patent/CN102982056B/en
Publication of JP2012253673A publication Critical patent/JP2012253673A/en
Application granted granted Critical
Publication of JP5801104B2 publication Critical patent/JP5801104B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、コンピューター情報処理システムによりHTML文書に基づいて短編動画作品を自動制作する技術に関する。この発明の方法により自動制作する短編動画作品は、電子看板(デジタルサイネージ)により表示したり、インターネットを通じてパソコン・タブレット端末・携帯電話機などに転送して表示させるコンテンツとして活用される。   The present invention relates to a technology for automatically producing a short movie work based on an HTML document by a computer information processing system. A short video work automatically produced by the method of the present invention is displayed as a digital signage or used as content to be transferred and displayed on a personal computer, tablet terminal, mobile phone or the like via the Internet.

飲食店・小売店・理美容室・パチンコ店などの経営者は、インターネット上に自店のホームページを掲載し、お店の細かなサービス情報を顧客に向けて発信し、集客に努めている。また店頭に電子看板(デジタルサイネージ)を設置し、行き交う人々に自店の存在をアピールして集客に努めている。   Managers such as restaurants, retail stores, hairdressing salons, and pachinko parlors post their own websites on the Internet and send detailed service information to customers to attract customers. In addition, an electronic signage (digital signage) is set up at the storefront to appeal to the people who come and go to attract customers.

お店の宣伝にホームページを活用することはかなり以前から大いに普及しているため、ホームページ制作や活用に関する豊富な知識をもった人が多く存在し、お店の人は自分でホームページを制作できなくても、専門家に依頼して好みのホームページを比較的安価に制作してもらえる環境が整っている。   The use of homepages for store advertisements has been very popular for a long time, so there are many people with a wealth of knowledge about homepage creation and use, and people at the store cannot create homepages themselves However, there is an environment where you can ask an expert to create your favorite homepage at a relatively low cost.

ところが電子看板の有効活用に関しては、上記のような望ましい環境が整っているとはいえない。そのため店頭の電子看板で「営業中」といった単純な電飾表示を繰り返すような利用形態が散見される。表現力の豊かな動画を表示できる高性能な電子看板を導入しても、その性能を活かし、周囲の人々の関心を惹きつける多彩な動画をつぎつぎと表示するような運用は簡単ではない。そのため小規模な商店の電子看板は、数種類の画像情報を長期間繰り返し表示し続けるような単調な運用になりがちである。   However, it cannot be said that the desirable environment as described above is in place for effective use of digital signage. For this reason, there are some forms of usage in which a simple electrical display such as “business in progress” is repeated on an electronic signboard at a store. Even if a high-performance digital signage that can display highly expressive videos is introduced, it is not easy to display various videos one after another that draw on the performance and attract the interest of people around you. For this reason, the electronic signboards of small-scale stores tend to be in a monotonous operation that continuously displays several types of image information for a long period of time.

この発明の目的は、ホームページ(HTML文書)の記述から電子看板用などの短編動画作品を自動的に制作することにある。たとえば、ある飲食店においては、自店のホームページに豊富な情報を掲載しており、また「本日のおすすめ」といったような日々変化する情報もホームページに掲載する人的な管理システムが整っているとする。そうしたホームページのある記載部分を指定することで、その部分の記載内容を素材とする短編動画作品が自動的に制作され、その短編動画作品を当該飲食店の電子看板のコンテンツとして利用する。あるいは、その短編動画作品をメールに添付してお客さんに送付したりする。このような用途を考えてこの発明が創作されたものである。   An object of the present invention is to automatically produce a short moving image work for an electronic signboard or the like from a description of a homepage (HTML document). For example, a restaurant has a wealth of information on its own homepage, and it has a human management system in place that changes daily information such as “today's recommendations” on the homepage. To do. By designating a description part of such a homepage, a short video work using the description content of that part as a material is automatically created, and the short video work is used as the contents of the electronic signboard of the restaurant. Alternatively, the short video work is attached to an email and sent to the customer. The present invention was created in view of such applications.

この発明の核心とするところは、つぎの事項(1)〜(8)により特定される、HTML文書に基づく短編動画作品の自動制作の方法発明である。
(1)背景データベースおよび動態テーブルを備えたコンピューター情報処理システムによりHTML文書に基づいて短編動画作品を自動制作する方法であること
(2)第1過程では、HTML文書の処理対象部分から、ブラウザにより可視化されるひとまとまりの文字列を1つの部品文字列として、複数の部品文字列の順列を生成すること
(3)第2過程では、生成した各部品文字列に含まれている単語を解析するとともに、単語の意味内容に基づいて設定されている複数の意味類型と対照し、各部品文字列を少なくとも1つの意味類型に分類すること
(4)背景データベースは、前記の複数の意味類型のひとつ1つに対して複数の背景動画データを対応づけして格納すること
(5)動態テーブルは、前記の複数の意味類型のひとつ1つに対して複数の動態規則を対応づけして記述すること
(6)動態規則は、部品文字列の文字列画像を生成して動画的に変化させる態様を規定する時系列の規則であること
(7)第3過程では、前記の複数の部品文字列を前記順列に従って1部品ずつ順番に処理することにより、各部品文字列に基づく文字列由来短編動画を生成してそれらを順番につなげた短編動画作品を表示出力すること
(8)1つの部品文字列Aに基づく文字列由来短編動画は、当該部品文字列Aが分類された意味類型Bに基づいて、背景データベースから1つの背景動画データCを抽出するとともに、動態テーブルから1つの動態規則Dを抽出し、背景動画データCの動画の上に当該部品文字列を動態規則Dに従って生成した文字列画像を重ねた動画であること
The core of the present invention is a method invention for automatic production of a short moving image work based on an HTML document specified by the following items (1) to (8).
(1) A method for automatically producing a short video work based on an HTML document by a computer information processing system equipped with a background database and a dynamic table. (2) In the first step, from the processing target part of the HTML document, by a browser. Generate a permutation of a plurality of component character strings using a set of visualized character strings as one component character string. (3) In the second step, analyze words included in each generated component character string. In addition, each component character string is classified into at least one semantic type in contrast to a plurality of semantic types set based on the meaning content of the word. (4) The background database is one of the plurality of semantic types. (5) A dynamic table is stored in each of the plurality of semantic types. (6) A dynamic rule is a time-series rule that defines a mode in which a character string image of a part character string is generated and changed in a moving manner (7 ) In the third step, the plurality of component character strings are processed one by one in accordance with the permutation, thereby generating a short animation derived from a character string based on each component character string and connecting them in order. (8) A character-string-derived short video based on one component character string A is obtained by converting one background video data C from the background database based on the semantic type B into which the component character string A is classified. In addition to extraction, one dynamic rule D is extracted from the dynamic table, and the moving image of the background moving image data C is a moving image in which the character string image generated according to the dynamic rule D is superimposed on the part character string.

より望ましい発明としては、上記の基本となる発明特定事項(1)〜(8)に加えて、第1過程では、前記HTML文書の前記処理対象部分に存在する静止画を部品静止画として抽出し、前記部品文字列の順列中に加入し、第3過程では、各部品文字列に基づく文字列由来短編動画のつながり中に、前記部品静止画に基づく静止画枠をその表示位置や大きさや姿勢を動画的に変化させつつ表示する静止画由来短編動画を加入して短編動画作品として表示出力することとする。   As a more desirable invention, in addition to the above basic invention specifying items (1) to (8), in the first process, a still image existing in the processing target portion of the HTML document is extracted as a component still image. In the third process, in the third process, the display position, size, and orientation of the still image frame based on the component still image is connected during the connection of the character-string-derived short video based on each component character string. A still-image-derived short movie that is displayed while changing the image as a movie is added and displayed as a short movie.

ブラウザにより表示されたHTML文書の一例An example of an HTML document displayed by a browser 同上HTML文書のソース記述Same as above for HTML document source description 同上HTML文書から抽出された5個の部品文字列と1個の部品静止画Same as above 5 parts character string and 1 part still image extracted from HTML document 同上部品文字列Aから自動制作された文字列由来短編動画のコマ送り解説The frame feed explanation of the short movie derived from the character string automatically produced from the part character string A 同上部品静止画Dから自動制作された静止画由来短編動画のコマ送り解説The frame feed explanation of the short movie derived from the still image D, which was automatically produced from the component still image D 意味類型の解説Explanation of semantic types 動態規則の解説Explanation of dynamic rules

===素材となるHTML文書===
図1に示すのは、インターネットに掲載されている、ある居酒屋のホームページ中の1ページであり、図2に示すのは当該ページの元になっているHTML記述である。このページでは、いくつかのお勧めメニューを紹介している。このページの中央には、泡立つ2個のビールジョッキをデザインした静止画が配置され、その上下に文字列が配置されている。図1と図2の対応関係は当業者にとって自明であるので逐一説明しない。
=== HTML document as material ===
FIG. 1 shows one page in a homepage of a certain tavern published on the Internet, and FIG. 2 shows an HTML description that is the basis of the page. This page introduces some recommended menus. In the center of this page, a still image designed with two foaming beer mugs is arranged, and character strings are arranged above and below it. The correspondence between FIG. 1 and FIG. 2 is obvious to those skilled in the art and will not be described step by step.

===部品の抽出===
この発明の方法を実行するコンピューター情報システムは、処理対象として図2に示したHTML記述をメモリに読み込み、この記述から部品文字列や部品静止画を抽出する。この実施例における部品抽出のアルゴリズムはつぎのとおりである。
=== Extraction of parts ===
The computer information system that executes the method of the present invention reads the HTML description shown in FIG. 2 as a processing target into a memory, and extracts a part character string and a part still image from this description. The part extraction algorithm in this embodiment is as follows.

(ア)HTML記述を先頭から末尾方向に調べ、イメージタグが現れたら、そのイメージを部品静止画として抽出する。
(イ)HTML記述を先頭から末尾方向に調べ、タグ以外のテキスト(文字や記号)が現れたら、それを文字列の始点と認識する。
(ウ)文字列の始点を認識したならば、HTML記述を先頭から末尾方向に調べ、改行タグが2個以上続いて現れたら、改行直前が前記文字列の終点であると認識し、始点から終点までの文字列をひとまとまりの部品文字列として抽出する。
(エ)HTML記述を先頭から末尾方向に調べ、抽出した部品に抽出した順番を対応づけした順列とする。
(A) The HTML description is examined from the beginning to the end, and when an image tag appears, the image is extracted as a component still image.
(A) The HTML description is examined from the beginning to the end, and if text (characters or symbols) other than tags appears, it is recognized as the start point of the character string.
(C) If the start point of the character string is recognized, the HTML description is examined from the beginning to the end. If two or more line feed tags appear in succession, the character string immediately before the line feed is recognized as the end point of the character string. The character string up to the end point is extracted as a single part character string.
(D) The HTML description is examined from the head to the tail, and the permutation is made to associate the extracted order with the extracted parts.

図2に示したHTML記述を上記のアルゴリズムで処理すると、図3に示す5個の部品文字列A、B、C、E、Fと1個の部品静止画Dの合計6個の部品がA〜Fの順列で抽出される。なお上記のアルゴリズムは単純化した一例にすぎない。文字列については、構文解析処理を行って複数の部品に区分したり、文章の意味解釈の処理を行って複数の部品に区分するなど、コンピューターによる周知のテキスト処理技術を利用した他の方法・要素を採り入れて部品抽出処理を行うこともできる。   When the HTML description shown in FIG. 2 is processed by the above algorithm, a total of six parts including five part character strings A, B, C, E, F and one part still image D shown in FIG. Extracted in a permutation of ~ F. Note that the above algorithm is just a simplified example. Other methods that use well-known text processing technology by computers, such as parsing into multiple parts by performing parsing processing, or processing by interpreting the meaning of sentences and dividing into multiple parts, etc. It is also possible to perform component extraction processing by incorporating elements.

===部品文字列の分類===
この発明の方法を実行するコンピューター情報処理システムは、抽出した部品文字列ごとに、各部品文字列に含まれている単語を解析するとともに、単語の意味内容に基づいて設定されている複数の意味類型と対照し、各部品文字列を少なくとも1つの意味類型に分類する。分類のアルゴリズムとしては、周知のテキストマイニングの各種の手法を活用することができる。
=== Part string classification ===
The computer information processing system for executing the method of the present invention analyzes, for each extracted part character string, a word included in each part character string, and a plurality of meanings set based on the meaning content of the word In contrast to the type, each part character string is classified into at least one semantic type. As the classification algorithm, various known text mining techniques can be used.

この発明の方法はなんらかの特定の分類アルゴリズムを採用しなければならないものではないので、ごく単純化した実施例を説明する。図6に示すのは単純化した意味類型の解説表である。図6の例では、類型1(テーマ名「さっぱり」)から類型5(テーマ名「セットメニュー」)までの5個の類型が用意されている。   Since the method of the present invention does not have to employ any particular classification algorithm, a very simplified embodiment will be described. FIG. 6 shows a simplified semantic type explanatory table. In the example of FIG. 6, five types from type 1 (theme name “sapphire”) to type 5 (theme name “set menu”) are prepared.

(カ)部品文字列に、「さっぱり」または「あっさり」という単語が含まれていて、「こってり」という単語が含まれていない場合、当該部品文字列は類型1に分類される。
(キ)部品文字列に、「こってり」「油」のいずれかが含まれていて、「さっぱり」および「あっさり」という単語が含まれていない場合、当該部品文字列は類型2に分類される。
(ク)部品文字列に、「オリジナル」「秘伝」「特製」のいずれかが含まれていると、当該部品文字列は類型3に分類される。
(ケ)部品文字列に、「ビール」「ジョッキ」のいずれかが含まれていて、「ワイン」が含まれていない場合、当該文字列は類型4に分類される。
(コ)部品文字列に、「ビール」および「枝豆」が含まれている場合、当該部品文字列は類型5に分類される。
(サ)部品文字列が類型1〜5のいずれにも分類されない場合、当該部品文字列はその他という類型6に分類される。
(F) If the part character string includes the word “fresh” or “light” and does not include the word “full”, the part character string is classified as type 1.
(G) If the part character string contains any of the words “kokori” or “oil” and does not contain the words “smooth” and “light”, the part character string is classified as type 2. .
(G) If any of “original”, “secret”, and “special” is included in the part character string, the part character string is classified into type 3.
(G) If the part character string contains either “beer” or “mug” and does not contain “wine”, the character string is classified as type 4.
(E) If the part character string includes “beer” and “green soybeans”, the part character string is classified into type 5.
(C) When the part character string is not classified into any of the types 1 to 5, the part character string is classified into the type 6 as other.

===背景データベース===
この発明の方法を実行するコンピューター情報処理システムは、複数の背景動画データを格納した背景データベースを備えている。1つの背景動画データは再生時間が5秒である。複数の背景動画データは、前記の6個の意味分類(類型1〜6)に関連づけされていおり、1個の類型に対してたとえば10個の背景動画データが対応づけされている。
=== Background Database ===
A computer information processing system for executing the method of the present invention includes a background database storing a plurality of background moving image data. One background moving image data has a reproduction time of 5 seconds. The plurality of background moving image data are associated with the six semantic classifications (types 1 to 6), and for example, ten background moving image data are associated with one type.

1個の背景動画データが複数の類型に対応づけされていてもよいので、必ずしも60個の背景動画データを用意しなくてもよい。背景動画データは、たとえば、CGアニメーションにより作成したサイケデリックな内容でもよいし、自然の景色の実写映像でもよい。図6に示した5個の類型1〜5の各テーマ名に相応しいと感じられた背景動画データが各類型に対応づけされている。なお、テーマ名とはこの実施例の創作途上での作業の便のためにつけたものにすぎない。   Since one background moving image data may be associated with a plurality of types, it is not always necessary to prepare 60 background moving image data. The background moving image data may be, for example, psychedelic content created by CG animation or a live-action image of a natural scene. The background moving image data felt to be appropriate for the theme names of the five types 1 to 5 shown in FIG. 6 are associated with each type. The theme name is only given for the convenience of the work in the process of creating this embodiment.

===動態テーブル===
この発明の方法を実行するコンピューター情報処理システムは、動態テーブルを備えている。動態テーブルは、前記の6個の意味類型1〜6のひとつ1つに対して複数種類の動態規則を対応づけして記述したものである。動態規則とは、部品文字列(部品静止画)として図3のように抽出した画像を、5秒間のアニメーション動画中に、どのように登場させてどのように変化させるのかを記述した、周知の作画編集用のスクリプト(簡易プログラム)のことである。
=== Dynamic table ===
A computer information processing system for executing the method of the present invention includes a dynamic table. The dynamic table is a table in which a plurality of types of dynamic rules are associated with each of the six semantic types 1 to 6 described above. A dynamic rule is a well-known rule that describes how an image extracted as a component character string (component still image) as shown in FIG. 3 appears and changes in an animation video for 5 seconds. It is a script (simple program) for drawing editing.

図7においては、17種類の動態規則の概要を解説している。動態規則には0番〜16番の規則番号を付けている。たとえば6番の動態規則は、部品文字列の画像が画面の上から落ちてきて画面の下辺にぶつかってバウンドする5秒間のアニメーションをつくり出す内容であることが解説してある。この規則には、部品文字列の画像を点滅させるかフラッシュさせることが不確定なバリエーション要素として含まれているとともに、画面中で傾けるバリエーション要素も含まれている。なお、図7のモーション名とはこの実施例の創作途上での作業の便のためにつけたものにすぎない。   In FIG. 7, the outline of 17 types of dynamic rules is explained. The dynamic rules are numbered from 0 to 16. For example, the dynamic rule No. 6 explains that the image of the part character string falls from the top of the screen and hits the bottom of the screen to create a five-second animation. This rule includes an uncertain variation element that blinks or flashes the image of the part character string, and also includes a variation element that is tilted in the screen. Note that the motion names in FIG. 7 are only given for the convenience of work in the process of creation of this embodiment.

実施例の動態テーブルは、具体的には、意味類型1〜6の各1つに対して10個の異なる動態規則の番号を対応づけしたものである。1個の動態規則が複数の意味類型に対応づけされていてもかまわないので、60個の異なる動態規則が必要なわけではない。   Specifically, the dynamic table of the embodiment associates ten different dynamic rule numbers with each one of the semantic types 1 to 6. Since one dynamic rule may be associated with a plurality of semantic types, 60 different dynamic rules are not necessarily required.

===文字列由来短編動画の生成===
全体のシーケンスは後述する。ここでは、図3に示した部品文字列Aに基づいて5秒間の文字列由来動画の生成手順を説明する。この発明の方法を実行するコンピューター情報処理システムは、抽出した部品文字列Aについて分類処理を行い、その他の類型6に分類する。つぎにシステムは、背景データベースから類型6に対応づけされた10個の背景動画データ(5秒間)のうちの1個をランダムに抽出するとともに、動態テーブルを利用して類型6に対応づけされた10個の動態規則のうちの1個をランダムに抽出する。
=== Generating a short animation derived from a character string ===
The entire sequence will be described later. Here, a procedure for generating a character string-derived moving image for 5 seconds based on the component character string A shown in FIG. 3 will be described. The computer information processing system that executes the method of the present invention classifies the extracted part character string A and classifies it into the other type 6. Next, the system randomly extracts one of 10 background moving image data (5 seconds) associated with type 6 from the background database, and associates it with type 6 using a dynamic table. One of the ten dynamic rules is extracted at random.

つぎにシステムは、抽出した5秒間の背景動画を再生しつつ、抽出した動態規則に従って生成した部品文字列Aの画像を背景動画の上に重ねた5秒間の文字列由来短編動画を生成する。この文字列由来短編動画の概略を図4に8コマのコマ送りで表現している。同じようにして、部品文字列B、C、E、Fについてもそれぞれ5秒間の文字列由来短編動画が生成される。   Next, the system reproduces the extracted 5-second background moving image, and generates a 5-second character string-derived short moving image in which the image of the part character string A generated according to the extracted dynamic rules is superimposed on the background moving image. An outline of this character string-derived short video is expressed by frame advance of 8 frames in FIG. Similarly, for the part character strings B, C, E, and F, a character string-derived short video for 5 seconds is generated.

===静止画由来動画の生成===
この発明の方法を実行するコンピューター情報処理システムは、部品静止画Dに基づいて5秒間の静止画由来短編動画を生成する。この動画においては、抽出した部品静止画Dの静止画枠を、画面中の表示位置や大きさや姿勢(傾き・回転など)を動画的に変化させつつ表示させる。背景はあってもよいし無くてもよい。背景を加える場合、静止画でも動画でもよい。
=== Generation of still image-derived video ===
The computer information processing system that executes the method of the present invention generates a still image-derived short moving image of 5 seconds based on the component still image D. In this moving image, the still image frame of the extracted component still image D is displayed while changing the display position, size, and posture (tilt, rotation, etc.) on the screen like a moving image. There may or may not be a background. When adding a background, it may be a still image or a moving image.

部品静止画Dの静止画枠の動画的変化は、前述した動態テーブルに登録されている各種の動態規則の中からランダムに1個の動態規則を抽出し、その規則に従ってつくり出すのが望ましい。また、背景動画を付加する場合、前述した背景データベースからランダムに抽出した背景動画データを採用すればよい。   It is desirable that the dynamic change of the still image frame of the component still image D is generated by randomly extracting one dynamic rule from the various dynamic rules registered in the dynamic table described above. In addition, when adding a background moving image, background moving image data extracted at random from the background database described above may be employed.

また、図2のHTML記述の例では部品静止画Dに関するコメント文字列は記述されていないが、静止画にタグとしてコメント文字列を記述したHTML記述が多く見られる。このように静止画のコメント文字列がある場合、この実施例においては、システムはコメント文字列を抽出し、部品文字列の処理について説明したのと同様に、当該コメント文字列に含まれている単語を解析するとともに、単語の意味内容に基づいて設定されている複数の意味類型と対照し、当該コメント文字列を少なくとも1つの意味類型に分類する。そして、当該部品静止画に基づいて静止画由来短編動画を生成する際、前記コメント文字列が分類された意味類型に対応づけされた背景動画データおよび動態規則を背景データベースおよび動態テーブルから抽出することとしている。   In addition, in the example of the HTML description in FIG. 2, the comment character string related to the component still image D is not described, but there are many HTML descriptions in which the comment character string is described as a tag in the still image. When there is a comment character string of a still image as described above, in this embodiment, the system extracts the comment character string and includes it in the comment character string in the same manner as described for the processing of the component character string. The word is analyzed, and the comment character string is classified into at least one semantic type in contrast to a plurality of semantic types set based on the semantic content of the word. Then, when generating a short video derived from a still image based on the component still image, background video data and dynamic rules associated with the semantic type into which the comment character string is classified are extracted from a background database and a dynamic table. It is said.

図3に示した部品静止画Dに基づいて生成した5秒間の静止画由来短編動画の概略を、図5において8コマのコマ送りで表現している。なお、静止画由来短編動画を生成する際の背景動画データおよび動態規則の選択に関し、その元となる部品静止画自体の色や形などの特徴要素を分析し、その分析結果に基づいて選択する方法を採用してもよい。   An outline of a short moving image derived from a still image for 5 seconds generated based on the component still image D shown in FIG. 3 is expressed by frame advance of 8 frames in FIG. Regarding the selection of background video data and dynamic rules when generating a short video derived short video, analyze the feature elements such as color and shape of the original component still image itself, and select based on the analysis result A method may be adopted.

===全体のシーケンス===
この発明の方法の具体的活用の場面では、たとえば、つぎのようにシーケンスが進行する。この発明の方法を実施するコンピューター情報処理システムに対し、まず最初に利用者は、処理対象となるHTML文書を特定して処理対象となる部分を指定し、処理実行を指示する。なお、HTML文書の処理対象部分があらかじめ決まっているのであれば、対象部分の指定操作は不必要である。
=== Overall sequence ===
In a specific application scene of the method of the present invention, for example, the sequence proceeds as follows. For a computer information processing system that implements the method of the present invention, a user first specifies an HTML document to be processed, designates a portion to be processed, and instructs execution of the processing. If the processing target part of the HTML document is determined in advance, the target part specifying operation is unnecessary.

処理実行の指示を受けたシステムは、すでに説明したように、図2に示すHTML記述から6個の部品A〜Fを抽出し、1部品あたり5秒間の短編動画を部品順列に従って順番に生成してそれらを連続させ、合計30秒間の短編動画作品とし、この作品を利用者が見るディスプレイに表示するとともに、データファイルとしてメモリに一時記憶する。   As described above, the system that has received the processing execution instruction extracts six parts AF from the HTML description shown in FIG. 2, and generates a short video of 5 seconds per part in order according to the part permutation. Then, they are made into a short movie work for a total of 30 seconds, and this work is displayed on the display for the user to view and is temporarily stored in the memory as a data file.

30秒間の短編動画作品の表示を終了したならば、システムは、利用者に対して「この作品でよいか、作り直しをするか」を問う。利用者が作品を承認したならば、一時記憶してあるデータファイルにファイル名をつけて出力する。   When the display of the short movie work for 30 seconds is finished, the system asks the user “whether this work is acceptable or whether to recreate it”. If the user approves the work, the file name is given to the temporarily stored data file and output.

利用者が作り直しを指示した場合、システムは、各部品に基づく短編動画(5秒間)の作成時に用いた背景動画データと動態規則の組み合わせを、別の異なる組み合わせになるように選択し直して、あらたな背景動画データと動態規則の組み合わせによりあらたな短編動画(5秒間)を生成し、それらをつなげた30秒間の短編動画作品とし、利用者に見せてこれでよいかと問う。利用者は、こうしたことを何回か繰り返し、それまで見た複数作品の中から1つを選択してデータファイルを取得できるようにしてもよい。また、作り直しを1部品による5秒間の短編動画単位で指示できるようにしてもよい。   When the user instructs re-creation, the system re-selects the combination of the background video data and dynamic rules used when creating the short video (5 seconds) based on each part to be another different combination, A new short video (5 seconds) is generated by combining the new background video data and dynamic rules, and a short video product of 30 seconds connected to them is shown to the user and asked if this is acceptable. The user may repeat this process several times and select one of a plurality of works seen so far to obtain a data file. In addition, it may be possible to instruct remake in units of a short moving image of 5 seconds by one component.

Claims (9)

背景データベースおよび動態テーブルを備えたコンピューター情報処理システムによりHTML文書に基づいて短編動画作品を自動制作する方法であって、
第1過程では、HTML文書の処理対象部分から、ブラウザにより可視化されるひとまとまりの文字列を1つの部品文字列として、複数の部品文字列の順列を生成し、
第2過程では、生成した各部品文字列に含まれている単語を解析するとともに、単語の意味内容に基づいて設定されている複数の意味類型と対照し、各部品文字列を少なくとも1つの意味類型に分類し、
背景データベースは、前記の複数の意味類型のひとつ1つに対して複数の背景動画データを対応づけして格納し、
動態テーブルは、前記の複数の意味類型のひとつ1つに対して複数の動態規則を対応づけして記述し、
動態規則は、部品文字列の文字列画像を生成して動画的に変化させる態様を規定する時系列の規則であり、
第3過程では、前記の複数の部品文字列を前記順列に従って1部品ずつ順番に処理することにより、各部品文字列に基づく文字列由来短編動画を生成してそれらを順番につなげた短編動画作品を表示出力し、
1つの部品文字列Aに基づく文字列由来短編動画は、当該部品文字列Aが分類された意味類型Bに基づいて、背景データベースから1つの背景動画データCを抽出するとともに、動態テーブルから1つの動態規則Dを抽出し、背景動画データCの動画の上に当該部品文字列を動態規則Dに従って生成した文字列画像を重ねた動画である
方法。
A method for automatically producing a short video work based on an HTML document by a computer information processing system having a background database and a dynamic table,
In the first step, a permutation of a plurality of component character strings is generated from a processing target portion of the HTML document, with a single character string visualized by the browser as one component character string,
In the second process, the word included in each generated part character string is analyzed, and at least one meaning of each part character string is compared with a plurality of semantic types set based on the meaning content of the word. Categorized into types,
The background database stores a plurality of background video data in association with each of the plurality of semantic types,
The dynamic table describes a plurality of dynamic rules in association with each of the plurality of semantic types,
A dynamic rule is a time-series rule that defines a mode in which a character string image of a part character string is generated and changed in a moving image.
In the third process, a short video work in which the plurality of part character strings are processed in order according to the permutation one by one to generate a short video derived from a character string based on each part character string and connect them in order. Output
A short animation derived from a character string based on one part character string A extracts one background moving picture data C from the background database based on the semantic type B into which the part character string A is classified, and one dynamic character table from the dynamic table. A method in which a dynamic rule D is extracted and a character string image in which the part character string is generated according to the dynamic rule D is superimposed on a moving image of background moving image data C.
第1過程では、前記HTML文書の前記処理対象部分に存在する静止画を部品静止画として抽出し、前記部品文字列の順列中に加入し、
第3過程では、各部品文字列に基づく文字列由来短編動画のつながり中に、前記部品静止画に基づく静止画枠をその表示位置や大きさや姿勢を動画的に変化させつつ表示する静止画由来短編動画を加入して短編動画作品として表示出力する
請求項1に記載の方法。
In the first step, a still image existing in the processing target portion of the HTML document is extracted as a component still image, and is added to the permutation of the component character string.
In the third process, a still image frame based on the component still image is displayed while changing the display position, size, and orientation of the still image frame based on the component still image while the short movie is derived from the character string based on each component character string. The method according to claim 1, wherein a short video is added and displayed as a short video work.
前記静止画由来短編動画は、1つの部品静止画Lに基づく静止画枠を、背景データベースから抽出した背景動画データMの動画の上に、前記動態テーブルから抽出した動態規則Nに従って動画的に変化させつつ重ねた動画である
請求項2に記載の方法。
The still image-derived short movie changes in a moving manner according to the dynamic rule N extracted from the dynamic table, on the moving image of the background moving image data M extracted from the background database, with the still image frame based on one component still image L The method according to claim 2, wherein the moving images are overlapped with each other.
前記HTML文書において部品静止画に対応づけされているコメント文字列を抽出し、当該コメント文字列に含まれている単語を解析するとともに、単語の意味内容に基づいて設定されている複数の意味類型と対照し、当該コメント文字列を少なくとも1つの意味類型に分類し、
当該部品静止画に基づいて静止画由来短編動画を生成する際、前記コメント文字列が分類された意味類型に対応づけされた背景動画データおよび動態規則を背景データベースおよび動態テーブルから抽出する
請求項3に記載の方法。
A comment character string associated with a component still image in the HTML document is extracted, a word included in the comment character string is analyzed, and a plurality of semantic types set based on the meaning content of the word In contrast to classifying the comment string into at least one semantic type,
4. When generating a still image-derived short video based on the component still image, background video data and dynamic rules associated with the semantic type into which the comment character string is classified are extracted from a background database and a dynamic table. The method described in 1.
第3過程で短編動画作品を表示した後、作り直し指示の利用者入力を受け付けた場合、第3過程をやり直し、1つの部品文字列Aに基づく文字列由来短編動画の生成に際し、当該部品文字列Aが分類された意味類型Bに基づいて、背景データベースおよび動態テーブルから前記の背景動画データCと動態規則Dの組み合わせとは異なる背景動画データと動態規則の組み合わせを抽出し、あらたに抽出した背景動画データと動態規則の組み合わせに基づいて生成された短編動画作品をあらたに表示出力する
請求項1〜4のいずれかに記載の方法。
After displaying the short video work in the third process, when the user input of the restructuring instruction is accepted, the third process is performed again, and when generating the short video derived from the character string based on one component character string A, the component character string Based on the semantic type B into which A is classified, a background video data and dynamic rule combination different from the background video data C and dynamic rule D combination is extracted from the background database and dynamic table, and the newly extracted background The method according to any one of claims 1 to 4, wherein a short video work generated based on a combination of video data and dynamic rules is newly displayed and output.
第3過程で短編動画作品を表示した後、作り直し指示の利用者入力を受け付けた場合、第3過程をやり直し、1つの部品静止画Lに基づく静止画由来短編動画の生成に際し、背景データベースおよび動態テーブルから、前記の背景動画データMと動態規則Nの組み合わせとは異なる背景動画データと動態規則の組み合わせを抽出し、あらたに抽出した背景動画データと動態規則の組み合わせに基づいて生成された短編動画作品をあらたに表示出力する
請求項4に記載の方法。
After displaying the short movie work in the third process, if a user input of a restructuring instruction is accepted, the third process is performed again, and the background database and dynamics are generated when generating a short movie derived from a still image based on one component still image L. A combination of background video data and dynamic rules that is different from the combination of background video data M and dynamic rules N is extracted from the table, and a short video generated based on the newly extracted combination of background video data and dynamic rules. The method according to claim 4, wherein the work is newly displayed and output.
第3過程で短編動画作品を表示した後、作品承認の利用者入力を受け付けた場合、当該短編動画作品のデータファイルを出力する
請求項1〜6のいずれかに記載の方法。
The method according to any one of claims 1 to 6, wherein when a user input for work approval is received after displaying a short video work in the third process, a data file of the short video work is output.
請求項1〜7のいずれかに記載の方法の情報処理を実行するコンピューター情報処理システム。   The computer information processing system which performs the information processing of the method in any one of Claims 1-7. 請求項1〜7のいずれかに記載の方法の情報処理をコンピューター情報処理システムに行わせるプログラム。   The program which makes a computer information processing system perform the information processing of the method in any one of Claims 1-7.
JP2011126494A 2011-06-06 2011-06-06 Automatic production of short video works based on HTML documents Active JP5801104B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011126494A JP5801104B2 (en) 2011-06-06 2011-06-06 Automatic production of short video works based on HTML documents
CN201210174422.1A CN102982056B (en) 2011-06-06 2012-05-30 Automatic production method of short dynamic image work and computer information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011126494A JP5801104B2 (en) 2011-06-06 2011-06-06 Automatic production of short video works based on HTML documents

Publications (2)

Publication Number Publication Date
JP2012253673A JP2012253673A (en) 2012-12-20
JP5801104B2 true JP5801104B2 (en) 2015-10-28

Family

ID=47526039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126494A Active JP5801104B2 (en) 2011-06-06 2011-06-06 Automatic production of short video works based on HTML documents

Country Status (2)

Country Link
JP (1) JP5801104B2 (en)
CN (1) CN102982056B (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026994B1 (en) * 2018-06-29 2019-09-30 주식회사 위피엔피 Video motion object markup language
WO2021106051A1 (en) * 2019-11-25 2021-06-03 株式会社オープンエイト Server and data allocating method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003116053A (en) * 2001-10-05 2003-04-18 Hitachi Ltd Method for encoding specific effect data, method for displaying specific effect, and method for editing specific effect data
JP2003125368A (en) * 2001-10-17 2003-04-25 Oki Electric Ind Co Ltd Video mail apparatus
JP2004336442A (en) * 2003-05-08 2004-11-25 Sanyo Electric Co Ltd Video image feeding system
JP2005122276A (en) * 2003-10-14 2005-05-12 Nippon Telegr & Teleph Corp <Ntt> Content-constituting method, content-generating device, and program
WO2005038629A2 (en) * 2003-10-17 2005-04-28 Park Media, Llc Digital media presentation system
CN100583108C (en) * 2004-12-30 2010-01-20 中山大学 Method for implementing dynamic configuration for scene of game on mobile digital terminals
JP2007133763A (en) * 2005-11-11 2007-05-31 Nippon Telegr & Teleph Corp <Ntt> Device and program for comparing element information
JP2007156978A (en) * 2005-12-07 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> Content configuration device, content configuration method and program for configuring content
JP2007184869A (en) * 2006-01-10 2007-07-19 Fujifilm Corp Image processor, image processing method, and image processing program
US20070204223A1 (en) * 2006-02-27 2007-08-30 Jay Bartels Methods of and systems for personalizing and publishing online content
JP2008236138A (en) * 2007-03-19 2008-10-02 Hop Information System Co Ltd Moving picture editing program
US20110238495A1 (en) * 2008-03-24 2011-09-29 Min Soo Kang Keyword-advertisement method using meta-information related to digital contents and system thereof
CN101441778B (en) * 2008-12-19 2010-12-22 中国科学院计算技术研究所 Method for generating caption of cartoon leader and tail leader
JP5596438B2 (en) * 2010-06-29 2014-09-24 日本電信電話株式会社 HTML content visualization apparatus and operation method thereof
JP2012178081A (en) * 2011-02-28 2012-09-13 Jvc Kenwood Corp Content generation device

Also Published As

Publication number Publication date
CN102982056B (en) 2017-04-12
CN102982056A (en) 2013-03-20
JP2012253673A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
Drott Why the next song matters: Streaming, recommendation, scarcity
CN110968736B (en) Video generation method and device, electronic equipment and storage medium
US10311479B2 (en) System for producing promotional media content and method thereof
CN108885639A (en) Properties collection navigation and automatic forwarding
JP6517929B2 (en) Interactive video generation
US20200250369A1 (en) System and method for transposing web content
US11061651B2 (en) Systems and methods for organizing, classifying, and discovering automatically generated computer software
US20150067538A1 (en) Apparatus and method for creating editable visual object
WO2023020167A1 (en) Information display method and apparatus, computer device, and storage medium
JP6050284B2 (en) Extraction apparatus, extraction method, and extraction program
CN113746874A (en) Voice packet recommendation method, device, equipment and storage medium
JP2020065307A (en) Server, program, and moving image distribution system
CN113660526B (en) Script generation method, system, computer storage medium and computer program product
WO2019245033A1 (en) Moving image editing server and program
JP5801104B2 (en) Automatic production of short video works based on HTML documents
JP6603929B1 (en) Movie editing server and program
JP2020096373A (en) Server, program, and video distribution system
Orgad et al. The humanitarian makeover
US20220415360A1 (en) Method and apparatus for generating synopsis video and server
JP6794740B2 (en) Presentation material generation device, presentation material generation system, computer program and presentation material generation method
JP6713183B1 (en) Servers and programs
JP5134882B2 (en) Content management device
KR101647442B1 (en) Visual Contents Producing System, Method and Computer Readable Recoding Medium
US20160342610A1 (en) System and Method for Dynamic Predictive Analytics for Patterns Search and Publishing
US20170132177A1 (en) System And Method For Rhythmic And Polyrhythmic Pattern Search And Publishing, And Flattening Engine That Receives And Analyzes To Be- Published Content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150826

R150 Certificate of patent or registration of utility model

Ref document number: 5801104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350