JP2015109094A - Moving image output device, moving image output method, and program - Google Patents
Moving image output device, moving image output method, and program Download PDFInfo
- Publication number
- JP2015109094A JP2015109094A JP2014257592A JP2014257592A JP2015109094A JP 2015109094 A JP2015109094 A JP 2015109094A JP 2014257592 A JP2014257592 A JP 2014257592A JP 2014257592 A JP2014257592 A JP 2014257592A JP 2015109094 A JP2015109094 A JP 2015109094A
- Authority
- JP
- Japan
- Prior art keywords
- line segment
- moving image
- memory
- stored
- instructions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000006243 chemical reaction Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 21
- 239000000284 extract Substances 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、ベクターデータ変換出力装置、ベクターデータ変換出力方法、及びベクターデータ変換出力プログラムに関する。 The present invention relates to a vector data conversion output device, a vector data conversion output method, and a vector data conversion output program.
近年、FLASH(登録商標)により、各種ウェブページにおいて静止画及び動画のコンテンツが広く提供されている(特許文献1)。FLASHで描画される画像データは、ベクターデータであるSWF(Small Web Format)形式により記述されている。SWF形式のベクターデータは独自のフォーマットを採用している。具体的にはSWF形式のベクターデータは、画像データを、複数の線分と、各線分の始点(MoveTo)、終点(LineTo)、及び各線分の左右のフィルスタイル(Fillstyle)により規定している。なお、フィルスタイルとは、空間を塗りつぶす様式を意味し、例えば淡色の色で塗りつぶすこと等を意味する。 In recent years, FLASH (registered trademark) has widely provided content of still images and moving images on various web pages (Patent Document 1). Image data drawn by FLASH is described in SWF (Small Web Format) format which is vector data. The SWF format vector data uses a unique format. Specifically, vector data in SWF format defines image data by a plurality of line segments, the start point (MoveTo), the end point (LineTo) of each line segment, and the left and right fill styles (Fillstyle) of each line segment. . The fill style means a style of filling a space, for example, filling with a light color.
しかしながら、Canvasや各種ドローソフト等における標準的なフォーマットでは、ベクターデータを、複数の連結した線分と、複数の連結した線分で閉じられる空間(以下、「閉空間」という。)のフィルスタイルにより規定している。これらの各フォーマット同士を対応付ける方法はこれまで提案されておらず、したがってFLASH再生ソフトを備えない電子機器ではSWF形式のベクターデータを再生することが不可能であった。また動画データを表示する際にベクターデータを一フレーム毎に毎回配置し格納する場合、処理装置に多大な処理負荷がかかった。 However, in a standard format such as Canvas or various drawing software, vector data is filled with a plurality of connected line segments and a fill style of a space closed by a plurality of connected line segments (hereinafter referred to as “closed space”). It is prescribed by. A method for associating these formats with each other has not been proposed so far, and it is impossible to reproduce vector data in the SWF format with an electronic device that does not include FLASH reproduction software. When vector data is arranged and stored every frame when displaying moving image data, a large processing load is applied to the processing apparatus.
本発明は、このような従来の課題を解決するものであり、処理負荷を低減して動画データを出力可能な動画出力装置、動画出力方法、及びプログラムを提供するものである。 The present invention solves such a conventional problem, and provides a moving image output apparatus, a moving image output method, and a program that can output moving image data with a reduced processing load.
上記課題を解決するために本発明に係る動画出力装置は、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリと、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
In order to solve the above problems, a moving image output apparatus according to the present invention provides:
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. Memory to
A moving image output unit that outputs a moving image based on the image element in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
また本発明に係る動画出力方法は、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備える動画出力装置による動画出力方法であって、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップ、
を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The moving image output method according to the present invention includes:
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. A video output method by a video output device including a memory for performing
Outputting a moving image by the image element in accordance with the instructions stored in the memory;
Including
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
また本発明に係るプログラムは、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備えるコンピュータに、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The program according to the present invention is
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. To a computer with memory
A program for executing a step of outputting a moving image based on the image element according to the instruction stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
上記構成により動画出力装置、動画出力方法、及びプログラムによれば、処理負荷を低減して動画データを出力することができる。 According to the above configuration, the moving image output apparatus, the moving image output method, and the program can reduce the processing load and output moving image data.
以下、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below.
(実施の形態1)
(1.1)ベクターデータ変換出力装置の構成
図1は本発明の実施の形態1に係るベクターデータ変換出力装置の構成を示すブロック図である。本発明の実施の形態1におけるベクターデータ変換出力装置10は、図1に示すように、ベクターデータ取得部101と、線分メモリ102と、接続探索部103と、閉空間判定制御部104と、閉空間メモリ105と、ベクターデータ出力部106とを備える。
(Embodiment 1)
(1.1) Configuration of Vector Data Conversion / Output Device FIG. 1 is a block diagram showing a configuration of a vector data conversion / output device according to
ベクターデータ取得部101は、好ましくはウェブサイト等からSWF形式のベクターデータを取得する。なお、取得元はウェブサイトに限らず、ベクターデータ変換出力装置10が備えるハードディスク(不図示)に格納されたSWF形式のベクターデータを取得してもよい。なお「SWF形式」とは、複数の線分データから構成されるフォーマットであり、かつ、各線分データが、始点、終点及び線分の左右のフィルスタイルを定める形式をいう。したがって、SWF形式はSWFフォーマットのベクターデータを含み、かつSWFフォーマットと同様のベクターデータフォーマットを全て含む。
The vector
線分メモリ102には、ベクターデータ取得部101が取得したSWF形式のベクターデータにおける線分データを、線分データに係るフィルスタイルで分類し、線分リストとして格納される。線分リストは、線分における2つの端点の座標と、フィルスタイルの値を格納する。
In the
接続探索部103は、線分メモリ102に格納された線分リストについて、各線分同士の接続関係を探索する。接続関係の探索は、各線分の端点の座標を比較することにより行う。
The
閉空間判定制御部104は、接続探索部103により接続探索された線分の組合せが、フィルスタイルと共に閉空間を形成するかを判定する。
The closed space
閉空間メモリ105には、閉空間判定制御部104が閉空間を形成すると判定した線分データの組合せが、閉空間リストとして格納される。
In the
ベクターデータ出力部106は、閉空間メモリ105に格納された閉空間リストに基づきベクターデータを出力する。
The vector
ここで、ベクターデータ変換出力装置10として機能させるために、コンピュータを好適に用いることができ、そのようなコンピュータは、ベクターデータ変換出力装置10の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータの中央演算処理装置(CPU)によってこのプログラムを読み出して実行させることで実現することができる。
Here, in order to function as the vector data
(1.2)ベクターデータ変換出力装置10の動作
図2は、ベクターデータ変換出力装置10がSWFベクターデータを取得し、ベクターデータを出力する動作を示すフローチャートである。以下、代表的なSWFベクターデータを出力する場合を例に説明する。
(1.2) Operation of Vector Data
(1.2.1)図3のSWFベクターデータに係るベクターデータ変換出力装置10の出力動作
まず、ベクターデータ変換出力装置10が、図3に示すSWFベクターデータ201を取得し、変換後のベクターデータを出力する例を示す。
(1.2.1) Output Operation of Vector Data Conversion /
はじめにベクターデータ取得部101は、好ましくはウェブサイト等から図3に係るSWF形式のベクターデータを取得する(ステップS11)。SWF形式のベクターデータは、図3に示すように、各線分について線分の始点の座標(x座標とy座標)と、線分の終点の座標と、線分の第1のフィルスタイル(線分の右側のフィルスタイル)と、線分の第2のフィルスタイル(線分の左側のフィルスタイル)により構成されている。
First, the vector
なお、フィルスタイル“1”は所定のパターンで空間を塗りつぶし、フィルスタイル“2”は、それとは異なる所定のパターンで空間を塗りつぶし、フィルスタイル“0”は、空間を塗りつぶさないことを意味する。 The fill style “1” fills the space with a predetermined pattern, the fill style “2” fills the space with a different predetermined pattern, and the fill style “0” means that the space is not filled.
なお、ベクターデータ取得部101がベクターデータを取得する取得元はウェブサイトに限らず、ベクターデータ変換出力装置10が備える記憶部等(不図示)に格納されたSWF形式のベクターデータを取得してもよい。
The acquisition source from which the vector
次に、ベクターデータ変換出力装置10は、取得したSWF形式のベクターデータにおける線分データを、線分データに係るフィルスタイルで分類し、フィルスタイル毎に線分メモリ102に格納する(ステップS12)。
Next, the vector data conversion /
図4に、線分メモリ102に格納された線分データを示す。線分データは好ましくは、フィルスタイル毎に分類された線分リストとして格納される。図4では、フィルスタイルが“1”に係る線分リスト202と、フィルスタイルが“2”に係る線分リスト203が格納されている。線分リスト202、及び線分リスト203には、それぞれ、線分に係る情報として、線分番号と、線分に係る2つの端点と、フィルスタイルと、確定済みフラグとが格納される。第1の端点と第2の端点は、本事例においては第1の端点としてSWF形式の線分データの始点、第2の端点としてSWF形式の線分データの終点を格納するものとして説明するが、第1の端点としてSWF形式の線分データの終点、第2の端点としてSWF形式の線分データの始点が格納されていてもよい。確定済みフラグには、当該線分が閉空間を形成する線分として確定した場合に、“確定”が格納され、確定していない場合には“未”が格納される。当該フラグは接続の探索に用いる。なお、図4では、線分メモリ102には第1のフィルスタイルまたは第2のフィルスタイルのいずれか一方が“0”以外である線分データのみが含まれている場合について説明しているが、線分メモリ102には、第1のフィルスタイル及び第2のフィルスタイルの双方が“0”以外である線分データが含まれている場合もある。例えば、第1のフィルスタイルが“1”、第2のフィルスタイルが“2”である線分データが含まれる場合、この線分データは、図4における線分リスト202と線分リスト203との双方にそれぞれ格納される。また、例えば、第1のフィルスタイル及び第2のフィルスタイルの双方が“1”である線分データが含まれる場合、この線分データは、図4における線分リスト202に、2データ分として格納される。すなわち、「当該線分の線分番号、2つの端点、フィルスタイル(“1”)、確定済フラグ」を有するエントリが、線分リスト202に2つ作成される。
FIG. 4 shows line segment data stored in the
続いて接続探索部103は、夫々の線分リストにおいて、各線分同士の接続を探索し、ある図形(閉空間を形成する図形、及び形成しない図形を含む。)を構成する線分(以下、要素線分という。)を抽出する(ステップS13)。具体的には接続探索部103は、線分リストにおける、ある線分の端点の座標と、当該線分リストに含まれるその他の線分の端点の座標を比較し、同一の座標であれば当該端点においてある線分と他の線分とは接続していると判定する。このときの同一の座標を接続点という。接続探索部103は、接続探索をしている線分が、当該探索処理において過去抽出してきた線分の端点のいずれかと一致した場合に、当該線分についての接続探索を終了する。
Subsequently, the
図4に示す線分リスト202及び線分リスト203について接続探索部103が接続関係を判定する動作を説明する。まず接続探索部103は、線分リストの中で、確定済みフラグが“未”のうちで一番上に格納されている線分(線分番号が“1”の線分)を第1要素線分として選択し、第1要素線分の第1の端点の座標(1,0)について、他の線分との接続関係を探索する。接続関係の判定対象となる他の線分は、線分リスト202における、確定済みフラグが“未”の線分データである。座標の比較は、線分リスト202の上から順に行う。すると、当該座標と、線分番号“3”の第1の端点の座標(1,0)とが同一である。したがって接続探索部103は線分番号“1”と、線分番号“3”の線分が接続していると判定し、線分番号“3”の線分を第2要素線分として抽出する。以下、第1要素線分と第2要素線分との接続点(ここでは、座標(1,0))を、開始接続点という。なお、ある線分と他の線分との接続関係の探索においては、他の線分の第1の端点及び第2の端点の双方がある線分と他の線分との接続点の候補となり、以下の接続探索処理においても同様である。
An operation in which the
次に接続探索部103は、第2要素線分として抽出された、線分番号“3”の、もう一方の端点である第2の端点の座標(1,1)と同一の座標を探索する。ここで当該座標と、線分番号“7”の第1の端点の座標(1,1)とが同一である。したがって接続探索部103は線分番号“1”と、線分番号“7”の線分が接続していると判定し、線分番号“7”の線分を第3要素線分として抽出する。
Next, the
続いて接続探索部103は、第3要素線分として抽出された、線分番号“7”の、もう一方の端点である第2の端点の座標(0,1)と同一の座標を探索する。ここで当該座標と、線分番号“4”の第1の端点の座標(0,1)とが同一である。したがって接続探索部103は線分番号“7”と、線分番号“4”の線分が接続していると判定し、線分番号“4”の線分を第4要素線分として抽出する。
Subsequently, the
続いて接続探索部103は、第4要素線分として抽出された、線分番号“4”の、もう一方の端点である第2の端点の座標(0,0)と同一の座標を探索する。ここで当該座標と、線分番号“1”の第2の端点の座標(0,0)とが同一である。したがって接続探索部103は線分番号“4”と、線分番号“1”の線分が接続していると判定する。接続探索部103は、接続関係の探索処理において過去抽出してきた要素線分の端点のいずれかと一致した場合、または、線分リストのいずれの端点とも一致しない場合に、当該線分についての接続探索を終了する。ここでは、第4要素線分(線分番号“4”)の第2の端点の座標が、過去に抽出された第1要素線分(線分番号“1”)の第2の端点の座標と同一であったため、接続探索部103は接続探索を終了する。
Subsequently, the
接続探索部103が接続探索を終了した後に、閉空間判定制御部104が、当該接続探索された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。閉空間判定制御部104は、接続探索部103が要素線分として判定をスタートした線分(第1要素線分)の端点のうち、開始接続点ではない方の端点で接続探索を終了した場合に、当該線分の組合せが閉空間を形成すると判定する。そうでない場合には、閉空間判定制御部104は、閉空間を形成しないと判定する。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“1”)における開始接続点が(1,0)である。そして、判定を終了した座標は線分番号“1”のもう一方の端点(0,0)である。したがって閉空間判定制御部104は、第1要素線分(線分番号“1”)、第2要素線分(線分番号“3”)、第3要素線分(線分番号“7”)及び第4要素線分(線分番号“4”)線分の組合せが、閉空間を形成すると判定し、ステップS15に進む。なお、閉空間判定制御部104は、当該線分の組合せが閉空間を形成しないと判定した場合には、ステップS17へ進む。
After the
続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。
Subsequently, the closed space
図5に、閉空間メモリ105に格納された閉空間リスト204を示す。閉空間リスト204は、閉空間の通し番号である“閉空間番号”と、“フィルスタイル”と、接続していると判定された線分番号を、接続順に格納する。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“1”、“3”、“7”、“4”がこの順で接続されており、図5に示すように格納される。このように、格納されるベクターデータは、Canvasや各種ドローソフト等における標準的なフォーマットと同一の形式であり、複数の連結した線分と、当該複数の連結した線分で閉じられる閉空間のフィルスタイルにより規定される。
FIG. 5 shows a
続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける、確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“1”、“3”、“7”、“4”に係る確定済みフラグをすべて“確定済”に更新する。
Subsequently, the closed space
続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。確定済みでなければ、全てが確定済みになるまでステップS13からステップS17を繰り返す。本事例においては、線分リスト202については全て確定済みであるが、線分リスト203については確定済みでないため、ステップS13に進む。
Subsequently, the
次に接続探索部103は、線分リスト203の線分について接続探索を行う(ステップS13)。接続探索部103は、線分リスト203のうち、確定済みフラグが“未”のうちで一番上に格納されている線分(線分番号“2”の線分)を第1要素線分として選択し、第1要素線分の第1の端点の座標(1,2)について、他の線分との接続関係を探索する。接続関係の判定対象となる線分は、線分リスト203における、確定済みフラグが“未”の線分データである。座標の比較は、線分リスト203の上から順に行う。すると、当該座標と、線分番号“5”の第2の端点の座標(1,2)とが同一である。したがって接続探索部103は線分番号“2”と、線分番号“5”の線分とが接続していると判定し、線分番号“5”の線分を第2要素線分として抽出する。
Next, the
次に接続探索部103は、第2要素線分として抽出された、線分番号“5”の、もう一方の端点である第1の端点の座標(1,4)と同一の座標を探索する。ここで当該座標と、線分番号“6”の第2の端点の座標(1,4)とが同一である。したがって接続探索部103は線分番号“5”と、線分番号“6”の線分が接続していると判定し、線分番号“6”の線分を第3要素線分として抽出する。
Next, the
続いて接続探索部103は、第3要素線分として抽出された、線分番号“6”の、もう一方の端点である第1の端点の座標(0,3)と同一の座標を探索する。ここで当該座標と、線分番号“2”の第2の端点の座標(0,3)が同一である。したがって接続探索部103は線分番号“6”と、線分番号“2”の線分は接続していると判定する。接続探索部103は、過去抽出してきた要素線分の端点のいずれかと一致した場合、または線分リストのいずれの端点とも一致しない場合に、当該線分についての探索を終了する。したがって、ここでは、第3要素線分(線分番号“6”)の第1の端点の座標が、過去に抽出された第1要素線分(線分番号“2”)の第2の端点の座標と同一であったため、接続探索部103は接続探索をここで終了する。
Subsequently, the
続いて閉空間判定制御部104が、当該接続判定された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“2”)における開始接続点が(1,2)である。そして、接続探索を終了した座標は線分番号“2”のもう一方の端点(0,3)である。したがって閉空間判定制御部104は、第1要素線分(線分番号“2”)、第2要素線分(線分番号“5”)及び第3要素線分(線分番号“6”)の組合せが、閉空間を形成すると判定し、ステップS15に進む。
Subsequently, the closed space
続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“2”に係る閉空間として、線分番号“2”、“5”、“6”がこの順で接続されており、図5に示す丙空間リスト204を更新し、閉空間リスト205のように閉空間メモリ105に新たな閉空間番号“2”として閉空間の情報が格納される。
Subsequently, the closed space
続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“2”、“5”、“6”に係る確定済みフラグをすべて“確定済”に更新する。
Subsequently, the closed space
続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。本事例では、全ての線分が確定済みであるため次のステップに進む。
Subsequently, the
続いてベクターデータ出力部106は、閉空間メモリ105に基づきベクターデータを出力する(ステップS18)。閉空間メモリ105には、標準的なベクターデータフォーマットである、閉空間を形成する複数の線分のデータと、閉空間のフィルスタイルのデータが格納されているため、ベクターデータ出力部106は容易に当該データを出力できる。なおここでベクターデータの出力とは、ディスプレイを含む機器や受信部やメモリにベクターデータを送信することを意味する概念である。当該ベクターデータを受取った機器や受信部は、当該ベクターデータを容易に解釈し、ディスプレイ等に画像を表示することができる。
Subsequently, the vector
当該ベクターデータによって構成される画像が、ディスプレイ等に出力される場合の表示例を図6に示す。図6は、線分番号“1”、“3”、“7”、“4”による閉空間と、線分番号“2”、“5”、“6”による閉空間が所定のフィルスタイルにより塗りつぶされ、表示されていることを示している。 FIG. 6 shows a display example when an image constituted by the vector data is output to a display or the like. FIG. 6 shows that a closed space with line numbers “1”, “3”, “7”, “4” and a closed space with line numbers “2”, “5”, “6” are in accordance with a predetermined fill style. Shows that it is filled and displayed.
(1.2.2)図7のSWFベクターデータに係るベクターデータ変換出力装置10の出力動作
次に、ベクターデータ変換出力装置10が、図7に示すSWFベクターデータ211を取得し、変換後のベクターデータを出力する例を示す。
(1.2.2) Output Operation of Vector Data Conversion /
はじめにベクターデータ取得部101は、図7に示すSWF形式のベクターデータを取得する(ステップS11)。
First, the vector
次に、ベクターデータ変換出力装置10は、取得したSWF形式のベクターデータに係る線分データを、フィルスタイルで分類し、フィルスタイル毎に線分メモリ102に格納する(ステップS12)。
Next, the vector data conversion /
図8に、線分メモリ102に格納された線分リスト212を示す。本事例では、図8に示すように、フィルスタイルが“1”に係る線分リスト212のみが線分メモリ102に格納される。
FIG. 8 shows a
続いて接続探索部103は、線分リスト212において、各線分同士の接続関係を探索する(ステップS13)。当該探索は、線分番号“1”(第1要素線分)の第1の端点(1,0)からスタートする。探索方法は図4で示した手法と同様であるため説明は省略する。結果として、接続探索部103は、線分番号“1”、“2”、“3”、“4”がこの順番に接続されていると判定する。
Subsequently, the
次に閉空間判定制御部104は、当該線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“1”)における開始接続点が(1,0)である。そして、判定を終了した座標は線分番号“1”のもう一方の端点(0,0)である。したがって閉空間判定制御部104は、線分番号“1”、“2”、“3”、“4”の組合せが、閉空間を形成すると判定し、ステップS15に進む。
Next, the closed space
続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“1”、“2”、“3”、“4”がこの順で接続されていることを、閉空間メモリ105に格納する。このようにして格納された閉空間リスト213を図9に示す。
Subsequently, the closed space
続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“1”、“2”、“3”、“4”に係る確定済みフラグをすべて“確定済”に更新する。
Subsequently, the closed space
続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。本事例においては、未確定の線分があるため、ステップS13に進む。
Subsequently, the
続いて、接続探索部103は、線分リスト212において、各線分同士の接続関係を探索する(ステップS13)。線分番号“1”から線分番号“4”の線分については確定済みフラグが“確定済”であるため、線分番号“5”を新たに第1要素線分として選択し、第1要素線分の第1の端点から(0.75,0.25)接続探索をスタートする。判定方法は図4で示した手法と同様であるため説明は省略する。結果として、接続探索部103は、線分番号“5”、“6”、“7”、“8”がこの順番に接続されていると判定する。
Subsequently, the
次に閉空間判定制御部104は、当該接続判定された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“5”)における開始接続点が(0.75,0.25)。そして、判定を終了した座標は線分番号“5”のもう一方の端点(0.25,0.25)である。したがって閉空間判定制御部104は、線分番号“5”、“6”、“7”、“8”の組合せが、閉空間を形成すると判定し、ステップS15に進む。
Next, the closed space
続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“5”、“6”、“7”、“8”がこの順で接続されていることを、閉空間メモリ105に格納する。閉空間リスト213が更新されて、新たに閉空間の情報が格納された閉空間リスト214を図9に示す。
Subsequently, the closed space
続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“5”、“6”、“7”、“8”に係る確定済みフラグをすべて“確定済”に更新する。
Subsequently, the closed space
続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定し(ステップS17)、全て確定済みであるため次のステップに進む。
Subsequently, the
続いてベクターデータ出力部106は、閉空間メモリ105に基づきベクターデータを出力する(ステップS18)。ここでベクターデータ出力部106は、閉空間の重なり合う部分のフィルスタイルについては、排他的論理和により合成して出力する。具体的には、閉空間番号“1”の閉空間は、閉空間番号“2”の閉空間の閉空間を全て含む。したがって、閉空間番号“2”の閉空間は、閉空間番号“1”及び閉空間番号“2”により2回、フィルスタイルが規定されることになる。このときベクターデータ出力部106は、排他的論理和により当該フィルスタイルを合成する。すなわち、フィルスタイルが同値であった場合には当該空間のフィルスタイルは“0”、つまり透明であるとして画像出力処理をする。
Subsequently, the vector
ベクターデータ出力部106が出力したベクターデータにより構成される画像がディスプレイ等により表示される場合の表示例を、図10に示す。図10に示すとおり、閉空間番号“2”の閉空間は透明となり、すなわち閉空間が彩色されないことになる。
FIG. 10 shows a display example when an image composed of vector data output from the vector
(1.3)実施の形態1にかかる発明の効果
このように本発明によれば、接続探索部103が、SWF形式のベクターデータを構成する線分の接続関係を探索して標準的なベクターデータに変換して、変換後のベクターデータを出力するため、FLASH再生ソフトを備えない電子機器であっても、SWF形式のベクターデータで構成された画像を表示することができる。
(1.3) Effects of the Invention According to the First Embodiment As described above, according to the present invention, the
(1.4)変形例
なお、本実施の形態1においてはフィルスタイルとして閉空間を塗りつぶす色を確定する例を示したがこれに限られない。フィルスタイルは閉空間の塗りつぶすスタイルを特定する態様であれば如何なる態様でもよく、例えば閉空間を所定の色のグラデーションや模様等で塗りつぶしてもよい。
(1.4) Modification Although the first embodiment has shown an example in which the color for filling the closed space is determined as the fill style, the present invention is not limited to this. The fill style may be any mode as long as it specifies a style to fill the closed space. For example, the closed space may be filled with a predetermined color gradation or pattern.
なお、本実施の形態においては、線分データを2つの端点により規定される直線として説明したが、これに限られず曲線でもよい。曲線の場合には、線分1本につき、2つの端点のほかに、カーブの基準となる点が1点必要になる。この場合であっても2つの端点についての接続探索をすることには相違ない。したがって本ベクターデータ変換出力装置は、直線だけでなく、曲線の場合においても適用することができる。 In the present embodiment, the line segment data has been described as a straight line defined by two end points. However, the present invention is not limited to this and may be a curved line. In the case of a curve, one point that is a reference for the curve is required in addition to the two end points per line segment. Even in this case, there is no difference in performing a connection search for two end points. Therefore, this vector data conversion output device can be applied not only to a straight line but also to a curved line.
(実施の形態2)
(2.1)ベクターデータ変換出力装置の構成
以下、本発明の実施の形態2について説明する。図11は本発明の実施の形態2の構成を示すブロック図である。以下、実施の形態1と同一の構成については同一の符号を付し、説明は省略する。実施の形態2に係るベクターデータ変換出力装置20は、実施の形態1に係るベクターデータ変換出力装置10の構成と比較して、動画メモリ107と、命令メモリ108と、動画制御部109と、動画出力部110とを備える点が相違する。動画メモリ107には、ベクターデータを構成する複数の画像要素が格納される。当該ベクターデータは、ベクターデータ出力部106から出力されたものであってもよいが、これには限定されない。当該ベクターデータは、上述した標準形式のベクターデータであれば、ベクターデータ出力部106以外から出力されたものであってもよいし、予め格納されたデータであってもよい。動画メモリ107に格納される情報の概念図を図12に示す。
(Embodiment 2)
(2.1) Configuration of Vector Data Conversion / Output Device Hereinafter, a second embodiment of the present invention will be described. FIG. 11 is a block diagram showing the configuration of the second embodiment of the present invention. Hereinafter, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. Compared with the configuration of the vector data
動画メモリ107は、ライブラリ31と、メインリール32と、プロジェクタ33と、を備える。
The moving
ライブラリ31は、ベクターデータを構成する画像要素(以下、「シェープ」という。)が格納されるメモリ領域である。画像要素は、ベクターデータ全体を複数に分割することにより得られる小さなベクターデータ(セグメント)である。またライブラリ31にはサブリール313が格納される。シェープやサブリール313をそれぞれ「アクター」とよぶ。シェープについては、例えば閉空間を1つのシェープとしてもよいし、2つ以上の閉空間を組み合わせて1つのシェープとしてもよい。シェープ311及びシェープ312はそれぞれ人物イメージの胴体を表すシェープと、人物イメージの頭を表すシェープである。シェープ311及びシェープ312は、メインリール32のアクターであってもよく、サブリール313のアクターであってもよい。サブリール313は後述するメインリール32と同様の構成をとり、シェープに対する命令と、シェープを配置する格納領域を組み合わせて構成される。なお、各シェープによって形成されるイメージは例示に過ぎず、各シェープは人物イメージ以外のイメージを構成するものであってもよいことは勿論である。また、シェープの範囲は任意に設定することができる。本実施例では、人物イメージを、胴体を表すシェープと、頭を表すシェープとの2シェープによって構成しているが、これに限定されるものではない。例えば、人物イメージを、胴体部分と頭部分との双方を含む1つのシェープとして規定してもよい。また、例えば、胴体部分をさらに分割し、胴体イメージを、腕を表すシェープと、体幹を表すシェープと、足を表すシェープとにより規定してもよい。
The
メインリール32は、アクターを組み合わせて配置し格納するメモリ領域である。メインリール32はさらに、スライド領域321と、コンテナ322とを備える。
The
スライド領域321は、アクターに対する配置、移動、回転、及び変形等を行う命令を、時系列毎に格納するメモリ領域である。図12に示すスライド領域321には、6つのスライド(スライド321a、321b、321c、321d、321e、321f)が格納されている。つまり、当該6つのスライドは、例えばフレームレートが1fpsであるとすると、左から0秒、1秒、2秒、3秒、4秒、5秒の時点において、各アクターに対して行われる命令を示している。当該命令に従い、コンテナ322に配置したアクターを移動、回転、及び変形することにより、各時間において指定されたベクターデータによって構成される画像が描画され、動画を出力することができる。
The
コンテナ322は、スライド321に格納された命令に従ってライブラリ31から取得したアクターを配置するメモリ領域である。
The
サブリール313はメインリール32と類似の構成であり、スライド領域3131とコンテナ3132を有する。サブリールのコンテナ3132は、メインリール32のコンテナ322に配置される。またサブリール313は、アクターに対する命令をスライド領域3131にあらかじめ格納している。スライド領域3131にはサブリール313のスライド(スライド3131a、スライド3131b)が配置される。当該2つのスライドには、好ましくは、メインリール32のスライド領域321の各スライドに設定されたフレームレートと同じフレームレート(例えば、1fps)が設定される。このように設定された場合、メインリール32のスライド領域321と、サブリール313のスライド領域3131は同期し、同一のタイミングで対応するスライドに記述された命令が実行される。詳細については後述するが、例えば、メインリールのスライド321bにおいてサブリール313が呼び出された場合、メインリールのスライド321bとサブリールのスライド3131aとが同期し、メインリールのスライド321cとサブリールのスライド3131bとが同期する。このようにサブリール313に命令を記述することで、定型的なアニメーションをするアクターを容易に処理することができる。以下においては、メインリール32のスライド領域321と、サブリール313のスライド領域3131とが同期している場合について説明するが、これに限定されるものではなく、メインリール32のスライド領域321及びサブリール313のスライド領域3131にはそれぞれ異なるフレームレートが設定されてもよい。
The
プロジェクタ33は、メインリール32のコンテナ322をコピーし格納するメモリ領域である。当該メモリ領域は動画出力部110が用いる。
The
命令メモリ108には、メインリール32及びサブリール313の各スライドにおける命令が順次格納される。
The
動画制御部109は、アクターを、移動、回転、及び変形(拡大、縮小)をすることによって、描画される画像を制御する。すなわち、動画制御部109は、動画メモリ107の情報を命令メモリ108に格納された命令に従い制御する。また動画制御部109は、ベクターデータ変換出力装置20の動画出力に係る各種制御を行う。
The moving
動画出力部110は、移動、回転、変形した複数のアクターを組み合わせたベクターデータを所定時間間隔毎に動画として出力する。具体的には、動画メモリ107のプロジェクタ33に格納されることにより描画された画像情報を出力する。
The moving
(2.2)動画の出力動作
図13は本発明の実施の形態2のベクターデータ変換出力装置20の動作を表すフローチャートである。また、図14から図19は、ベクターデータ変換出力装置20の動作時における、動画メモリ107の概念図である。以下、動画メモリ107の概念図と共にフローチャートに沿って動作を説明する。
(2.2) Moving Image Output Operation FIG. 13 is a flowchart showing the operation of the vector data conversion /
はじめに、動画制御部109は、動画処理の準備をする(ステップS21)。ここでは、動画に必要なベクターデータ及び命令を、すべて動画メモリ107に格納する。すなわち、ライブラリ31と、メインリール32のスライド領域321に、動画処理に必要な全てのデータを格納する。図12に示す動画メモリ107の概念図は、これらの情報を格納した一例を示している。
First, the moving
次に、動画制御部109は、動画メモリ107における、メインリール32、及び有効なサブリール313のスライドを進め、命令リストを更新する(ステップS22)。すなわちスライド領域321に格納された、スライド321aに記述された命令を、命令メモリ108に格納する。図12に示す動画メモリ107の概念図に従うと、命令“setBGColor 1”を格納する。当該命令は、コンテナ322の背景色を1にするという命令である。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“setBGColor 1”を実行し、背景色を1にする。なお実行した命令は、実行後に命令メモリ108から削除される。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。すなわちメインリール32のコンテナ322に命令結果を格納する。ここでは背景色を1にする命令を実行した結果、図14のコンテナ322の背景色が変化している。また、プロジェクタ33はコンテナ322のコピーであるため、同様に背景色が変化している。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り5つあるため、動画制御部109は“いいえ”と判定する。
Subsequently, the moving
続いて動画制御部109は、次のスライドに移動する前に所定の時間待機する(ステップS26)。当該待機時間は動画のフレームレートによって適宜設定される。本事例では、フレームレートは1fpsであるものとして説明する。すなわち、各スライドの命令が1秒毎に実行されることになる。
Subsequently, the moving
次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321bに記述された命令を、命令メモリ108に格納する。図14に示す動画メモリ107の概念図に従うと、命令“place Actor Person”を実行する。当該命令は、ライブラリ31におけるアクターの“Person”のコンテナ3132をコンテナ322に配置するという命令である。ここで、アクター“Person”はサブリール313としてライブラリ31に格納されているため、当該サブリール313に格納されたスライドの命令も命令メモリ108に格納する。すなわち、スライド3131aに記載された命令“place Actor head”と、“place Actor body”を命令リストに格納する。当該命令はそれぞれ、アクター“head”(シェープ312)とアクター“body”(シェープ311)とをコンテナ3132に配置するという命令である。このようにメインリール32のスライド領域321と、サブリール313のスライド領域3131は同期し、同一のタイミングでスライドに記述された命令が実行される。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“place Actor Person”と、“place Actor head”と、“place Actor body”とを実行する。なお、配置位置については、各命令の中に含めておくことができる。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に描画する(ステップS24)。ここでは上記命令を実行した結果、図15のサブリール313のコンテナ3132に、人物イメージの胴体を表すシェープ311と、人物イメージの頭を表すシェープ312が配置され、さらにコンテナ3132がメインリール32のコンテナ322に配置される。その結果、コンテナ322に各アクターが配置され、人物イメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り4つあるため、動画制御部109は“いいえ”と判定する。
Subsequently, the moving
続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。
Subsequently, the moving
次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、まずメインリール32のスライド領域321に格納された、スライド321cに記述された命令を、命令メモリ108に格納する。また、サブリール313のスライドも進めて命令リストを更新する。具体的には、スライド領域3131のスライド3131bに記述された命令を命令メモリ108に格納する。図15の概念図に従うと、メインリール32の3番目のスライド(スライド321c)に記述された命令“scale Person”及び命令“translate Person”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313。より具体的には、コンテナ3132に配置されたシェープ311及びシェープ312で構成される人物イメージ)を拡大する命令、及び、移動する命令である。またサブリール313に格納された2番目のスライドの命令も命令メモリ108に格納する。すなわち、命令“rotate head”を命令リストに格納する。当該命令はライブラリ31におけるアクターの“head”(シェープ312)を回転して配置するという命令である。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“scale Person”と、“translate Person”と、“rotate head”とを実行する。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図16に示すとおり、コンテナ322に人物イメージ全体の大きさが変更(ここでは拡大)され、右に平行移動し、かつ頭部分が回転し、イメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。なお、イメージ全体の大きさの変更率については、命令“scale Person”の中に含めておくことができる。また、移動方向や移動量については、命令“translate Person”の中に含めておくことができる。また、回転方向や回転量については、命令“rotate head”の中に含めておくことができる。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り3つあるため、動画制御部109は“いいえ”と判定する。
Subsequently, the moving
続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。
Subsequently, the moving
次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321dに記述された命令を、命令メモリ108に格納する。なお、サブリール313のスライドは2番目までしかないため、サブリール313に係る命令は以後存在しない。したがって、図16の概念図に従うと、命令“rotate Person”、命令“scale Person”及び命令“translate Person”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313)を回転する命令、拡大する命令、及び、移動する命令である。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“rotate Person”、命令“scale Person”及び命令“translate Person”を実行する。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図17に示すとおり、コンテナ322に人物イメージ全体が回転し、大きさが変更(ここでは縮小)され、かつ左上に移動したイメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り2つあるため、動画制御部109は“いいえ”と判定する。
Subsequently, the moving
続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。
Subsequently, the moving
次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321eに記述された命令を、命令メモリ108に格納する。したがって、図17の概念図に従うと、命令“translate Person”及び命令“placeActor Head”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313)を移動する命令、及びライブラリ31のアクターである“head”(シェープ312)をコンテナ322に配置する命令である。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“translate Person”及び命令“placeActor Head”を実行する。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。すなわちメインリール32のコンテナ322に命令結果を格納する。ここでは上記命令を実行した結果、図18に示すとおり、コンテナ322に、上方に移動した人物イメージと、人物の頭部分のイメージとが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物のイメージ及び人物の頭部分のイメージが描画される。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り1つあるため、動画制御部109は“いいえ”と判定する。
Subsequently, the moving
続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。
Subsequently, the moving
次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわちスライド領域321に格納された、スライド321fに記述された命令を、命令メモリ108に格納する。つまり、図19の概念図に従うと、命令“removeActor Person”を格納する。当該命令は、コンテナ322に配置したアクターの“Person”(サブリール313)を削除する命令である。
Next, the moving
続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“removeActor Person”を実行する。
Subsequently, the moving
続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図19に示すとおり、コンテナ322において人物イメージが削除され、人物の頭部分のイメージのみが残る。
Subsequently, the moving
そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。
Then, the moving
続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドの残りが無いため、動画制御部109は“はい”と判定し、処理が終了する。
Subsequently, the moving
(2.3)実施の形態2に係る発明の効果
このように、実施の形態2にかかるベクターデータ変換出力装置20は、動画メモリ107に、ベクターデータを構成する画像要素(ベクターデータのセグメント)に分けて記憶しておき、所定のタイミングで各画像要素を配置する。そして、配置された画像要素毎に、所定のタイミングで移動、回転及び変形をすることによって画像を構築し出力している。そのため、動画のフレームを更新する毎に、動画メモリ107には、ベクターデータを構成する画像要素のうち、動きのある画像要素(例えば、移動、回転または変形される画像要素)を改めて格納しなおす必要が無い。ベクターデータの動画メモリ107への格納処理と比較して、画像要素の配置、移動、回転及び変形処理の処理負荷はきわめて低い。したがって、ベクターデータの出力に係るベクターデータ変換出力装置の処理負荷を格段に低減することができ、画像及び動画の出力速度を格段に向上することができる。まず全ての画像要素を動画メモリ107に格納することから、処理開始時に多くのメモリ容量を要するため、特に、CPUの処理能力が低いが、メモリ容量は大きい携帯電話機器等において有用である。
(2.3) Effect of Invention According to Second Embodiment As described above, the vector data conversion /
(2.3)変形例
なお、本実施の形態2においては動画メモリ107が、メインリール32と、サブリール313とを備える構成としたがこれに限られない。すなわち、サブリールがさらにサブサブリールを配置するように階層的な構成をとり得る。このようにしてあらかじめサブリール、サブサブリールとしてアクターに対する命令をライブラリ31に格納しておくことで、アクターに対する命令を効率よく行うことができる。
(2.3) Modification Although the moving
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each member, each means, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of means, steps, etc. can be combined into one or divided. Is possible.
10 ベクターデータ変換出力装置
20 ベクターデータ変換出力装置
31 ライブラリ
32 メインリール
33 プロジェクタ
101 ベクターデータ取得部
102 線分メモリ
103 接続探索部
104 閉空間判定制御部
105 閉空間メモリ
106 ベクターデータ出力部
107 動画メモリ
108 命令メモリ
109 動画制御部
110 動画出力部
201 SWFベクターデータ
202、203 線分リスト
204、205 閉空間リスト
211 SWFベクターデータ
212 線分リスト
213、214 閉空間リスト
311、312 シェープ
313 サブリール
321 スライド領域
321a、321b、321c、321d、321e、321f スライド
322 コンテナ
3131 スライド領域
3131a、3131b スライド
3132 コンテナ
DESCRIPTION OF
上記課題を解決するために本発明に係る動画出力装置は、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリと、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
In order to solve the above problems, a moving image output apparatus according to the present invention provides:
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. A memory for sequentially storing instructions in
A moving image output unit that outputs a moving image based on the image element in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
また本発明に係る動画出力方法は、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備える動画出力装置による動画出力方法であって、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップ、を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The moving image output method according to the present invention includes:
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. A video output method by a video output device comprising a memory for sequentially storing instructions in
Outputting a moving image according to the image element according to the instructions stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
また本発明に係るプログラムは、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備えるコンピュータに、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The program according to the present invention is
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. In a computer having a memory for sequentially storing instructions in
A program for executing a step of outputting a moving image based on the image element according to the instruction stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.
Claims (9)
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、動画出力装置。 An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area Memory sequentially storing,
A moving image output unit that outputs a moving image by arranging the image elements stored in the memory in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The moving image output apparatus, wherein the memory sequentially stores instructions at a predetermined time among the plurality of instructions of the second slide area.
前記接続探索部により接続探索された線分データの組み合わせが閉空間を形成するかどうかを判定する閉空間判定制御部と、
前記閉空間判定制御部により閉空間を形成すると判定されたデータに基づいて複数の前記画像要素により構成される第2のベクターデータを出力するベクターデータ出力部と、
をさらに備え、
前記フィルスタイルは、所定のパターンで前記閉空間を塗りつぶすか否かを示し、前記閉空間を塗りつぶす場合は、さらに前記閉空間を塗りつぶす所定のパターンを示し、前記所定のパターンは、塗りつぶす色、所定の色のグラデーション、模様の少なくとも1つを含み、
前記画像要素は、前記第2のベクターデータが出力される毎にメモリに順次記憶されることを特徴とする、請求項6に記載の動画出力装置。 A connection search unit for extracting line segment data in the first vector data and searching for a connection relationship between the line segment data for each fill style of the line segment data;
A closed space determination control unit that determines whether a combination of line segment data searched for connection by the connection search unit forms a closed space;
A vector data output unit that outputs second vector data composed of a plurality of the image elements based on data determined to form a closed space by the closed space determination control unit;
Further comprising
The fill style indicates whether or not the closed space is filled with a predetermined pattern. When the closed space is filled, the fill style indicates a predetermined pattern that further fills the closed space. Color gradient, including at least one of the patterns,
7. The moving image output apparatus according to claim 6, wherein the image elements are sequentially stored in a memory every time the second vector data is output.
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力するステップ、を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、動画出力方法。 An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area A moving image output method by a moving image output device including a memory for sequentially storing
Outputting a moving image by arranging the image elements stored in the memory according to the instructions stored in the memory;
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The moving image output method according to claim 1, wherein among the plurality of commands in the second slide area, commands at a predetermined time are sequentially stored in the memory.
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、プログラム。 An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area In a computer having a memory for sequentially storing
A program for executing a step of outputting a moving image by arranging the image elements stored in the memory in accordance with the instructions stored in the memory,
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The program in which the instruction at a predetermined time among the plurality of instructions of the second slide area is sequentially stored in the memory.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014257592A JP5756558B2 (en) | 2014-12-19 | 2014-12-19 | Movie output device, movie output method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014257592A JP5756558B2 (en) | 2014-12-19 | 2014-12-19 | Movie output device, movie output method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014125366A Division JP5671644B2 (en) | 2014-06-18 | 2014-06-18 | Movie output device, movie output method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015109094A true JP2015109094A (en) | 2015-06-11 |
JP5756558B2 JP5756558B2 (en) | 2015-07-29 |
Family
ID=53439346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014257592A Active JP5756558B2 (en) | 2014-12-19 | 2014-12-19 | Movie output device, movie output method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5756558B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017021322A (en) * | 2015-07-07 | 2017-01-26 | 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. | Quantum dot dispersion and self-luminous photosensitive resin composition comprising the same, and color filter and image display device manufactured using the composition |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002103258A (en) * | 2000-09-28 | 2002-04-09 | Sony Corp | Authoring system, authoring method and recording medium |
JP2004356998A (en) * | 2003-05-29 | 2004-12-16 | Fuji Photo Film Co Ltd | Apparatus and method for dynamic image conversion, apparatus and method for dynamic image transmission, as well as programs therefor |
JP2005125460A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Motion editing device, motion editing method, and computer program for robotic device |
JP2005303907A (en) * | 2004-04-15 | 2005-10-27 | Fuji Photo Film Co Ltd | Image editing apparatus, method, and program |
JP2010066789A (en) * | 2008-09-08 | 2010-03-25 | Taito Corp | Avatar editing server and avatar editing program |
-
2014
- 2014-12-19 JP JP2014257592A patent/JP5756558B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002103258A (en) * | 2000-09-28 | 2002-04-09 | Sony Corp | Authoring system, authoring method and recording medium |
JP2004356998A (en) * | 2003-05-29 | 2004-12-16 | Fuji Photo Film Co Ltd | Apparatus and method for dynamic image conversion, apparatus and method for dynamic image transmission, as well as programs therefor |
JP2005125460A (en) * | 2003-10-24 | 2005-05-19 | Sony Corp | Motion editing device, motion editing method, and computer program for robotic device |
JP2005303907A (en) * | 2004-04-15 | 2005-10-27 | Fuji Photo Film Co Ltd | Image editing apparatus, method, and program |
JP2010066789A (en) * | 2008-09-08 | 2010-03-25 | Taito Corp | Avatar editing server and avatar editing program |
Non-Patent Citations (4)
Title |
---|
CSND200401126007; 吉岡梅: '"Part2 はじめてのFlashムービー作り"' 日経ソフトウエア 第6巻, 第11号, 20031024, p.80-84, 日経BP社 * |
CSND200500033014; 吉岡梅: '"プログラマのためのFlash入門 第4回"' 日経ソフトウエア 第7巻, 第7号, 20040624, p.126-131, 日経BP社 * |
JPN6015007634; 吉岡梅: '"プログラマのためのFlash入門 第4回"' 日経ソフトウエア 第7巻, 第7号, 20040624, p.126-131, 日経BP社 * |
JPN6015007635; 吉岡梅: '"Part2 はじめてのFlashムービー作り"' 日経ソフトウエア 第6巻, 第11号, 20031024, p.80-84, 日経BP社 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017021322A (en) * | 2015-07-07 | 2017-01-26 | 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. | Quantum dot dispersion and self-luminous photosensitive resin composition comprising the same, and color filter and image display device manufactured using the composition |
Also Published As
Publication number | Publication date |
---|---|
JP5756558B2 (en) | 2015-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101400935B1 (en) | Image processing device, information processing device, image processing method, and information processing method | |
US20130097552A1 (en) | Constructing an animation timeline via direct manipulation | |
JP2001197366A (en) | Picture synthesis method and recording medium recording picture synthesis program | |
EP2747033B1 (en) | Information processing device, information processing method, and data structure of content file | |
CN109725795A (en) | A kind of method, apparatus and computer readable medium for Multi-view display | |
JPH0325792B2 (en) | ||
US7974497B2 (en) | Method of modifying the region displayed within a digital image, method of displaying an image at plural resolutions, and associated device | |
US10685470B2 (en) | Generating and providing composition effect tutorials for creating and editing digital content | |
JP5756558B2 (en) | Movie output device, movie output method, and program | |
US20240078730A1 (en) | Content-specific-preset edits for digital images | |
JP5671644B2 (en) | Movie output device, movie output method, and program | |
US9601091B2 (en) | Information processing apparatus and information processing method | |
JP5567231B2 (en) | Vector data conversion output device, vector data conversion output method, and vector data conversion output program | |
JP5564153B1 (en) | Vector data conversion output device, vector data conversion output method, and vector data conversion output program | |
JP5512604B2 (en) | Vector data conversion output device, vector data conversion output method, and vector data conversion output program | |
JP5512603B2 (en) | Vector data conversion output device, vector data conversion output method, and vector data conversion output program | |
WO2012164959A1 (en) | Vector data conversion output device, vector data conversion output method and vector data conversion output program | |
US20110310108A1 (en) | Information processing system, information processing method, and information processing apparatus | |
CN111460770B (en) | Method, device, equipment and storage medium for synchronizing element attributes in document | |
CN115564857A (en) | Video production method and related equipment | |
JP2016085642A (en) | Operation support method, operation support program, and operation support apparatus | |
CN113867877A (en) | Page display method and device | |
CN113301416B (en) | Voice frame display method | |
EP4450137A1 (en) | Split-screen special effect prop generating method and apparatus, device, and medium | |
JP2009176217A (en) | Image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150420 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5756558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |