JP2015109094A - Moving image output device, moving image output method, and program - Google Patents

Moving image output device, moving image output method, and program Download PDF

Info

Publication number
JP2015109094A
JP2015109094A JP2014257592A JP2014257592A JP2015109094A JP 2015109094 A JP2015109094 A JP 2015109094A JP 2014257592 A JP2014257592 A JP 2014257592A JP 2014257592 A JP2014257592 A JP 2014257592A JP 2015109094 A JP2015109094 A JP 2015109094A
Authority
JP
Japan
Prior art keywords
line segment
moving image
memory
stored
instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014257592A
Other languages
Japanese (ja)
Other versions
JP5756558B2 (en
Inventor
パロット ジェイソン
Parrott Jason
パロット ジェイソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2014257592A priority Critical patent/JP5756558B2/en
Publication of JP2015109094A publication Critical patent/JP2015109094A/en
Application granted granted Critical
Publication of JP5756558B2 publication Critical patent/JP5756558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving image output device, a moving image output method, and a program which are capable of outputting a moving image.SOLUTION: The moving image output device comprises: a memory for storing moving image elements, storing a first slide region that stores, for each time series, a plurality of instructions pertaining to drawing the moving image elements, and sequentially storing an instruction at a prescribed time of day among the plurality of instructions in the first slide region; and a moving image output unit for outputting a moving image by arranging the moving image elements stored in the memory in accordance with the instructions stored in the memory. The plurality of instructions in the first slide region include an instruction for storing, for each time series, the plurality of instructions for a prescribed moving image elements and invoking instructions in a second slide region stored in the memory. Among the plurality of instructions in the second slide region, an instruction at a prescribed time of day is sequentially stored in the memory.

Description

本発明は、ベクターデータ変換出力装置、ベクターデータ変換出力方法、及びベクターデータ変換出力プログラムに関する。   The present invention relates to a vector data conversion output device, a vector data conversion output method, and a vector data conversion output program.

近年、FLASH(登録商標)により、各種ウェブページにおいて静止画及び動画のコンテンツが広く提供されている(特許文献1)。FLASHで描画される画像データは、ベクターデータであるSWF(Small Web Format)形式により記述されている。SWF形式のベクターデータは独自のフォーマットを採用している。具体的にはSWF形式のベクターデータは、画像データを、複数の線分と、各線分の始点(MoveTo)、終点(LineTo)、及び各線分の左右のフィルスタイル(Fillstyle)により規定している。なお、フィルスタイルとは、空間を塗りつぶす様式を意味し、例えば淡色の色で塗りつぶすこと等を意味する。   In recent years, FLASH (registered trademark) has widely provided content of still images and moving images on various web pages (Patent Document 1). Image data drawn by FLASH is described in SWF (Small Web Format) format which is vector data. The SWF format vector data uses a unique format. Specifically, vector data in SWF format defines image data by a plurality of line segments, the start point (MoveTo), the end point (LineTo) of each line segment, and the left and right fill styles (Fillstyle) of each line segment. . The fill style means a style of filling a space, for example, filling with a light color.

特開2004−356998JP 2004-356998 A

しかしながら、Canvasや各種ドローソフト等における標準的なフォーマットでは、ベクターデータを、複数の連結した線分と、複数の連結した線分で閉じられる空間(以下、「閉空間」という。)のフィルスタイルにより規定している。これらの各フォーマット同士を対応付ける方法はこれまで提案されておらず、したがってFLASH再生ソフトを備えない電子機器ではSWF形式のベクターデータを再生することが不可能であった。また動画データを表示する際にベクターデータを一フレーム毎に毎回配置し格納する場合、処理装置に多大な処理負荷がかかった。   However, in a standard format such as Canvas or various drawing software, vector data is filled with a plurality of connected line segments and a fill style of a space closed by a plurality of connected line segments (hereinafter referred to as “closed space”). It is prescribed by. A method for associating these formats with each other has not been proposed so far, and it is impossible to reproduce vector data in the SWF format with an electronic device that does not include FLASH reproduction software. When vector data is arranged and stored every frame when displaying moving image data, a large processing load is applied to the processing apparatus.

本発明は、このような従来の課題を解決するものであり、処理負荷を低減して動画データを出力可能な動画出力装置、動画出力方法、及びプログラムを提供するものである。   The present invention solves such a conventional problem, and provides a moving image output apparatus, a moving image output method, and a program that can output moving image data with a reduced processing load.

上記課題を解決するために本発明に係る動画出力装置は、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリと、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
In order to solve the above problems, a moving image output apparatus according to the present invention provides:
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. Memory to
A moving image output unit that outputs a moving image based on the image element in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

また本発明に係る動画出力方法は、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備える動画出力装置による動画出力方法であって、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップ、
を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The moving image output method according to the present invention includes:
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. A video output method by a video output device including a memory for performing
Outputting a moving image by the image element in accordance with the instructions stored in the memory;
Including
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

また本発明に係るプログラムは、
画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備えるコンピュータに、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The program according to the present invention is
A main reel having a first slide area that stores a plurality of commands related to drawing of image elements in time series is stored, and among the plurality of commands in the first slide area, commands at a predetermined time are sequentially stored. To a computer with memory
A program for executing a step of outputting a moving image based on the image element according to the instruction stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

上記構成により動画出力装置、動画出力方法、及びプログラムによれば、処理負荷を低減して動画データを出力することができる。   According to the above configuration, the moving image output apparatus, the moving image output method, and the program can reduce the processing load and output moving image data.

本発明の実施の形態1に係る構成を表すブロック図である。It is a block diagram showing the structure which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る動作を表すフローチャートである。It is a flowchart showing the operation | movement which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るSWFベクターデータを表す図である。It is a figure showing SWF vector data concerning Embodiment 1 of the present invention. 本発明の実施の形態1に係る線分リストを表す図である。It is a figure showing the line segment list which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る閉空間リストを表す図である。It is a figure showing the closed space list which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るベクターデータ出力例を表す図である。It is a figure showing the vector data output example which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るSWFベクターデータを表す図である。It is a figure showing SWF vector data concerning Embodiment 1 of the present invention. 本発明の実施の形態1に係る線分リストを表す図である。It is a figure showing the line segment list which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る閉空間リストを表す図である。It is a figure showing the closed space list which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るベクターデータ出力例を表す図である。It is a figure showing the vector data output example which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る構成を表すブロック図である。It is a block diagram showing the structure which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動作を表すフローチャートである。It is a flowchart showing the operation | movement which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る動画メモリの概念図である。It is a conceptual diagram of the moving image memory which concerns on Embodiment 2 of this invention.

以下、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below.

(実施の形態1)
(1.1)ベクターデータ変換出力装置の構成
図1は本発明の実施の形態1に係るベクターデータ変換出力装置の構成を示すブロック図である。本発明の実施の形態1におけるベクターデータ変換出力装置10は、図1に示すように、ベクターデータ取得部101と、線分メモリ102と、接続探索部103と、閉空間判定制御部104と、閉空間メモリ105と、ベクターデータ出力部106とを備える。
(Embodiment 1)
(1.1) Configuration of Vector Data Conversion / Output Device FIG. 1 is a block diagram showing a configuration of a vector data conversion / output device according to Embodiment 1 of the present invention. As shown in FIG. 1, the vector data conversion output device 10 according to the first embodiment of the present invention includes a vector data acquisition unit 101, a line segment memory 102, a connection search unit 103, a closed space determination control unit 104, A closed space memory 105 and a vector data output unit 106 are provided.

ベクターデータ取得部101は、好ましくはウェブサイト等からSWF形式のベクターデータを取得する。なお、取得元はウェブサイトに限らず、ベクターデータ変換出力装置10が備えるハードディスク(不図示)に格納されたSWF形式のベクターデータを取得してもよい。なお「SWF形式」とは、複数の線分データから構成されるフォーマットであり、かつ、各線分データが、始点、終点及び線分の左右のフィルスタイルを定める形式をいう。したがって、SWF形式はSWFフォーマットのベクターデータを含み、かつSWFフォーマットと同様のベクターデータフォーマットを全て含む。   The vector data acquisition unit 101 preferably acquires SWF format vector data from a website or the like. The acquisition source is not limited to a website, and SWF format vector data stored in a hard disk (not shown) provided in the vector data conversion output device 10 may be acquired. The “SWF format” is a format composed of a plurality of line segment data, and each line segment data defines a start point, an end point, and left and right fill styles of the line segment. Therefore, the SWF format includes vector data in the SWF format and includes all vector data formats similar to the SWF format.

線分メモリ102には、ベクターデータ取得部101が取得したSWF形式のベクターデータにおける線分データを、線分データに係るフィルスタイルで分類し、線分リストとして格納される。線分リストは、線分における2つの端点の座標と、フィルスタイルの値を格納する。   In the line segment memory 102, the line segment data in the SWF format vector data acquired by the vector data acquiring unit 101 is classified by the fill style related to the line segment data and stored as a line segment list. The line segment list stores the coordinates of two end points in the line segment and the fill style value.

接続探索部103は、線分メモリ102に格納された線分リストについて、各線分同士の接続関係を探索する。接続関係の探索は、各線分の端点の座標を比較することにより行う。   The connection search unit 103 searches for a connection relationship between line segments in the line segment list stored in the line segment memory 102. The connection relationship is searched by comparing the coordinates of the end points of each line segment.

閉空間判定制御部104は、接続探索部103により接続探索された線分の組合せが、フィルスタイルと共に閉空間を形成するかを判定する。   The closed space determination control unit 104 determines whether the combination of line segments searched for connection by the connection search unit 103 forms a closed space together with the fill style.

閉空間メモリ105には、閉空間判定制御部104が閉空間を形成すると判定した線分データの組合せが、閉空間リストとして格納される。   In the closed space memory 105, a combination of line segment data determined by the closed space determination control unit 104 to form a closed space is stored as a closed space list.

ベクターデータ出力部106は、閉空間メモリ105に格納された閉空間リストに基づきベクターデータを出力する。   The vector data output unit 106 outputs vector data based on the closed space list stored in the closed space memory 105.

ここで、ベクターデータ変換出力装置10として機能させるために、コンピュータを好適に用いることができ、そのようなコンピュータは、ベクターデータ変換出力装置10の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部に格納しておき、当該コンピュータの中央演算処理装置(CPU)によってこのプログラムを読み出して実行させることで実現することができる。   Here, in order to function as the vector data conversion output device 10, a computer can be suitably used. Such a computer can execute a program describing processing contents for realizing each function of the vector data conversion output device 10. It can be realized by storing the program in a storage unit of the computer and reading out and executing the program by a central processing unit (CPU) of the computer.

(1.2)ベクターデータ変換出力装置10の動作
図2は、ベクターデータ変換出力装置10がSWFベクターデータを取得し、ベクターデータを出力する動作を示すフローチャートである。以下、代表的なSWFベクターデータを出力する場合を例に説明する。
(1.2) Operation of Vector Data Conversion Output Device 10 FIG. 2 is a flowchart showing an operation in which the vector data conversion output device 10 acquires SWF vector data and outputs vector data. Hereinafter, a case where typical SWF vector data is output will be described as an example.

(1.2.1)図3のSWFベクターデータに係るベクターデータ変換出力装置10の出力動作
まず、ベクターデータ変換出力装置10が、図3に示すSWFベクターデータ201を取得し、変換後のベクターデータを出力する例を示す。
(1.2.1) Output Operation of Vector Data Conversion / Output Device 10 for SWF Vector Data in FIG. 3 First, the vector data conversion / output device 10 acquires the SWF vector data 201 shown in FIG. An example of outputting data is shown.

はじめにベクターデータ取得部101は、好ましくはウェブサイト等から図3に係るSWF形式のベクターデータを取得する(ステップS11)。SWF形式のベクターデータは、図3に示すように、各線分について線分の始点の座標(x座標とy座標)と、線分の終点の座標と、線分の第1のフィルスタイル(線分の右側のフィルスタイル)と、線分の第2のフィルスタイル(線分の左側のフィルスタイル)により構成されている。   First, the vector data acquisition unit 101 preferably acquires vector data in the SWF format according to FIG. 3 from a website or the like (step S11). As shown in FIG. 3, the SWF format vector data includes the coordinates of the start point (x coordinate and y coordinate) of the line segment, the coordinate of the end point of the line segment, and the first fill style (line) of the line segment. And the second fill style of the line segment (fill style on the left side of the line segment).

なお、フィルスタイル“1”は所定のパターンで空間を塗りつぶし、フィルスタイル“2”は、それとは異なる所定のパターンで空間を塗りつぶし、フィルスタイル“0”は、空間を塗りつぶさないことを意味する。   The fill style “1” fills the space with a predetermined pattern, the fill style “2” fills the space with a different predetermined pattern, and the fill style “0” means that the space is not filled.

なお、ベクターデータ取得部101がベクターデータを取得する取得元はウェブサイトに限らず、ベクターデータ変換出力装置10が備える記憶部等(不図示)に格納されたSWF形式のベクターデータを取得してもよい。   The acquisition source from which the vector data acquisition unit 101 acquires vector data is not limited to a website, but vector data in SWF format stored in a storage unit (not shown) provided in the vector data conversion output device 10 is acquired. Also good.

次に、ベクターデータ変換出力装置10は、取得したSWF形式のベクターデータにおける線分データを、線分データに係るフィルスタイルで分類し、フィルスタイル毎に線分メモリ102に格納する(ステップS12)。   Next, the vector data conversion / output device 10 classifies the line segment data in the acquired SWF format vector data according to the fill style related to the line segment data, and stores it in the line segment memory 102 for each fill style (step S12). .

図4に、線分メモリ102に格納された線分データを示す。線分データは好ましくは、フィルスタイル毎に分類された線分リストとして格納される。図4では、フィルスタイルが“1”に係る線分リスト202と、フィルスタイルが“2”に係る線分リスト203が格納されている。線分リスト202、及び線分リスト203には、それぞれ、線分に係る情報として、線分番号と、線分に係る2つの端点と、フィルスタイルと、確定済みフラグとが格納される。第1の端点と第2の端点は、本事例においては第1の端点としてSWF形式の線分データの始点、第2の端点としてSWF形式の線分データの終点を格納するものとして説明するが、第1の端点としてSWF形式の線分データの終点、第2の端点としてSWF形式の線分データの始点が格納されていてもよい。確定済みフラグには、当該線分が閉空間を形成する線分として確定した場合に、“確定”が格納され、確定していない場合には“未”が格納される。当該フラグは接続の探索に用いる。なお、図4では、線分メモリ102には第1のフィルスタイルまたは第2のフィルスタイルのいずれか一方が“0”以外である線分データのみが含まれている場合について説明しているが、線分メモリ102には、第1のフィルスタイル及び第2のフィルスタイルの双方が“0”以外である線分データが含まれている場合もある。例えば、第1のフィルスタイルが“1”、第2のフィルスタイルが“2”である線分データが含まれる場合、この線分データは、図4における線分リスト202と線分リスト203との双方にそれぞれ格納される。また、例えば、第1のフィルスタイル及び第2のフィルスタイルの双方が“1”である線分データが含まれる場合、この線分データは、図4における線分リスト202に、2データ分として格納される。すなわち、「当該線分の線分番号、2つの端点、フィルスタイル(“1”)、確定済フラグ」を有するエントリが、線分リスト202に2つ作成される。   FIG. 4 shows line segment data stored in the line segment memory 102. The line segment data is preferably stored as a line segment list classified for each fill style. In FIG. 4, a line segment list 202 with a fill style of “1” and a line segment list 203 with a fill style of “2” are stored. Each of the line segment list 202 and the line segment list 203 stores a line segment number, two end points related to the line segment, a fill style, and a confirmed flag as information related to the line segment. In this example, the first end point and the second end point are described as storing the start point of line segment data in SWF format as the first end point, and the end point of line segment data in SWF format as the second end point. The end point of the SWF format line segment data may be stored as the first end point, and the start point of the SWF format line segment data may be stored as the second end point. The confirmed flag stores “determined” when the line segment is confirmed as a line segment forming a closed space, and stores “not yet” when the line segment is not confirmed. The flag is used for connection search. Note that FIG. 4 illustrates a case where the line segment memory 102 includes only line segment data in which either the first fill style or the second fill style is other than “0”. The line segment memory 102 may include line segment data in which both the first fill style and the second fill style are other than “0”. For example, when line segment data having the first fill style “1” and the second fill style “2” is included, the line segment data includes the line segment list 202 and the line segment list 203 in FIG. Are stored respectively. Further, for example, when line segment data in which both the first fill style and the second fill style are “1” is included, this line segment data is stored in the line list 202 in FIG. Stored. That is, two entries having “line number of the line segment, two end points, fill style (“ 1 ”), confirmed flag” are created in the line list 202.

続いて接続探索部103は、夫々の線分リストにおいて、各線分同士の接続を探索し、ある図形(閉空間を形成する図形、及び形成しない図形を含む。)を構成する線分(以下、要素線分という。)を抽出する(ステップS13)。具体的には接続探索部103は、線分リストにおける、ある線分の端点の座標と、当該線分リストに含まれるその他の線分の端点の座標を比較し、同一の座標であれば当該端点においてある線分と他の線分とは接続していると判定する。このときの同一の座標を接続点という。接続探索部103は、接続探索をしている線分が、当該探索処理において過去抽出してきた線分の端点のいずれかと一致した場合に、当該線分についての接続探索を終了する。   Subsequently, the connection search unit 103 searches each line segment list for a connection between the line segments, and forms a line segment (hereinafter, including a graphic that forms a closed space and a graphic that does not form a line) (hereinafter referred to as a graphic). The element line segment is extracted (step S13). Specifically, the connection search unit 103 compares the coordinates of the end points of a certain line segment in the line segment list with the coordinates of the end points of other line segments included in the line segment list. It is determined that a line segment at the end point is connected to another line segment. The same coordinates at this time are called connection points. The connection search unit 103 ends the connection search for the line segment when the line segment for which the connection search is performed matches any of the end points of the line segment extracted in the past in the search process.

図4に示す線分リスト202及び線分リスト203について接続探索部103が接続関係を判定する動作を説明する。まず接続探索部103は、線分リストの中で、確定済みフラグが“未”のうちで一番上に格納されている線分(線分番号が“1”の線分)を第1要素線分として選択し、第1要素線分の第1の端点の座標(1,0)について、他の線分との接続関係を探索する。接続関係の判定対象となる他の線分は、線分リスト202における、確定済みフラグが“未”の線分データである。座標の比較は、線分リスト202の上から順に行う。すると、当該座標と、線分番号“3”の第1の端点の座標(1,0)とが同一である。したがって接続探索部103は線分番号“1”と、線分番号“3”の線分が接続していると判定し、線分番号“3”の線分を第2要素線分として抽出する。以下、第1要素線分と第2要素線分との接続点(ここでは、座標(1,0))を、開始接続点という。なお、ある線分と他の線分との接続関係の探索においては、他の線分の第1の端点及び第2の端点の双方がある線分と他の線分との接続点の候補となり、以下の接続探索処理においても同様である。   An operation in which the connection search unit 103 determines the connection relationship for the line segment list 202 and the line segment list 203 illustrated in FIG. 4 will be described. First, the connection search unit 103 selects a line segment (line segment with a line segment number “1”) that is stored at the top of the line segment list among the “uncompleted” flags as the first element. A line segment is selected, and the connection relationship with other line segments is searched for the coordinates (1, 0) of the first end point of the first element line segment. The other line segment that is the target of connection relation determination is line segment data for which the confirmed flag in the line segment list 202 is “not yet”. The comparison of coordinates is performed in order from the top of the line segment list 202. Then, the coordinates and the coordinates (1, 0) of the first end point of the line segment number “3” are the same. Therefore, the connection searching unit 103 determines that the line number “1” and the line number “3” are connected, and extracts the line number “3” as the second element line segment. . Hereinafter, a connection point (here, coordinates (1, 0)) between the first element line segment and the second element line segment is referred to as a start connection point. In searching for a connection relationship between a certain line segment and another line segment, candidates for connection points between the line segment having both the first end point and the second end point of the other line segment and the other line segment are included. The same applies to the following connection search processing.

次に接続探索部103は、第2要素線分として抽出された、線分番号“3”の、もう一方の端点である第2の端点の座標(1,1)と同一の座標を探索する。ここで当該座標と、線分番号“7”の第1の端点の座標(1,1)とが同一である。したがって接続探索部103は線分番号“1”と、線分番号“7”の線分が接続していると判定し、線分番号“7”の線分を第3要素線分として抽出する。   Next, the connection search unit 103 searches for the same coordinates as the coordinates (1, 1) of the second end point that is the other end point of the line segment number “3” extracted as the second element line segment. . Here, the coordinates and the coordinates (1, 1) of the first end point of the line segment number “7” are the same. Therefore, the connection search unit 103 determines that the line number “1” and the line number “7” are connected, and extracts the line number “7” as the third element line segment. .

続いて接続探索部103は、第3要素線分として抽出された、線分番号“7”の、もう一方の端点である第2の端点の座標(0,1)と同一の座標を探索する。ここで当該座標と、線分番号“4”の第1の端点の座標(0,1)とが同一である。したがって接続探索部103は線分番号“7”と、線分番号“4”の線分が接続していると判定し、線分番号“4”の線分を第4要素線分として抽出する。   Subsequently, the connection search unit 103 searches for the same coordinates as the coordinates (0, 1) of the second end point that is the other end point of the line segment number “7” extracted as the third element line segment. . Here, the coordinates and the coordinates (0, 1) of the first end point of the line segment number “4” are the same. Accordingly, the connection search unit 103 determines that the line number “7” and the line number “4” are connected, and extracts the line number “4” as the fourth element line segment. .

続いて接続探索部103は、第4要素線分として抽出された、線分番号“4”の、もう一方の端点である第2の端点の座標(0,0)と同一の座標を探索する。ここで当該座標と、線分番号“1”の第2の端点の座標(0,0)とが同一である。したがって接続探索部103は線分番号“4”と、線分番号“1”の線分が接続していると判定する。接続探索部103は、接続関係の探索処理において過去抽出してきた要素線分の端点のいずれかと一致した場合、または、線分リストのいずれの端点とも一致しない場合に、当該線分についての接続探索を終了する。ここでは、第4要素線分(線分番号“4”)の第2の端点の座標が、過去に抽出された第1要素線分(線分番号“1”)の第2の端点の座標と同一であったため、接続探索部103は接続探索を終了する。   Subsequently, the connection search unit 103 searches for the same coordinates as the coordinates (0, 0) of the second end point that is the other end point of the line segment number “4” extracted as the fourth element line segment. . Here, the coordinates and the coordinates (0, 0) of the second end point of the line segment number “1” are the same. Therefore, the connection search unit 103 determines that the line number “4” and the line number “1” are connected. The connection search unit 103 searches for a connection for the line segment when it matches any of the end points of the element line segments extracted in the past in the connection relation search process or when it does not match any of the end points of the line segment list. Exit. Here, the coordinates of the second end point of the fourth element line segment (line segment number “4”) are the coordinates of the second end point of the first element line segment (line segment number “1”) extracted in the past. The connection search unit 103 ends the connection search.

接続探索部103が接続探索を終了した後に、閉空間判定制御部104が、当該接続探索された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。閉空間判定制御部104は、接続探索部103が要素線分として判定をスタートした線分(第1要素線分)の端点のうち、開始接続点ではない方の端点で接続探索を終了した場合に、当該線分の組合せが閉空間を形成すると判定する。そうでない場合には、閉空間判定制御部104は、閉空間を形成しないと判定する。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“1”)における開始接続点が(1,0)である。そして、判定を終了した座標は線分番号“1”のもう一方の端点(0,0)である。したがって閉空間判定制御部104は、第1要素線分(線分番号“1”)、第2要素線分(線分番号“3”)、第3要素線分(線分番号“7”)及び第4要素線分(線分番号“4”)線分の組合せが、閉空間を形成すると判定し、ステップS15に進む。なお、閉空間判定制御部104は、当該線分の組合せが閉空間を形成しないと判定した場合には、ステップS17へ進む。   After the connection search unit 103 finishes the connection search, the closed space determination control unit 104 determines whether the combination of the line segments searched for connection forms a closed space (step S14). When the closed space determination control unit 104 ends the connection search at the end point that is not the start connection point among the end points of the line segment (first element line segment) that the connection search unit 103 starts determining as the element line segment In addition, it is determined that the combination of the line segments forms a closed space. Otherwise, the closed space determination control unit 104 determines not to form a closed space. In this example, the start connection point in the first element line segment (line segment number “1”) from which the connection search unit 103 has started the determination is (1, 0). The coordinates for which the determination is completed are the other end point (0, 0) of the line segment number “1”. Therefore, the closed space determination control unit 104 includes the first element line segment (line segment number “1”), the second element line segment (line segment number “3”), and the third element line segment (line segment number “7”). And it determines with the combination of a 4th element line segment (line segment number "4") line segment forming closed space, and progresses to step S15. If the closed space determination control unit 104 determines that the combination of the line segments does not form a closed space, the process proceeds to step S17.

続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。   Subsequently, the closed space determination control unit 104 stores the combination of line segment data determined to form a closed space in the closed space memory 105 (step S15).

図5に、閉空間メモリ105に格納された閉空間リスト204を示す。閉空間リスト204は、閉空間の通し番号である“閉空間番号”と、“フィルスタイル”と、接続していると判定された線分番号を、接続順に格納する。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“1”、“3”、“7”、“4”がこの順で接続されており、図5に示すように格納される。このように、格納されるベクターデータは、Canvasや各種ドローソフト等における標準的なフォーマットと同一の形式であり、複数の連結した線分と、当該複数の連結した線分で閉じられる閉空間のフィルスタイルにより規定される。   FIG. 5 shows a closed space list 204 stored in the closed space memory 105. The closed space list 204 stores “closed space number”, which is a serial number of the closed space, “fill style”, and line numbers determined to be connected in the order of connection. Specifically, line numbers “1”, “3”, “7”, “4” are connected in this order as a closed space related to the fill style “1”, and are stored as shown in FIG. Is done. Thus, the stored vector data is in the same format as the standard format in Canvas, various drawing softwares, etc., and a plurality of connected line segments and a closed space closed by the plurality of connected line segments are used. Defined by fill style.

続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける、確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“1”、“3”、“7”、“4”に係る確定済みフラグをすべて“確定済”に更新する。   Subsequently, the closed space determination control unit 104 updates the confirmed flag in the line segment list stored in the line segment memory 102 to “confirmed” for the line segment data related to the closed space (step S16). That is, all the confirmed flags relating to the line segment numbers “1”, “3”, “7”, and “4” are updated to “confirmed”.

続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。確定済みでなければ、全てが確定済みになるまでステップS13からステップS17を繰り返す。本事例においては、線分リスト202については全て確定済みであるが、線分リスト203については確定済みでないため、ステップS13に進む。   Subsequently, the connection searching unit 103 refers to the confirmed flag in the line segment list stored in the line segment memory 102, and determines whether all the confirmed flags are “confirmed” (step S17). If not confirmed, step S13 to step S17 are repeated until all are confirmed. In this example, all the line segment list 202 has been confirmed, but since the line segment list 203 has not been confirmed, the process proceeds to step S13.

次に接続探索部103は、線分リスト203の線分について接続探索を行う(ステップS13)。接続探索部103は、線分リスト203のうち、確定済みフラグが“未”のうちで一番上に格納されている線分(線分番号“2”の線分)を第1要素線分として選択し、第1要素線分の第1の端点の座標(1,2)について、他の線分との接続関係を探索する。接続関係の判定対象となる線分は、線分リスト203における、確定済みフラグが“未”の線分データである。座標の比較は、線分リスト203の上から順に行う。すると、当該座標と、線分番号“5”の第2の端点の座標(1,2)とが同一である。したがって接続探索部103は線分番号“2”と、線分番号“5”の線分とが接続していると判定し、線分番号“5”の線分を第2要素線分として抽出する。   Next, the connection search unit 103 performs a connection search for the line segments in the line segment list 203 (step S13). In the line segment list 203, the connection search unit 103 sets the line segment (line segment with the line segment number “2”) stored at the top of the line segment list 203 that is “unknown” as the first element line segment. And the connection relationship with the other line segments is searched for the coordinates (1, 2) of the first end point of the first element line segment. The line segment for which the connection relationship is to be determined is line segment data for which the confirmed flag in the line segment list 203 is “not yet”. The comparison of coordinates is performed in order from the top of the line segment list 203. Then, the coordinates and the coordinates (1, 2) of the second end point of the line segment number “5” are the same. Therefore, the connection search unit 103 determines that the line number “2” and the line number “5” are connected, and extracts the line number “5” as the second element line segment. To do.

次に接続探索部103は、第2要素線分として抽出された、線分番号“5”の、もう一方の端点である第1の端点の座標(1,4)と同一の座標を探索する。ここで当該座標と、線分番号“6”の第2の端点の座標(1,4)とが同一である。したがって接続探索部103は線分番号“5”と、線分番号“6”の線分が接続していると判定し、線分番号“6”の線分を第3要素線分として抽出する。   Next, the connection search unit 103 searches for the same coordinates as the coordinates (1, 4) of the first end point which is the other end point of the line segment number “5” extracted as the second element line segment. . Here, the coordinates and the coordinates (1, 4) of the second end point of the line segment number “6” are the same. Therefore, the connection search unit 103 determines that the line number “5” and the line number “6” are connected, and extracts the line number “6” as the third element line segment. .

続いて接続探索部103は、第3要素線分として抽出された、線分番号“6”の、もう一方の端点である第1の端点の座標(0,3)と同一の座標を探索する。ここで当該座標と、線分番号“2”の第2の端点の座標(0,3)が同一である。したがって接続探索部103は線分番号“6”と、線分番号“2”の線分は接続していると判定する。接続探索部103は、過去抽出してきた要素線分の端点のいずれかと一致した場合、または線分リストのいずれの端点とも一致しない場合に、当該線分についての探索を終了する。したがって、ここでは、第3要素線分(線分番号“6”)の第1の端点の座標が、過去に抽出された第1要素線分(線分番号“2”)の第2の端点の座標と同一であったため、接続探索部103は接続探索をここで終了する。   Subsequently, the connection search unit 103 searches for the same coordinates as the coordinates (0, 3) of the first end point that is the other end point of the line segment number “6” extracted as the third element line segment. . Here, the coordinates and the coordinates (0, 3) of the second end point of the line segment number “2” are the same. Accordingly, the connection search unit 103 determines that the line segment number “6” and the line segment number “2” are connected. The connection search unit 103 ends the search for the line segment when it matches any of the end points of the element line segments extracted in the past or when it does not match any of the end points of the line segment list. Therefore, here, the coordinates of the first end point of the third element line segment (line segment number “6”) are the second end points of the first element line segment (line segment number “2”) extracted in the past. Therefore, the connection search unit 103 ends the connection search here.

続いて閉空間判定制御部104が、当該接続判定された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“2”)における開始接続点が(1,2)である。そして、接続探索を終了した座標は線分番号“2”のもう一方の端点(0,3)である。したがって閉空間判定制御部104は、第1要素線分(線分番号“2”)、第2要素線分(線分番号“5”)及び第3要素線分(線分番号“6”)の組合せが、閉空間を形成すると判定し、ステップS15に進む。   Subsequently, the closed space determination control unit 104 determines whether the combination of the line segments determined to be connected forms a closed space (step S14). In this example, the starting connection point in the first element line segment (line segment number “2”) that the connection search unit 103 has started determination is (1, 2). Then, the coordinates at which the connection search is completed are the other end point (0, 3) of the line segment number “2”. Accordingly, the closed space determination control unit 104 performs the first element line segment (line segment number “2”), the second element line segment (line segment number “5”), and the third element line segment (line segment number “6”). Is determined to form a closed space, and the process proceeds to step S15.

続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“2”に係る閉空間として、線分番号“2”、“5”、“6”がこの順で接続されており、図5に示す丙空間リスト204を更新し、閉空間リスト205のように閉空間メモリ105に新たな閉空間番号“2”として閉空間の情報が格納される。   Subsequently, the closed space determination control unit 104 stores the combination of line segment data determined to form a closed space in the closed space memory 105 (step S15). Specifically, line numbers “2”, “5”, and “6” are connected in this order as a closed space related to the fill style “2”, and the tile space list 204 shown in FIG. 5 is updated. The closed space information is stored in the closed space memory 105 as a new closed space number “2” as in the closed space list 205.

続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“2”、“5”、“6”に係る確定済みフラグをすべて“確定済”に更新する。   Subsequently, the closed space determination control unit 104 updates the confirmed flag in the line segment list stored in the line segment memory 102 to “confirmed” for the line segment data related to the closed space (step S16). That is, all the confirmed flags relating to the line segment numbers “2”, “5”, and “6” are updated to “confirmed”.

続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。本事例では、全ての線分が確定済みであるため次のステップに進む。   Subsequently, the connection searching unit 103 refers to the confirmed flag in the line segment list stored in the line segment memory 102, and determines whether all the confirmed flags are “confirmed” (step S17). In this example, since all the line segments have been confirmed, the process proceeds to the next step.

続いてベクターデータ出力部106は、閉空間メモリ105に基づきベクターデータを出力する(ステップS18)。閉空間メモリ105には、標準的なベクターデータフォーマットである、閉空間を形成する複数の線分のデータと、閉空間のフィルスタイルのデータが格納されているため、ベクターデータ出力部106は容易に当該データを出力できる。なおここでベクターデータの出力とは、ディスプレイを含む機器や受信部やメモリにベクターデータを送信することを意味する概念である。当該ベクターデータを受取った機器や受信部は、当該ベクターデータを容易に解釈し、ディスプレイ等に画像を表示することができる。   Subsequently, the vector data output unit 106 outputs vector data based on the closed space memory 105 (step S18). Since the closed space memory 105 stores data of a plurality of line segments forming the closed space, which is a standard vector data format, and fill style data of the closed space, the vector data output unit 106 can be easily used. Can output the data. Here, the output of vector data is a concept that means transmitting vector data to a device including a display, a receiving unit, or a memory. A device or receiving unit that has received the vector data can easily interpret the vector data and display an image on a display or the like.

当該ベクターデータによって構成される画像が、ディスプレイ等に出力される場合の表示例を図6に示す。図6は、線分番号“1”、“3”、“7”、“4”による閉空間と、線分番号“2”、“5”、“6”による閉空間が所定のフィルスタイルにより塗りつぶされ、表示されていることを示している。   FIG. 6 shows a display example when an image constituted by the vector data is output to a display or the like. FIG. 6 shows that a closed space with line numbers “1”, “3”, “7”, “4” and a closed space with line numbers “2”, “5”, “6” are in accordance with a predetermined fill style. Shows that it is filled and displayed.

(1.2.2)図7のSWFベクターデータに係るベクターデータ変換出力装置10の出力動作
次に、ベクターデータ変換出力装置10が、図7に示すSWFベクターデータ211を取得し、変換後のベクターデータを出力する例を示す。
(1.2.2) Output Operation of Vector Data Conversion / Output Device 10 According to SWF Vector Data in FIG. 7 Next, the vector data conversion output device 10 acquires the SWF vector data 211 shown in FIG. An example of outputting vector data is shown.

はじめにベクターデータ取得部101は、図7に示すSWF形式のベクターデータを取得する(ステップS11)。   First, the vector data acquisition unit 101 acquires SWF format vector data shown in FIG. 7 (step S11).

次に、ベクターデータ変換出力装置10は、取得したSWF形式のベクターデータに係る線分データを、フィルスタイルで分類し、フィルスタイル毎に線分メモリ102に格納する(ステップS12)。   Next, the vector data conversion / output device 10 classifies the line segment data related to the acquired SWF format vector data by the fill style, and stores it in the line segment memory 102 for each fill style (step S12).

図8に、線分メモリ102に格納された線分リスト212を示す。本事例では、図8に示すように、フィルスタイルが“1”に係る線分リスト212のみが線分メモリ102に格納される。   FIG. 8 shows a line segment list 212 stored in the line segment memory 102. In this example, as shown in FIG. 8, only the line segment list 212 with the fill style “1” is stored in the line segment memory 102.

続いて接続探索部103は、線分リスト212において、各線分同士の接続関係を探索する(ステップS13)。当該探索は、線分番号“1”(第1要素線分)の第1の端点(1,0)からスタートする。探索方法は図4で示した手法と同様であるため説明は省略する。結果として、接続探索部103は、線分番号“1”、“2”、“3”、“4”がこの順番に接続されていると判定する。   Subsequently, the connection search unit 103 searches for a connection relationship between the line segments in the line segment list 212 (step S13). The search starts from the first end point (1, 0) of the line segment number “1” (first element line segment). The search method is the same as that shown in FIG. As a result, the connection search unit 103 determines that the line segment numbers “1”, “2”, “3”, and “4” are connected in this order.

次に閉空間判定制御部104は、当該線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“1”)における開始接続点が(1,0)である。そして、判定を終了した座標は線分番号“1”のもう一方の端点(0,0)である。したがって閉空間判定制御部104は、線分番号“1”、“2”、“3”、“4”の組合せが、閉空間を形成すると判定し、ステップS15に進む。   Next, the closed space determination control unit 104 determines whether the combination of the line segments forms a closed space (step S14). In this example, the start connection point in the first element line segment (line segment number “1”) from which the connection search unit 103 has started the determination is (1, 0). The coordinates for which the determination is completed are the other end point (0, 0) of the line segment number “1”. Therefore, the closed space determination control unit 104 determines that the combination of the line segment numbers “1”, “2”, “3”, and “4” forms a closed space, and proceeds to step S15.

続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“1”、“2”、“3”、“4”がこの順で接続されていることを、閉空間メモリ105に格納する。このようにして格納された閉空間リスト213を図9に示す。   Subsequently, the closed space determination control unit 104 stores the combination of line segment data determined to form a closed space in the closed space memory 105 (step S15). Specifically, the closed space memory 105 indicates that the line numbers “1”, “2”, “3”, “4” are connected in this order as the closed space related to the fill style “1”. Store. FIG. 9 shows the closed space list 213 stored in this way.

続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“1”、“2”、“3”、“4”に係る確定済みフラグをすべて“確定済”に更新する。   Subsequently, the closed space determination control unit 104 updates the confirmed flag in the line segment list stored in the line segment memory 102 to “confirmed” for the line segment data related to the closed space (step S16). That is, all the confirmed flags relating to the line segment numbers “1”, “2”, “3”, and “4” are updated to “confirmed”.

続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定する(ステップS17)。本事例においては、未確定の線分があるため、ステップS13に進む。   Subsequently, the connection searching unit 103 refers to the confirmed flag in the line segment list stored in the line segment memory 102, and determines whether all the confirmed flags are “confirmed” (step S17). In this example, since there is an undetermined line segment, the process proceeds to step S13.

続いて、接続探索部103は、線分リスト212において、各線分同士の接続関係を探索する(ステップS13)。線分番号“1”から線分番号“4”の線分については確定済みフラグが“確定済”であるため、線分番号“5”を新たに第1要素線分として選択し、第1要素線分の第1の端点から(0.75,0.25)接続探索をスタートする。判定方法は図4で示した手法と同様であるため説明は省略する。結果として、接続探索部103は、線分番号“5”、“6”、“7”、“8”がこの順番に接続されていると判定する。   Subsequently, the connection search unit 103 searches for a connection relationship between the line segments in the line segment list 212 (step S13). For the line segment with line number “1” to line number “4”, since the confirmed flag is “confirmed”, the line number “5” is newly selected as the first element line segment, and the first The connection search is started from the first end point of the element line segment (0.75, 0.25). The determination method is the same as the method shown in FIG. As a result, the connection search unit 103 determines that the line segment numbers “5”, “6”, “7”, and “8” are connected in this order.

次に閉空間判定制御部104は、当該接続判定された線分の組合せが、閉空間を形成するかを判定する(ステップS14)。本事例においては、接続探索部103が判定をスタートした第1要素線分(線分番号“5”)における開始接続点が(0.75,0.25)。そして、判定を終了した座標は線分番号“5”のもう一方の端点(0.25,0.25)である。したがって閉空間判定制御部104は、線分番号“5”、“6”、“7”、“8”の組合せが、閉空間を形成すると判定し、ステップS15に進む。   Next, the closed space determination control unit 104 determines whether the combination of the line segments determined to be connected forms a closed space (step S14). In this example, the starting connection point in the first element line segment (line segment number “5”) from which the connection search unit 103 has started the determination is (0.75, 0.25). The coordinates for which the determination has been completed are the other end points (0.25, 0.25) of the line segment number “5”. Therefore, the closed space determination control unit 104 determines that the combination of the line segment numbers “5”, “6”, “7”, and “8” forms a closed space, and proceeds to step S15.

続いて閉空間判定制御部104は、閉空間を形成すると判定した線分データの組合せを、閉空間メモリ105に格納する(ステップS15)。具体的には、フィルスタイル“1”に係る閉空間として、線分番号“5”、“6”、“7”、“8”がこの順で接続されていることを、閉空間メモリ105に格納する。閉空間リスト213が更新されて、新たに閉空間の情報が格納された閉空間リスト214を図9に示す。   Subsequently, the closed space determination control unit 104 stores the combination of line segment data determined to form a closed space in the closed space memory 105 (step S15). Specifically, the closed space memory 105 indicates that the line numbers “5”, “6”, “7”, and “8” are connected in this order as the closed space related to the fill style “1”. Store. FIG. 9 shows a closed space list 214 in which the closed space list 213 is updated and information on the closed space is newly stored.

続いて閉空間判定制御部104は、当該閉空間に係る線分データについて、線分メモリ102に格納された線分リストにおける確定済みフラグを“確定済”に更新する(ステップS16)。すなわち、線分番号“5”、“6”、“7”、“8”に係る確定済みフラグをすべて“確定済”に更新する。   Subsequently, the closed space determination control unit 104 updates the confirmed flag in the line segment list stored in the line segment memory 102 to “confirmed” for the line segment data related to the closed space (step S16). That is, all the confirmed flags relating to the line segment numbers “5”, “6”, “7”, and “8” are updated to “confirmed”.

続いて接続探索部103は、線分メモリ102に格納された線分リストの確定済みフラグを参照し、確定済みフラグが全て“確定済”であるかを判定し(ステップS17)、全て確定済みであるため次のステップに進む。   Subsequently, the connection search unit 103 refers to the confirmed flag in the line segment list stored in the line memory 102, determines whether all the confirmed flags are “confirmed” (step S17), and all confirmed. Therefore, go to the next step.

続いてベクターデータ出力部106は、閉空間メモリ105に基づきベクターデータを出力する(ステップS18)。ここでベクターデータ出力部106は、閉空間の重なり合う部分のフィルスタイルについては、排他的論理和により合成して出力する。具体的には、閉空間番号“1”の閉空間は、閉空間番号“2”の閉空間の閉空間を全て含む。したがって、閉空間番号“2”の閉空間は、閉空間番号“1”及び閉空間番号“2”により2回、フィルスタイルが規定されることになる。このときベクターデータ出力部106は、排他的論理和により当該フィルスタイルを合成する。すなわち、フィルスタイルが同値であった場合には当該空間のフィルスタイルは“0”、つまり透明であるとして画像出力処理をする。   Subsequently, the vector data output unit 106 outputs vector data based on the closed space memory 105 (step S18). Here, the vector data output unit 106 synthesizes and outputs the fill styles of the overlapping portions of the closed space by exclusive OR. Specifically, the closed space with the closed space number “1” includes all of the closed spaces with the closed space number “2”. Therefore, the fill style of the closed space with the closed space number “2” is defined twice by the closed space number “1” and the closed space number “2”. At this time, the vector data output unit 106 synthesizes the fill style by exclusive OR. That is, when the fill style is the same value, the image output processing is performed assuming that the fill style of the space is “0”, that is, transparent.

ベクターデータ出力部106が出力したベクターデータにより構成される画像がディスプレイ等により表示される場合の表示例を、図10に示す。図10に示すとおり、閉空間番号“2”の閉空間は透明となり、すなわち閉空間が彩色されないことになる。   FIG. 10 shows a display example when an image composed of vector data output from the vector data output unit 106 is displayed on a display or the like. As shown in FIG. 10, the closed space with the closed space number “2” is transparent, that is, the closed space is not colored.

(1.3)実施の形態1にかかる発明の効果
このように本発明によれば、接続探索部103が、SWF形式のベクターデータを構成する線分の接続関係を探索して標準的なベクターデータに変換して、変換後のベクターデータを出力するため、FLASH再生ソフトを備えない電子機器であっても、SWF形式のベクターデータで構成された画像を表示することができる。
(1.3) Effects of the Invention According to the First Embodiment As described above, according to the present invention, the connection search unit 103 searches for the connection relation of the line segments constituting the SWF format vector data to obtain a standard vector. Since the data is converted into data and the converted vector data is output, even an electronic device not equipped with FLASH playback software can display an image composed of SWF format vector data.

(1.4)変形例
なお、本実施の形態1においてはフィルスタイルとして閉空間を塗りつぶす色を確定する例を示したがこれに限られない。フィルスタイルは閉空間の塗りつぶすスタイルを特定する態様であれば如何なる態様でもよく、例えば閉空間を所定の色のグラデーションや模様等で塗りつぶしてもよい。
(1.4) Modification Although the first embodiment has shown an example in which the color for filling the closed space is determined as the fill style, the present invention is not limited to this. The fill style may be any mode as long as it specifies a style to fill the closed space. For example, the closed space may be filled with a predetermined color gradation or pattern.

なお、本実施の形態においては、線分データを2つの端点により規定される直線として説明したが、これに限られず曲線でもよい。曲線の場合には、線分1本につき、2つの端点のほかに、カーブの基準となる点が1点必要になる。この場合であっても2つの端点についての接続探索をすることには相違ない。したがって本ベクターデータ変換出力装置は、直線だけでなく、曲線の場合においても適用することができる。   In the present embodiment, the line segment data has been described as a straight line defined by two end points. However, the present invention is not limited to this and may be a curved line. In the case of a curve, one point that is a reference for the curve is required in addition to the two end points per line segment. Even in this case, there is no difference in performing a connection search for two end points. Therefore, this vector data conversion output device can be applied not only to a straight line but also to a curved line.

(実施の形態2)
(2.1)ベクターデータ変換出力装置の構成
以下、本発明の実施の形態2について説明する。図11は本発明の実施の形態2の構成を示すブロック図である。以下、実施の形態1と同一の構成については同一の符号を付し、説明は省略する。実施の形態2に係るベクターデータ変換出力装置20は、実施の形態1に係るベクターデータ変換出力装置10の構成と比較して、動画メモリ107と、命令メモリ108と、動画制御部109と、動画出力部110とを備える点が相違する。動画メモリ107には、ベクターデータを構成する複数の画像要素が格納される。当該ベクターデータは、ベクターデータ出力部106から出力されたものであってもよいが、これには限定されない。当該ベクターデータは、上述した標準形式のベクターデータであれば、ベクターデータ出力部106以外から出力されたものであってもよいし、予め格納されたデータであってもよい。動画メモリ107に格納される情報の概念図を図12に示す。
(Embodiment 2)
(2.1) Configuration of Vector Data Conversion / Output Device Hereinafter, a second embodiment of the present invention will be described. FIG. 11 is a block diagram showing the configuration of the second embodiment of the present invention. Hereinafter, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted. Compared with the configuration of the vector data conversion output device 10 according to the first embodiment, the vector data conversion output device 20 according to the second embodiment has a moving image memory 107, an instruction memory 108, a moving image control unit 109, and a moving image control unit 109. The difference is that the output unit 110 is provided. The moving image memory 107 stores a plurality of image elements constituting vector data. The vector data may be output from the vector data output unit 106, but is not limited thereto. The vector data may be output from other than the vector data output unit 106 as long as it is vector data in the standard format described above, or may be data stored in advance. A conceptual diagram of information stored in the moving image memory 107 is shown in FIG.

動画メモリ107は、ライブラリ31と、メインリール32と、プロジェクタ33と、を備える。   The moving image memory 107 includes a library 31, a main reel 32, and a projector 33.

ライブラリ31は、ベクターデータを構成する画像要素(以下、「シェープ」という。)が格納されるメモリ領域である。画像要素は、ベクターデータ全体を複数に分割することにより得られる小さなベクターデータ(セグメント)である。またライブラリ31にはサブリール313が格納される。シェープやサブリール313をそれぞれ「アクター」とよぶ。シェープについては、例えば閉空間を1つのシェープとしてもよいし、2つ以上の閉空間を組み合わせて1つのシェープとしてもよい。シェープ311及びシェープ312はそれぞれ人物イメージの胴体を表すシェープと、人物イメージの頭を表すシェープである。シェープ311及びシェープ312は、メインリール32のアクターであってもよく、サブリール313のアクターであってもよい。サブリール313は後述するメインリール32と同様の構成をとり、シェープに対する命令と、シェープを配置する格納領域を組み合わせて構成される。なお、各シェープによって形成されるイメージは例示に過ぎず、各シェープは人物イメージ以外のイメージを構成するものであってもよいことは勿論である。また、シェープの範囲は任意に設定することができる。本実施例では、人物イメージを、胴体を表すシェープと、頭を表すシェープとの2シェープによって構成しているが、これに限定されるものではない。例えば、人物イメージを、胴体部分と頭部分との双方を含む1つのシェープとして規定してもよい。また、例えば、胴体部分をさらに分割し、胴体イメージを、腕を表すシェープと、体幹を表すシェープと、足を表すシェープとにより規定してもよい。   The library 31 is a memory area in which image elements constituting vector data (hereinafter referred to as “shape”) are stored. The image element is small vector data (segment) obtained by dividing the entire vector data into a plurality of pieces. The library 31 stores a sub reel 313. Each of the shape and the sub reel 313 is called an “actor”. As for the shape, for example, the closed space may be one shape, or two or more closed spaces may be combined to form one shape. A shape 311 and a shape 312 are a shape representing the body of the person image and a shape representing the head of the person image, respectively. The shape 311 and the shape 312 may be an actor of the main reel 32 or an actor of the sub reel 313. The sub reel 313 has the same configuration as the main reel 32 described later, and is configured by combining a command for a shape and a storage area in which the shape is arranged. It should be noted that the image formed by each shape is merely an example, and it is a matter of course that each shape may constitute an image other than a person image. The shape range can be set arbitrarily. In the present embodiment, the person image is configured by two shapes of a shape representing the trunk and a shape representing the head, but the present invention is not limited to this. For example, the person image may be defined as one shape including both the body part and the head part. Further, for example, the body part may be further divided, and the body image may be defined by a shape representing an arm, a shape representing a trunk, and a shape representing a foot.

メインリール32は、アクターを組み合わせて配置し格納するメモリ領域である。メインリール32はさらに、スライド領域321と、コンテナ322とを備える。   The main reel 32 is a memory area in which actors are arranged and stored. The main reel 32 further includes a slide area 321 and a container 322.

スライド領域321は、アクターに対する配置、移動、回転、及び変形等を行う命令を、時系列毎に格納するメモリ領域である。図12に示すスライド領域321には、6つのスライド(スライド321a、321b、321c、321d、321e、321f)が格納されている。つまり、当該6つのスライドは、例えばフレームレートが1fpsであるとすると、左から0秒、1秒、2秒、3秒、4秒、5秒の時点において、各アクターに対して行われる命令を示している。当該命令に従い、コンテナ322に配置したアクターを移動、回転、及び変形することにより、各時間において指定されたベクターデータによって構成される画像が描画され、動画を出力することができる。   The slide area 321 is a memory area for storing instructions for performing arrangement, movement, rotation, deformation, and the like with respect to the actor for each time series. In the slide area 321 shown in FIG. 12, six slides (slides 321a, 321b, 321c, 321d, 321e, 321f) are stored. In other words, for example, if the frame rate is 1 fps, the six slides give instructions to the actors at the time of 0 second, 1 second, 2 seconds, 3 seconds, 4 seconds, and 5 seconds from the left. Show. By moving, rotating, and transforming the actor arranged in the container 322 according to the command, an image composed of vector data designated at each time is drawn, and a moving image can be output.

コンテナ322は、スライド321に格納された命令に従ってライブラリ31から取得したアクターを配置するメモリ領域である。   The container 322 is a memory area in which actors acquired from the library 31 are arranged according to instructions stored in the slide 321.

サブリール313はメインリール32と類似の構成であり、スライド領域3131とコンテナ3132を有する。サブリールのコンテナ3132は、メインリール32のコンテナ322に配置される。またサブリール313は、アクターに対する命令をスライド領域3131にあらかじめ格納している。スライド領域3131にはサブリール313のスライド(スライド3131a、スライド3131b)が配置される。当該2つのスライドには、好ましくは、メインリール32のスライド領域321の各スライドに設定されたフレームレートと同じフレームレート(例えば、1fps)が設定される。このように設定された場合、メインリール32のスライド領域321と、サブリール313のスライド領域3131は同期し、同一のタイミングで対応するスライドに記述された命令が実行される。詳細については後述するが、例えば、メインリールのスライド321bにおいてサブリール313が呼び出された場合、メインリールのスライド321bとサブリールのスライド3131aとが同期し、メインリールのスライド321cとサブリールのスライド3131bとが同期する。このようにサブリール313に命令を記述することで、定型的なアニメーションをするアクターを容易に処理することができる。以下においては、メインリール32のスライド領域321と、サブリール313のスライド領域3131とが同期している場合について説明するが、これに限定されるものではなく、メインリール32のスライド領域321及びサブリール313のスライド領域3131にはそれぞれ異なるフレームレートが設定されてもよい。   The sub reel 313 has a configuration similar to that of the main reel 32, and includes a slide area 3131 and a container 3132. The sub reel container 3132 is arranged in the container 322 of the main reel 32. Further, the sub reel 313 stores a command for the actor in the slide area 3131 in advance. Slides (slide 3131a and slide 3131b) of the sub reel 313 are arranged in the slide area 3131. The two slides are preferably set to the same frame rate (for example, 1 fps) as the frame rate set for each slide in the slide area 321 of the main reel 32. When set in this way, the slide area 321 of the main reel 32 and the slide area 3131 of the sub reel 313 are synchronized, and the command described in the corresponding slide is executed at the same timing. Although details will be described later, for example, when the sub reel 313 is called in the main reel slide 321b, the main reel slide 321b and the sub reel slide 3131a are synchronized, and the main reel slide 321c and the sub reel slide 3131b are synchronized. Synchronize. In this way, by writing a command on the sub reel 313, an actor performing a standard animation can be easily processed. Hereinafter, a case where the slide area 321 of the main reel 32 and the slide area 3131 of the sub reel 313 are synchronized will be described. However, the present invention is not limited to this, and the slide area 321 of the main reel 32 and the sub reel 313 are not limited thereto. Different frame rates may be set for the slide areas 3131.

プロジェクタ33は、メインリール32のコンテナ322をコピーし格納するメモリ領域である。当該メモリ領域は動画出力部110が用いる。   The projector 33 is a memory area for copying and storing the container 322 of the main reel 32. The memory area is used by the moving image output unit 110.

命令メモリ108には、メインリール32及びサブリール313の各スライドにおける命令が順次格納される。   The instruction memory 108 sequentially stores instructions for each slide of the main reel 32 and the sub reel 313.

動画制御部109は、アクターを、移動、回転、及び変形(拡大、縮小)をすることによって、描画される画像を制御する。すなわち、動画制御部109は、動画メモリ107の情報を命令メモリ108に格納された命令に従い制御する。また動画制御部109は、ベクターデータ変換出力装置20の動画出力に係る各種制御を行う。   The moving image control unit 109 controls an image to be drawn by moving, rotating, and deforming (enlarging or reducing) the actor. That is, the moving image control unit 109 controls information in the moving image memory 107 in accordance with a command stored in the command memory 108. The moving image control unit 109 performs various controls related to moving image output of the vector data conversion output device 20.

動画出力部110は、移動、回転、変形した複数のアクターを組み合わせたベクターデータを所定時間間隔毎に動画として出力する。具体的には、動画メモリ107のプロジェクタ33に格納されることにより描画された画像情報を出力する。   The moving image output unit 110 outputs vector data obtained by combining a plurality of moved, rotated, and deformed actors as moving images at predetermined time intervals. Specifically, the image information drawn by being stored in the projector 33 of the moving image memory 107 is output.

(2.2)動画の出力動作
図13は本発明の実施の形態2のベクターデータ変換出力装置20の動作を表すフローチャートである。また、図14から図19は、ベクターデータ変換出力装置20の動作時における、動画メモリ107の概念図である。以下、動画メモリ107の概念図と共にフローチャートに沿って動作を説明する。
(2.2) Moving Image Output Operation FIG. 13 is a flowchart showing the operation of the vector data conversion / output device 20 according to the second embodiment of the present invention. 14 to 19 are conceptual diagrams of the moving image memory 107 when the vector data conversion / output device 20 operates. Hereinafter, the operation will be described with reference to the flowchart together with the conceptual diagram of the moving image memory 107.

はじめに、動画制御部109は、動画処理の準備をする(ステップS21)。ここでは、動画に必要なベクターデータ及び命令を、すべて動画メモリ107に格納する。すなわち、ライブラリ31と、メインリール32のスライド領域321に、動画処理に必要な全てのデータを格納する。図12に示す動画メモリ107の概念図は、これらの情報を格納した一例を示している。   First, the moving image control unit 109 prepares for moving image processing (step S21). Here, all vector data and instructions necessary for the moving image are stored in the moving image memory 107. That is, all data necessary for moving image processing is stored in the library 31 and the slide area 321 of the main reel 32. The conceptual diagram of the moving image memory 107 shown in FIG. 12 shows an example in which such information is stored.

次に、動画制御部109は、動画メモリ107における、メインリール32、及び有効なサブリール313のスライドを進め、命令リストを更新する(ステップS22)。すなわちスライド領域321に格納された、スライド321aに記述された命令を、命令メモリ108に格納する。図12に示す動画メモリ107の概念図に従うと、命令“setBGColor 1”を格納する。当該命令は、コンテナ322の背景色を1にするという命令である。 Next, the moving image control unit 109 advances the slide of the main reel 32 and the effective sub reel 313 in the moving image memory 107, and updates the command list (step S22). That is, the instruction described in the slide 321 a stored in the slide area 321 is stored in the instruction memory 108. According to the conceptual diagram of the moving image memory 107 shown in FIG. 12, the instruction “setBGColor 1” is stored. This command is a command to set the background color of the container 322 to 1.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“setBGColor 1”を実行し、背景色を1にする。なお実行した命令は、実行後に命令メモリ108から削除される。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, “setBGColor 1” is executed to set the background color to 1. The executed instruction is deleted from the instruction memory 108 after execution.

続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。すなわちメインリール32のコンテナ322に命令結果を格納する。ここでは背景色を1にする命令を実行した結果、図14のコンテナ322の背景色が変化している。また、プロジェクタ33はコンテナ322のコピーであるため、同様に背景色が変化している。   Subsequently, the moving image control unit 109 reflects the result of the command on the main reel 32 (step S24). That is, the instruction result is stored in the container 322 of the main reel 32. Here, as a result of executing the instruction to set the background color to 1, the background color of the container 322 in FIG. 14 changes. Further, since the projector 33 is a copy of the container 322, the background color similarly changes.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り5つあるため、動画制御部109は“いいえ”と判定する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there are still five slides, the moving image control unit 109 determines “No”.

続いて動画制御部109は、次のスライドに移動する前に所定の時間待機する(ステップS26)。当該待機時間は動画のフレームレートによって適宜設定される。本事例では、フレームレートは1fpsであるものとして説明する。すなわち、各スライドの命令が1秒毎に実行されることになる。   Subsequently, the moving image control unit 109 waits for a predetermined time before moving to the next slide (step S26). The waiting time is appropriately set according to the frame rate of the moving image. In this example, description will be made assuming that the frame rate is 1 fps. That is, each slide command is executed every second.

次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321bに記述された命令を、命令メモリ108に格納する。図14に示す動画メモリ107の概念図に従うと、命令“place Actor Person”を実行する。当該命令は、ライブラリ31におけるアクターの“Person”のコンテナ3132をコンテナ322に配置するという命令である。ここで、アクター“Person”はサブリール313としてライブラリ31に格納されているため、当該サブリール313に格納されたスライドの命令も命令メモリ108に格納する。すなわち、スライド3131aに記載された命令“place Actor head”と、“place Actor body”を命令リストに格納する。当該命令はそれぞれ、アクター“head”(シェープ312)とアクター“body”(シェープ311)とをコンテナ3132に配置するという命令である。このようにメインリール32のスライド領域321と、サブリール313のスライド領域3131は同期し、同一のタイミングでスライドに記述された命令が実行される。   Next, the moving image control unit 109 advances the slide and updates the instruction list (step S22). That is, the instruction described in the slide 321 b stored in the slide area 321 of the main reel 32 is stored in the instruction memory 108. According to the conceptual diagram of the moving image memory 107 shown in FIG. 14, the instruction “place actor Person” is executed. The instruction is an instruction to place the “Person” container 3132 of the actor in the library 31 in the container 322. Here, since the actor “Person” is stored in the library 31 as the sub reel 313, the slide instruction stored in the sub reel 313 is also stored in the instruction memory 108. That is, the instruction “place actor head” and “place actor body” described on the slide 3131a are stored in the instruction list. Each of the instructions is an instruction to place the actor “head” (shape 312) and the actor “body” (shape 311) in the container 3132. As described above, the slide area 321 of the main reel 32 and the slide area 3131 of the sub reel 313 are synchronized, and the command described in the slide is executed at the same timing.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“place Actor Person”と、“place Actor head”と、“place Actor body”とを実行する。なお、配置位置については、各命令の中に含めておくことができる。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, “place Actor Person”, “place Actor head”, and “place Actor body” are executed. The placement position can be included in each command.

続いて動画制御部109は、命令の結果をメインリール32に描画する(ステップS24)。ここでは上記命令を実行した結果、図15のサブリール313のコンテナ3132に、人物イメージの胴体を表すシェープ311と、人物イメージの頭を表すシェープ312が配置され、さらにコンテナ3132がメインリール32のコンテナ322に配置される。その結果、コンテナ322に各アクターが配置され、人物イメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。   Subsequently, the moving image control unit 109 draws the result of the command on the main reel 32 (step S24). Here, as a result of executing the above instruction, a shape 311 representing the body of the person image and a shape 312 representing the head of the person image are arranged in the container 3132 of the sub reel 313 in FIG. 322. As a result, each actor is arranged in the container 322, and a person image is drawn. Since the projector 33 is a copy of the container 322, a person image is similarly drawn.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り4つあるため、動画制御部109は“いいえ”と判定する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there are still four slides, the moving image control unit 109 determines “No”.

続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。   Subsequently, the moving image control unit 109 waits for a predetermined time before moving to the next slide (step S26).

次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、まずメインリール32のスライド領域321に格納された、スライド321cに記述された命令を、命令メモリ108に格納する。また、サブリール313のスライドも進めて命令リストを更新する。具体的には、スライド領域3131のスライド3131bに記述された命令を命令メモリ108に格納する。図15の概念図に従うと、メインリール32の3番目のスライド(スライド321c)に記述された命令“scale Person”及び命令“translate Person”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313。より具体的には、コンテナ3132に配置されたシェープ311及びシェープ312で構成される人物イメージ)を拡大する命令、及び、移動する命令である。またサブリール313に格納された2番目のスライドの命令も命令メモリ108に格納する。すなわち、命令“rotate head”を命令リストに格納する。当該命令はライブラリ31におけるアクターの“head”(シェープ312)を回転して配置するという命令である。   Next, the moving image control unit 109 advances the slide and updates the instruction list (step S22). That is, first, the instruction described in the slide 321 c stored in the slide area 321 of the main reel 32 is stored in the instruction memory 108. Further, the slide of the sub reel 313 is also advanced to update the instruction list. Specifically, the command described in the slide 3131 b of the slide area 3131 is stored in the command memory 108. According to the conceptual diagram of FIG. 15, the instruction “scale Person” and the instruction “translate Person” described in the third slide (slide 321c) of the main reel 32 are stored. The command includes a command for enlarging “Person” (sub reel 313, more specifically, a human image composed of the shape 311 and the shape 312 arranged in the container 3132) of the actor arranged in the container 322, and It is a command to move. Also, the instruction of the second slide stored in the sub reel 313 is also stored in the instruction memory 108. That is, the instruction “rotate head” is stored in the instruction list. The instruction is an instruction to rotate and arrange an actor “head” (shape 312) in the library 31.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、“scale Person”と、“translate Person”と、“rotate head”とを実行する。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, “scale Person”, “translate Person”, and “rotate head” are executed.

続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図16に示すとおり、コンテナ322に人物イメージ全体の大きさが変更(ここでは拡大)され、右に平行移動し、かつ頭部分が回転し、イメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。なお、イメージ全体の大きさの変更率については、命令“scale Person”の中に含めておくことができる。また、移動方向や移動量については、命令“translate Person”の中に含めておくことができる。また、回転方向や回転量については、命令“rotate head”の中に含めておくことができる。   Subsequently, the moving image control unit 109 reflects the result of the command on the main reel 32 (step S24). Here, as a result of executing the above command, as shown in FIG. 16, the size of the entire person image is changed (enlarged in this case) to the container 322, translated to the right, and the head portion is rotated, and the image is drawn. The Since the projector 33 is a copy of the container 322, a person image is similarly drawn. The change rate of the overall image size can be included in the instruction “scale Person”. Further, the moving direction and the moving amount can be included in the instruction “translate Person”. Further, the rotation direction and the rotation amount can be included in the instruction “rotate head”.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り3つあるため、動画制御部109は“いいえ”と判定する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there are still three slides, the moving image control unit 109 determines “No”.

続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。   Subsequently, the moving image control unit 109 waits for a predetermined time before moving to the next slide (step S26).

次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321dに記述された命令を、命令メモリ108に格納する。なお、サブリール313のスライドは2番目までしかないため、サブリール313に係る命令は以後存在しない。したがって、図16の概念図に従うと、命令“rotate Person”、命令“scale Person”及び命令“translate Person”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313)を回転する命令、拡大する命令、及び、移動する命令である。   Next, the moving image control unit 109 advances the slide and updates the instruction list (step S22). That is, the instruction described in the slide 321 d stored in the slide area 321 of the main reel 32 is stored in the instruction memory 108. Since the sub reel 313 only slides to the second position, there is no command related to the sub reel 313 thereafter. Therefore, according to the conceptual diagram of FIG. 16, an instruction “rotate Person”, an instruction “scale Person”, and an instruction “translate Person” are stored. The instructions are an instruction to rotate, enlarge, and move an “Person” (sub-reel 313) of an actor arranged in the container 322, respectively.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“rotate Person”、命令“scale Person”及び命令“translate Person”を実行する。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, the instruction “rotate Person”, the instruction “scale Person”, and the instruction “translate Person” are executed.

続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図17に示すとおり、コンテナ322に人物イメージ全体が回転し、大きさが変更(ここでは縮小)され、かつ左上に移動したイメージが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物イメージが描画される。   Subsequently, the moving image control unit 109 reflects the result of the command on the main reel 32 (step S24). Here, as a result of executing the above command, as shown in FIG. 17, the entire person image is rotated in the container 322, the size is changed (reduced in this case), and the image moved to the upper left is drawn. Since the projector 33 is a copy of the container 322, a person image is similarly drawn.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り2つあるため、動画制御部109は“いいえ”と判定する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there are still two slides, the moving image control unit 109 determines “No”.

続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。   Subsequently, the moving image control unit 109 waits for a predetermined time before moving to the next slide (step S26).

次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわち、メインリール32のスライド領域321に格納された、スライド321eに記述された命令を、命令メモリ108に格納する。したがって、図17の概念図に従うと、命令“translate Person”及び命令“placeActor Head”を格納する。当該命令は、それぞれコンテナ322に配置したアクターの“Person”(サブリール313)を移動する命令、及びライブラリ31のアクターである“head”(シェープ312)をコンテナ322に配置する命令である。   Next, the moving image control unit 109 advances the slide and updates the instruction list (step S22). That is, the instruction described in the slide 321 e stored in the slide area 321 of the main reel 32 is stored in the instruction memory 108. Therefore, according to the conceptual diagram of FIG. 17, the instruction “translate Person” and the instruction “placeActor Head” are stored. The instructions are an instruction to move the “Person” (sub reel 313) of the actor arranged in the container 322 and an instruction to arrange the “head” (shape 312) of the actor of the library 31 in the container 322, respectively.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“translate Person”及び命令“placeActor Head”を実行する。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, the instruction “translate Person” and the instruction “placeActor Head” are executed.

続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。すなわちメインリール32のコンテナ322に命令結果を格納する。ここでは上記命令を実行した結果、図18に示すとおり、コンテナ322に、上方に移動した人物イメージと、人物の頭部分のイメージとが描画される。また、プロジェクタ33はコンテナ322のコピーであるため、同様に人物のイメージ及び人物の頭部分のイメージが描画される。   Subsequently, the moving image control unit 109 reflects the result of the command on the main reel 32 (step S24). That is, the instruction result is stored in the container 322 of the main reel 32. Here, as a result of executing the above command, as shown in FIG. 18, the person image moved upward and the image of the head portion of the person are drawn in the container 322. Further, since the projector 33 is a copy of the container 322, the image of the person and the image of the head part of the person are similarly drawn.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドがまだ残り1つあるため、動画制御部109は“いいえ”と判定する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there is still one slide, the moving image control unit 109 determines “No”.

続いて動画制御部109は、次のスライドに移動する前に所定の時間、待機する(ステップS26)。   Subsequently, the moving image control unit 109 waits for a predetermined time before moving to the next slide (step S26).

次に動画制御部109は、スライドを進めて命令リストを更新する(ステップS22)。すなわちスライド領域321に格納された、スライド321fに記述された命令を、命令メモリ108に格納する。つまり、図19の概念図に従うと、命令“removeActor Person”を格納する。当該命令は、コンテナ322に配置したアクターの“Person”(サブリール313)を削除する命令である。   Next, the moving image control unit 109 advances the slide and updates the instruction list (step S22). That is, the instruction described in the slide 321 f stored in the slide area 321 is stored in the instruction memory 108. That is, according to the conceptual diagram of FIG. 19, the instruction “removeActor Person” is stored. This instruction is an instruction to delete the “Person” (sub reel 313) of the actor arranged in the container 322.

続いて動画制御部109は、命令メモリ108に格納された命令を実行する(ステップS23)。すなわち、命令“removeActor Person”を実行する。   Subsequently, the moving image control unit 109 executes the instruction stored in the instruction memory 108 (step S23). That is, the instruction “removeActor Person” is executed.

続いて動画制御部109は、命令の結果をメインリール32に反映する(ステップS24)。ここでは上記命令を実行した結果、図19に示すとおり、コンテナ322において人物イメージが削除され、人物の頭部分のイメージのみが残る。   Subsequently, the moving image control unit 109 reflects the result of the command on the main reel 32 (step S24). Here, as a result of executing the above command, as shown in FIG. 19, the person image is deleted in the container 322, and only the head image of the person remains.

そして動画出力部110は、プロジェクタ33に描画された画像を、ディスプレイ等(不図示)に表示する。   Then, the moving image output unit 110 displays the image drawn on the projector 33 on a display or the like (not shown).

続いて動画制御部109は、次のスライドがあるかを判定する(ステップS25)。本事例の場合にはスライドの残りが無いため、動画制御部109は“はい”と判定し、処理が終了する。   Subsequently, the moving image control unit 109 determines whether there is a next slide (step S25). In this case, since there is no remaining slide, the moving image control unit 109 determines “Yes”, and the process ends.

(2.3)実施の形態2に係る発明の効果
このように、実施の形態2にかかるベクターデータ変換出力装置20は、動画メモリ107に、ベクターデータを構成する画像要素(ベクターデータのセグメント)に分けて記憶しておき、所定のタイミングで各画像要素を配置する。そして、配置された画像要素毎に、所定のタイミングで移動、回転及び変形をすることによって画像を構築し出力している。そのため、動画のフレームを更新する毎に、動画メモリ107には、ベクターデータを構成する画像要素のうち、動きのある画像要素(例えば、移動、回転または変形される画像要素)を改めて格納しなおす必要が無い。ベクターデータの動画メモリ107への格納処理と比較して、画像要素の配置、移動、回転及び変形処理の処理負荷はきわめて低い。したがって、ベクターデータの出力に係るベクターデータ変換出力装置の処理負荷を格段に低減することができ、画像及び動画の出力速度を格段に向上することができる。まず全ての画像要素を動画メモリ107に格納することから、処理開始時に多くのメモリ容量を要するため、特に、CPUの処理能力が低いが、メモリ容量は大きい携帯電話機器等において有用である。
(2.3) Effect of Invention According to Second Embodiment As described above, the vector data conversion / output device 20 according to the second embodiment has image elements (vector data segments) constituting vector data in the moving image memory 107. Each image element is arranged at a predetermined timing. For each arranged image element, an image is constructed and output by moving, rotating, and deforming at a predetermined timing. Therefore, every time a frame of a moving image is updated, the moving image memory 107 re-stores a moving image element (for example, an image element that is moved, rotated, or deformed) among image elements constituting the vector data. There is no need. Compared with the process of storing the vector data in the moving image memory 107, the processing load of the arrangement, movement, rotation and deformation of the image elements is extremely low. Therefore, the processing load of the vector data conversion / output device related to the output of vector data can be significantly reduced, and the output speed of images and moving images can be greatly improved. First, since all the image elements are stored in the moving image memory 107, a large amount of memory capacity is required at the start of processing. Therefore, it is particularly useful in a cellular phone device or the like that has a low CPU processing capacity but a large memory capacity.

(2.3)変形例
なお、本実施の形態2においては動画メモリ107が、メインリール32と、サブリール313とを備える構成としたがこれに限られない。すなわち、サブリールがさらにサブサブリールを配置するように階層的な構成をとり得る。このようにしてあらかじめサブリール、サブサブリールとしてアクターに対する命令をライブラリ31に格納しておくことで、アクターに対する命令を効率よく行うことができる。
(2.3) Modification Although the moving image memory 107 includes the main reel 32 and the sub reel 313 in the second embodiment, the present invention is not limited to this. That is, a hierarchical configuration may be adopted in which the sub reels further arrange the sub sub reels. In this way, by storing instructions for actors as sub-reels and sub-sub reels in the library 31 in advance, instructions for actors can be efficiently performed.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the functions included in each member, each means, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of means, steps, etc. can be combined into one or divided. Is possible.

10 ベクターデータ変換出力装置
20 ベクターデータ変換出力装置
31 ライブラリ
32 メインリール
33 プロジェクタ
101 ベクターデータ取得部
102 線分メモリ
103 接続探索部
104 閉空間判定制御部
105 閉空間メモリ
106 ベクターデータ出力部
107 動画メモリ
108 命令メモリ
109 動画制御部
110 動画出力部
201 SWFベクターデータ
202、203 線分リスト
204、205 閉空間リスト
211 SWFベクターデータ
212 線分リスト
213、214 閉空間リスト
311、312 シェープ
313 サブリール
321 スライド領域
321a、321b、321c、321d、321e、321f スライド
322 コンテナ
3131 スライド領域
3131a、3131b スライド
3132 コンテナ
DESCRIPTION OF SYMBOLS 10 Vector data conversion output device 20 Vector data conversion output device 31 Library 32 Main reel 33 Projector 101 Vector data acquisition part 102 Line segment memory 103 Connection search part 104 Closed space determination control part 105 Closed space memory 106 Vector data output part 107 Movie memory 108 Command memory 109 Movie control unit 110 Movie output unit 201 SWF vector data 202, 203 Line segment list 204, 205 Closed space list 211 SWF vector data 212 Line segment list 213, 214 Closed space list 311, 312 Shape 313 Sub reel 321 Slide area 321a, 321b, 321c, 321d, 321e, 321f Slide 322 Container 3131 Slide area 3131a, 3131b Slide 3132 Container

上記課題を解決するために本発明に係る動画出力装置は、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリと、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
In order to solve the above problems, a moving image output apparatus according to the present invention provides:
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. A memory for sequentially storing instructions in
A moving image output unit that outputs a moving image based on the image element in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

また本発明に係る動画出力方法は、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備える動画出力装置による動画出力方法であって、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップ、を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The moving image output method according to the present invention includes:
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. A video output method by a video output device comprising a memory for sequentially storing instructions in
Outputting a moving image according to the image element according to the instructions stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

また本発明に係るプログラムは、
ベクターデータを構成する画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を備えるメインリールを記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備えるコンピュータに、
前記メモリに格納された前記命令に従い前記画像要素による動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納する第2のスライド領域を備えるサブリールの呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする。
The program according to the present invention is
A main reel having a first slide area for storing a plurality of commands related to drawing of image elements constituting the vector data for each time series is stored, and a predetermined time among the plurality of commands of the first slide region is stored. In a computer having a memory for sequentially storing instructions in
A program for executing a step of outputting a moving image based on the image element according to the instruction stored in the memory,
The plurality of instructions for the first slide area includes a sub-reel calling instruction including a second slide area for storing a plurality of instructions for a predetermined image element for each time series,
Of the plurality of instructions in the second slide area, instructions at a predetermined time are sequentially stored in the memory.

Claims (9)

画像要素を記憶し、前記画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリと、
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力する動画出力部と、
を備え、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、動画出力装置。
An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area Memory sequentially storing,
A moving image output unit that outputs a moving image by arranging the image elements stored in the memory in accordance with the instructions stored in the memory;
With
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The moving image output apparatus, wherein the memory sequentially stores instructions at a predetermined time among the plurality of instructions of the second slide area.
前記画像要素の描画に係る命令は、前記画像要素に、移動、回転、変形の少なくともいずれか1つの制御をする命令を含む、請求項1に記載の動画出力装置。   The moving image output apparatus according to claim 1, wherein the command related to drawing of the image element includes a command for controlling at least one of movement, rotation, and deformation of the image element. 前記第1のスライド領域に格納された前記制御をする命令が第1のフレームレートで定められるタイミングで実行され、前記第2のスライド領域に格納された前記制御をする命令が第2のフレームレートで定められるタイミングで実行される、請求項1又は2に記載の動画出力装置。   The control command stored in the first slide area is executed at a timing determined by a first frame rate, and the control command stored in the second slide area is a second frame rate. The moving image output apparatus according to claim 1, wherein the moving image output apparatus is executed at a timing determined by: 前記第1のフレームレートと前記第2のフレームレートとが同一である、請求項3に記載の動画出力装置。   The moving image output apparatus according to claim 3, wherein the first frame rate and the second frame rate are the same. 前記第1のフレームレートと前記第2のフレームレートとが異なる、請求項3に記載の動画出力装置。   The moving image output apparatus according to claim 3, wherein the first frame rate and the second frame rate are different. 直線又は曲線を含む複数の線分データから構成され、各線分データが、2つの端点、及び線分の左右のフィルスタイルを定める形式の第1のベクターデータを取得するベクターデータ取得部をさらに備える、請求項1乃至5いずれか1項に記載の動画出力装置。   A vector data acquisition unit that includes a plurality of line segment data including a straight line or a curve, and each line segment data further acquires first vector data in a format that defines two end points and left and right fill styles of the line segment. The moving image output apparatus according to any one of claims 1 to 5. 前記第1のベクターデータにおける線分データを抽出し、該線分データのフィルスタイル毎に各線分データ同士の接続関係を探索する接続探索部と、
前記接続探索部により接続探索された線分データの組み合わせが閉空間を形成するかどうかを判定する閉空間判定制御部と、
前記閉空間判定制御部により閉空間を形成すると判定されたデータに基づいて複数の前記画像要素により構成される第2のベクターデータを出力するベクターデータ出力部と、
をさらに備え、
前記フィルスタイルは、所定のパターンで前記閉空間を塗りつぶすか否かを示し、前記閉空間を塗りつぶす場合は、さらに前記閉空間を塗りつぶす所定のパターンを示し、前記所定のパターンは、塗りつぶす色、所定の色のグラデーション、模様の少なくとも1つを含み、
前記画像要素は、前記第2のベクターデータが出力される毎にメモリに順次記憶されることを特徴とする、請求項6に記載の動画出力装置。
A connection search unit for extracting line segment data in the first vector data and searching for a connection relationship between the line segment data for each fill style of the line segment data;
A closed space determination control unit that determines whether a combination of line segment data searched for connection by the connection search unit forms a closed space;
A vector data output unit that outputs second vector data composed of a plurality of the image elements based on data determined to form a closed space by the closed space determination control unit;
Further comprising
The fill style indicates whether or not the closed space is filled with a predetermined pattern. When the closed space is filled, the fill style indicates a predetermined pattern that further fills the closed space. Color gradient, including at least one of the patterns,
7. The moving image output apparatus according to claim 6, wherein the image elements are sequentially stored in a memory every time the second vector data is output.
画像要素を記憶し、前記画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備える動画出力装置による動画出力方法であって、
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力するステップ、を含み、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、動画出力方法。
An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area A moving image output method by a moving image output device including a memory for sequentially storing
Outputting a moving image by arranging the image elements stored in the memory according to the instructions stored in the memory;
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The moving image output method according to claim 1, wherein among the plurality of commands in the second slide area, commands at a predetermined time are sequentially stored in the memory.
画像要素を記憶し、前記画像要素の描画に係る複数の命令を時系列毎に格納する第1のスライド領域を記憶し、前記第1のスライド領域の前記複数の命令のうち、所定時刻における命令を順次格納するメモリを備えるコンピュータに、
前記メモリに格納された前記命令に従い前記メモリに記憶されている前記画像要素を配置することにより動画を出力するステップを実行させるプログラムであって、
前記第1のスライド領域の前記複数の命令は、所定の画像要素に対する複数の命令を時系列毎に格納し、前記メモリに記憶される第2のスライド領域の呼出命令を含み、
前記メモリには前記第2のスライド領域の前記複数の命令のうち、所定時刻における命令が順次格納されることを特徴とする、プログラム。
An image element is stored, a first slide area that stores a plurality of commands related to drawing of the image element in time series, and a command at a predetermined time among the plurality of commands of the first slide area In a computer having a memory for sequentially storing
A program for executing a step of outputting a moving image by arranging the image elements stored in the memory in accordance with the instructions stored in the memory,
The plurality of instructions for the first slide area includes a plurality of instructions for a predetermined image element for each time series, and includes a second slide area call instruction stored in the memory,
The program in which the instruction at a predetermined time among the plurality of instructions of the second slide area is sequentially stored in the memory.
JP2014257592A 2014-12-19 2014-12-19 Movie output device, movie output method, and program Active JP5756558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014257592A JP5756558B2 (en) 2014-12-19 2014-12-19 Movie output device, movie output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257592A JP5756558B2 (en) 2014-12-19 2014-12-19 Movie output device, movie output method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014125366A Division JP5671644B2 (en) 2014-06-18 2014-06-18 Movie output device, movie output method, and program

Publications (2)

Publication Number Publication Date
JP2015109094A true JP2015109094A (en) 2015-06-11
JP5756558B2 JP5756558B2 (en) 2015-07-29

Family

ID=53439346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257592A Active JP5756558B2 (en) 2014-12-19 2014-12-19 Movie output device, movie output method, and program

Country Status (1)

Country Link
JP (1) JP5756558B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021322A (en) * 2015-07-07 2017-01-26 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. Quantum dot dispersion and self-luminous photosensitive resin composition comprising the same, and color filter and image display device manufactured using the composition

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002103258A (en) * 2000-09-28 2002-04-09 Sony Corp Authoring system, authoring method and recording medium
JP2004356998A (en) * 2003-05-29 2004-12-16 Fuji Photo Film Co Ltd Apparatus and method for dynamic image conversion, apparatus and method for dynamic image transmission, as well as programs therefor
JP2005125460A (en) * 2003-10-24 2005-05-19 Sony Corp Motion editing device, motion editing method, and computer program for robotic device
JP2005303907A (en) * 2004-04-15 2005-10-27 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2010066789A (en) * 2008-09-08 2010-03-25 Taito Corp Avatar editing server and avatar editing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002103258A (en) * 2000-09-28 2002-04-09 Sony Corp Authoring system, authoring method and recording medium
JP2004356998A (en) * 2003-05-29 2004-12-16 Fuji Photo Film Co Ltd Apparatus and method for dynamic image conversion, apparatus and method for dynamic image transmission, as well as programs therefor
JP2005125460A (en) * 2003-10-24 2005-05-19 Sony Corp Motion editing device, motion editing method, and computer program for robotic device
JP2005303907A (en) * 2004-04-15 2005-10-27 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2010066789A (en) * 2008-09-08 2010-03-25 Taito Corp Avatar editing server and avatar editing program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSND200401126007; 吉岡梅: '"Part2 はじめてのFlashムービー作り"' 日経ソフトウエア 第6巻, 第11号, 20031024, p.80-84, 日経BP社 *
CSND200500033014; 吉岡梅: '"プログラマのためのFlash入門 第4回"' 日経ソフトウエア 第7巻, 第7号, 20040624, p.126-131, 日経BP社 *
JPN6015007634; 吉岡梅: '"プログラマのためのFlash入門 第4回"' 日経ソフトウエア 第7巻, 第7号, 20040624, p.126-131, 日経BP社 *
JPN6015007635; 吉岡梅: '"Part2 はじめてのFlashムービー作り"' 日経ソフトウエア 第6巻, 第11号, 20031024, p.80-84, 日経BP社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017021322A (en) * 2015-07-07 2017-01-26 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. Quantum dot dispersion and self-luminous photosensitive resin composition comprising the same, and color filter and image display device manufactured using the composition

Also Published As

Publication number Publication date
JP5756558B2 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
KR101400935B1 (en) Image processing device, information processing device, image processing method, and information processing method
US20130097552A1 (en) Constructing an animation timeline via direct manipulation
JP2001197366A (en) Picture synthesis method and recording medium recording picture synthesis program
EP2747033B1 (en) Information processing device, information processing method, and data structure of content file
CN109725795A (en) A kind of method, apparatus and computer readable medium for Multi-view display
JPH0325792B2 (en)
US7974497B2 (en) Method of modifying the region displayed within a digital image, method of displaying an image at plural resolutions, and associated device
US10685470B2 (en) Generating and providing composition effect tutorials for creating and editing digital content
JP5756558B2 (en) Movie output device, movie output method, and program
US20240078730A1 (en) Content-specific-preset edits for digital images
JP5671644B2 (en) Movie output device, movie output method, and program
US9601091B2 (en) Information processing apparatus and information processing method
JP5567231B2 (en) Vector data conversion output device, vector data conversion output method, and vector data conversion output program
JP5564153B1 (en) Vector data conversion output device, vector data conversion output method, and vector data conversion output program
JP5512604B2 (en) Vector data conversion output device, vector data conversion output method, and vector data conversion output program
JP5512603B2 (en) Vector data conversion output device, vector data conversion output method, and vector data conversion output program
WO2012164959A1 (en) Vector data conversion output device, vector data conversion output method and vector data conversion output program
US20110310108A1 (en) Information processing system, information processing method, and information processing apparatus
CN111460770B (en) Method, device, equipment and storage medium for synchronizing element attributes in document
CN115564857A (en) Video production method and related equipment
JP2016085642A (en) Operation support method, operation support program, and operation support apparatus
CN113867877A (en) Page display method and device
CN113301416B (en) Voice frame display method
EP4450137A1 (en) Split-screen special effect prop generating method and apparatus, device, and medium
JP2009176217A (en) Image display device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150529

R150 Certificate of patent or registration of utility model

Ref document number: 5756558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250