JP2010191634A - Moving image creation program, moving image creation service provision system, and moving image reproduction program - Google Patents

Moving image creation program, moving image creation service provision system, and moving image reproduction program Download PDF

Info

Publication number
JP2010191634A
JP2010191634A JP2009034556A JP2009034556A JP2010191634A JP 2010191634 A JP2010191634 A JP 2010191634A JP 2009034556 A JP2009034556 A JP 2009034556A JP 2009034556 A JP2009034556 A JP 2009034556A JP 2010191634 A JP2010191634 A JP 2010191634A
Authority
JP
Japan
Prior art keywords
moving image
frame
data
video
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009034556A
Other languages
Japanese (ja)
Inventor
Yochin Sei
成溶鎭
Shigeta Asano
茂太 浅野
Koji Ikezawa
孝治 池澤
Akira Osumi
晃 大隅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN Japan Corp
NHN Corp
Original Assignee
NHN Japan Corp
NHN Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN Japan Corp, NHN Corp filed Critical NHN Japan Corp
Priority to JP2009034556A priority Critical patent/JP2010191634A/en
Publication of JP2010191634A publication Critical patent/JP2010191634A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image creation program and a moving image creation device for creating a moving image suitable for moving image creation and moving image distribution. <P>SOLUTION: The moving image creation program, regarding to text data described display control information including information related with the storage place of material data in the frame for each of frames by using the display control information of each frame configuring a moving image set through a moving image creation screen and information related with the storage place where the material data is stored, makes a computer perform procedures including: obtaining the material data from the storage place when a moving image reproduction part reproduces a moving image to generate each frame; generating animation moving image data in which display control information including information related with the storage place of the material data is described by a control instruction system for executing moving image reproduction processing for successively displaying the generated frames based on the display control information; and storing the generated animation moving data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画作成に関し、より詳細には、動画作成及び動画配信に好適な動画を作成することができる動画作成プログラム及び動画作成サービス提供システムに関する。   The present invention relates to moving image creation, and more particularly to a moving image creation program and a moving image creation service providing system capable of creating a moving image suitable for moving image creation and distribution.

従来から利用者自らが撮影した動画や作成した動画をサーバ(WEBサイト)にアップロードし、インターネット上で公開(配信)するサービスが多数ある。そして、動画作成の利便性を向上させる技術として、例えば、特許文献1に記載の動画自動生成システムがある。   Conventionally, there are many services for uploading a moving image taken by a user himself / herself to a server (WEB site) and publishing (distributing) it on the Internet. As a technique for improving the convenience of moving image creation, for example, there is an automatic moving image generation system described in Patent Document 1.

この特許文献1の動画自動生成システムは、予めフラッシュ動画の基本テンプレートを用意し、ユーザが任意に入力・設定した文字や静止画と基本テンプレートとを合成してフラッシュ動画ファイルを生成することで、作成者の手間を軽減させることを提案している。また、特許文献2においても、携帯電話機等の移動端末機器側で予め用意されたフラッシュ動画テンプレートとユーザが入力したテキスト等とを合成してフラッシュ動画を生成することが提案されている。   This video automatic generation system of Patent Document 1 prepares a flash video basic template in advance, generates a flash video file by synthesizing characters and still images arbitrarily input / set by the user and the basic template, It proposes to reduce the work of the creator. Also in Patent Document 2, it is proposed to generate a flash movie by synthesizing a flash movie template prepared in advance on the mobile terminal device side such as a mobile phone and text input by the user.

生成されたフラッシュ動画等の動画ファイルは、サーバ側で保持され、利用者からの閲覧要求があった場合に該当の動画ファイルが利用者端末装置にダウンロードされる。利用者は、動画再生プレーヤでダウンロードした動画ファイルを再生することで動画を閲覧することができる。   The generated moving image file such as a flash moving image is held on the server side, and when there is a browsing request from the user, the corresponding moving image file is downloaded to the user terminal device. The user can view the moving image by playing the moving image file downloaded by the moving image reproducing player.

特開2007−66303号公報(段落0015、図1等)Japanese Patent Laying-Open No. 2007-66303 (paragraph 0015, FIG. 1, etc.) 特開2008−67389号公報JP 2008-67389 A

一般的な動画ファイル(例えば、mpg(mpeg)形式,rm形式,asf形式,avi形式,mov形式,swf形式等の動画ファイル)は、複数のフレームが所定のタイムレートで結合された1つの画像データ、言い換えれば、1つ又は複数の静止画等の素材を含んだフレームが連続して連結されたデータファイルとして構成されており、所定の動画生成プロセスを経て生成される。   A general moving image file (for example, a moving image file in mpg (mpeg) format, rm format, asf format, avi format, mov format, swf format, etc.) is a single image in which a plurality of frames are combined at a predetermined time rate. Data, in other words, it is configured as a data file in which frames including one or more materials such as still images are continuously connected, and is generated through a predetermined moving image generation process.

つまり、従来の動画ファイルは、1つの完結した複数の画像データを含むデータファイルであることから、動画の作成及びその作成された動画を配信する際に、以下の問題点があった。第1に、動画ファイルの中に画像等の素材が含まれているためにそのデータ容量が大きく、インターネット等のネットワークを通じた動画の配信に好適ではない問題がある。すなわち、動画再生の際に動画ファイルをコンピュータにダウンロードさせるトラフィック負荷及び動画ファイルの再生処理の負担が大きい問題がある。   That is, since the conventional moving image file is a data file including a plurality of complete image data, there are the following problems when creating a moving image and distributing the created moving image. First, since a moving image file includes a material such as an image, the data capacity is large, which is not suitable for distributing moving images through a network such as the Internet. That is, there is a problem that a traffic load for downloading a moving image file to a computer during moving image reproduction and a burden of reproduction processing of the moving image file are large.

また、動画生成プロセスは、文字情報に比べて比較的容量の大きい画像等の素材が含まれた複数のフレームを連結する処理を遂行するため、フレーム数や素材数、又はその素材のデータ容量に応じて処理負荷が大きくなるとともに、作成者がこの動画生成プロセスを遂行するためには、別途動画生成機能をその端末装置にインストールする必要がある。   In addition, the moving image generation process performs a process of linking a plurality of frames including materials such as images having a relatively large capacity compared to character information, so the number of frames, the number of materials, or the data capacity of the materials is reduced. Accordingly, the processing load increases, and in order for the creator to perform this moving image generation process, it is necessary to separately install a moving image generation function in the terminal device.

第2に、動画に含まれる背景画等の画像素材が、完全に動画ファイルに組み込まれるため、従来の動画ファイルは、素材が動画に対して一体不可分となる。したがって、利用者が動画を作成する際に利用できる画像等の素材は、サービス事業者が提供する素材若しくは作成者自身が作成若しくは用意した素材に限定され、動画作成における素材のバリエーションが狭くなり、動画作成の面白みが欠けてしまう。つまり、従来の動画の場合、画像等の素材の所在が作成者又は提供者から離れた態様で個別に動画ファイルに存在するので、著作権等の諸事情(例えば、素材の作成者又は提供者がその素材を管理することができない理由など)から利用できる画像等の素材が制限されたり、また、所望する画像等の素材の利用に際して該素材の作成者(提供者)の許諾を得たり、別途料金の支払いが発生するなど、作成者に負担が掛かってしまう。   Second, since the image material such as the background image included in the moving image is completely incorporated into the moving image file, the conventional moving image file is inseparable from the moving image. Therefore, materials such as images that can be used when users create videos are limited to materials provided by service providers or materials created or prepared by the creators themselves, and the variation of materials in video creation becomes narrower, The fun of creating movies is lost. In other words, in the case of a conventional video, the location of the material such as an image exists individually in the video file in a manner away from the creator or provider, so various circumstances such as copyright (for example, the creator or provider of the material) For example, because the material cannot be managed, etc.), and the materials such as images that can be used are restricted, and the permission of the creator (provider) of the materials when obtaining the materials such as desired images, The creator will be burdened by paying a separate fee.

第3に、各作成者がローカル環境で保持する画像等の素材は、他の作成者が利用できない問題がある。動画を閲覧した者がその動画に含まれる画像等を利用したくても、上述のように作成者や提供者が第3者に提供していなければ、利用したくても利用できず、上記第2の問題点と同様に動画作成における面白みが低減してしまう。また、動画ファイルから画像等の素材のみを抽出することも可能であるが、動画ファイルは、素材が一体不可分のデータファイルであるため、別途の動画編集ツールを使用しなければならず、かつ複雑で手間の掛かる作業が必要となる。   Thirdly, there is a problem that materials such as images held by each creator in the local environment cannot be used by other creators. Even if the person who viewed the video wants to use the image included in the video, if the creator or provider does not provide it to a third party as described above, it cannot be used even if he wants to use it. Similar to the second problem, the interest in moving image creation is reduced. It is also possible to extract only materials such as images from a video file. However, since a video file is a data file that is inseparable from the material, a separate video editing tool must be used, and it is complicated. This requires laborious work.

一方、動画ファイルはそのデータ構造の観点から、容易かつ迅速に編集することができない課題を有している。すなわち、各フレームに対応する静止画等の素材を保持し、フレーム同士が動画全体に対して一定の連関性を有している。このため、一旦生成された動画ファイルに対する再生時間の変更、BGMの変更、フレームの追加、フレーム構成の変更などの編集を行う場合、編集前の動画ファイルと個別の動画ファイルを所定の動画生成プロセスを通じて生成し直す必要があった。   On the other hand, a moving image file has a problem that it cannot be easily and quickly edited from the viewpoint of its data structure. That is, a material such as a still image corresponding to each frame is held, and the frames have a certain association with the entire moving image. For this reason, when editing a video file once generated, such as changing the playback time, changing the BGM, adding a frame, or changing the frame configuration, the video file before editing and the individual video file are processed in a predetermined video generation process. Had to be regenerated through.

言い換えれば、従来の動画ファイルに対する編集は、動画を作成する場合と同様の処理手順を経ており、一度作成されると、例えば、その再生時間は不変であり、その長さを容易に変更することができない。特に、フレーム構成などの動画全体を編集する場合のみならず、動画に登場する登場キャラクタや表示される文字情報を差し替えるなどの比較的簡易な編集であっても、上述のように動画作成と同様の手順を踏まなければならず、一度作成された動画に対してリアルタイム性があり、かつ容易な編集を行うことができなかった。   In other words, editing for a conventional video file goes through the same processing procedure as when creating a video, and once created, for example, its playback time is unchanged and its length can be easily changed. I can't. In particular, not only when editing the entire video such as the frame structure, but also with relatively simple editing such as replacing characters appearing in the video and displayed character information, as described above. The above procedure must be followed, and a once-created video has real-time characteristics and cannot be easily edited.

また、従来の動画配信サービスでは、動画を観た者がその動画を評価したり、コメントを投稿するなどの機能を提供して動画作成者には動画を作成する楽しみを、動画閲覧者には動画を閲覧する楽しみを提供している。しかしながら、動画自体は、これら評価やコメントに対して変化するわけではなく、常に同じ動画である。つまり、一度作成された動画は、動画閲覧者の閲覧行為によって変化しないため、大抵の場合、動画閲覧者が同じ動画を複数回観ることはなく、動画の利用促進が図れない問題がある。特に、上述のように一度作成された動画を編集して再度配信する場合、改めて個別の動画を生成することになり、1つの動画に対する利用が極端に少なく、動画配信において新たな動画の楽しみ方を動画作成者及び/又は動画閲覧者に提供することが切に望まれている。   In addition, in the conventional video distribution service, people who watched the video provided the functions such as evaluating the video and posting comments, so that the video creator enjoyed creating video and the video viewer Offers fun viewing videos. However, the moving image itself does not change with respect to these evaluations and comments, and is always the same moving image. In other words, since a video once created does not change depending on the browsing action of the video viewer, in most cases, the video viewer does not watch the same video a plurality of times, and there is a problem that the use of the video cannot be promoted. In particular, when a video created once as described above is edited and distributed again, an individual video is generated again, and usage of one video is extremely small, and a new way to enjoy video in video distribution Is eagerly desired to provide a video creator and / or a video viewer.

本発明は、上記従来技術の問題に鑑みて成されたものであり、その目的の一つは、動画作成及び動画配信に好適な動画を作成することができる動画作成プログラム及び動画作成装置を提供することにある。   The present invention has been made in view of the above-described problems of the prior art, and one of its purposes is to provide a moving image creating program and a moving image creating apparatus capable of creating a moving image suitable for moving image creation and moving image distribution. There is to do.

また、本発明の他の目的としては、動画作成の面白みを向上させることが可能な動画作成サービス提供システムを提供することにある。   Another object of the present invention is to provide a moving image creation service providing system capable of improving the interest of moving image creation.

また、本発明のさらに他の目的としては、動画を容易に作成することができるとともに、動画をリアルタイムに作成及び編集等することが可能な動画作成サービス提供システムを提供することにある。   Still another object of the present invention is to provide a moving image creation service providing system capable of easily creating a moving image and creating and editing the moving image in real time.

さらに、本発明の他の目的としては、動画再生による閲覧以外の方法で動画を楽しむことができる新しい動画サービスを提供することが可能な動画作成サービス提供システムを提供することにある。   Furthermore, another object of the present invention is to provide a moving image creation service providing system capable of providing a new moving image service that allows users to enjoy moving images by a method other than browsing by moving image reproduction.

本発明の1つの側面における動画作成プログラムは、ディスプレイ装置を備えたコンピュータに動画作成処理を実行させるための動画作成プログラムであって、上記コンピュータに、動画を構成する各フレームの素材データ及び各フレームの表示制御情報を設定可能な動画作成画面を上記ディスプレイ装置に表示する機能と、上記表示制御情報及び素材データが格納されている格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの格納場所に関する情報を含む表示制御情報をテキスト形式で記述したテキストデータであって、動画再生部が動画を再生する際に格納場所から素材データを取得して各フレームを生成し、生成したフレームを表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で上記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成する機能と、生成されたアニメーション動画データを格納する機能と、を実現させることを特徴とする。   A moving image creating program according to one aspect of the present invention is a moving image creating program for causing a computer including a display device to execute a moving image creating process. The moving image creating program causes the computer to execute material data of each frame and each frame constituting the moving image. Using the function of displaying the moving image creation screen on which the display control information can be set on the display device and the information on the storage location where the display control information and the material data are stored, the material data in the frame is Text data that describes display control information including information about the storage location in text format. When the video playback unit plays back a video, it acquires material data from the storage location and generates each frame. Control for performing video playback processing to display sequentially based on display control information Wherein the function of at decree manner to generate the animation movie data describing display control information including information about the storage location of the material data, a function of storing the generated animation movie data, that is realized.

また、上記アニメーション動画データを生成する機能は、各フレームの素材データの格納場所に関する情報を含む表示制御情報がXML形式で記述されたテキストデータを上記アニメーション動画データとして生成するように構成することができる。   In addition, the function for generating the animation moving image data may be configured to generate, as the animation moving image data, text data in which display control information including information regarding the storage location of the material data of each frame is described in the XML format. it can.

また、上記アニメーション動画データを生成する機能は、動画再生部が前後のフレームに対して独立して各フレームを生成し、生成したフレームを上記ディスプレイ装置に順次表示する動画再生を遂行させる制御命令形式で各フレームの上記素材データの格納場所に関する情報を含む表示制御情報を記述した上記アニメーション動画データを生成するように構成することができる。   In addition, the function of generating the animation moving image data is a control command format in which the moving image reproducing unit generates each frame independently of the preceding and following frames, and performs the moving image reproduction in which the generated frames are sequentially displayed on the display device. The animation moving image data describing the display control information including the information on the storage location of the material data of each frame can be generated.

また、上記動画作成画面を上記ディスプレイ装置に表示する機能は、フレームの再生時間情報、フレームにおける素材データの表示位置情報、及びフレームに表示される文字情報、各フレーム又は動画全体における音情報、エフェクト情報、フォント情報及び色情報のうち少なくとも1つを含む表示制御の設定が可能な表示領域を含む動画作成画面を上記ディスプレイ装置に表示するように構成することができる。   The function of displaying the moving image creation screen on the display device includes: frame playback time information, material data display position information in the frame, character information displayed in the frame, sound information in each frame or the entire moving image, effects A moving image creation screen including a display area in which display control including at least one of information, font information, and color information can be set can be displayed on the display device.

また、上記動画作成プログラムは、上記動画作成画面を上記ディスプレイ装置に表示する機能が、生成されたアニメーション動画データを呼び出して、該アニメーション動画データの各フレームの素材データ及び各フレームの表示制御情報を上記動画作成画面に表示する機能を含み、上記動画作成画面を通じた該アニメーション動画データに対する動画の編集結果を用いて、生成されたアニメーション動画データをテキスト形式で編集する機能をさらに上記コンピュータに実現させることを特徴とする。   Further, the moving image creating program has a function of displaying the moving image creating screen on the display device, calling the generated animated moving image data, and displaying the material data of each frame of the animated moving image data and the display control information of each frame. Including a function of displaying on the moving image creation screen, and further causing the computer to realize a function of editing the generated animation moving image data in a text format by using a moving image editing result for the animation moving image data through the moving image creation screen. It is characterized by that.

また、上記アニメーション動画データをテキスト形式で編集する機能は、生成されたアニメーション動画データに対してフレーム、素材データ及びフレームの表示制御情報を追加する編集である場合、追加されるフレーム、素材データ又はフレームについての表示制御情報をテキスト形式で生成し、上記アニメーション画像データにテキスト形式で追加する編集処理を遂行するように構成することができる。   In addition, the function of editing the animation moving image data in the text format is an edit for adding a frame, material data, and display control information of the frame to the generated animation moving image data. The display control information for the frame can be generated in a text format, and an editing process can be performed to add to the animation image data in the text format.

また、上記アニメーション動画データをテキスト形式で編集する機能は、生成されたアニメーション動画データに対してフレーム、素材データ及びフレームの表示制御情報を修正する編集である場合、修正されるフレーム、素材データ又はフレームについての表示制御情報をテキスト形式で生成し、上記アニメーション画像データの該当する表示制御情報をテキスト形式で書き換える編集処理を遂行するように構成することができる。   In addition, the function of editing the animation moving image data in the text format is the editing of correcting the frame, the material data, and the display control information of the frame with respect to the generated animation moving image data. The display control information for the frame is generated in a text format, and the editing process for rewriting the corresponding display control information of the animation image data in the text format can be performed.

また、上記アニメーション動画データをテキスト形式で編集する機能は、生成されたアニメーション動画データに対してフレーム、素材データ及びフレームの表示制御情報を削除する編集である場合、上記アニメーション画像データの該当する表示制御情報をテキスト形式で削除する編集処理を遂行するように構成することができる。   In addition, when the function of editing the animation moving image data in the text format is to delete the frame, the material data, and the display control information of the frame from the generated animation moving image data, the corresponding display of the animation image data is performed. An editing process for deleting the control information in a text format can be performed.

また、上記動画作成プログラムは、上記アニメーション動画データに含まれる素材データを選択可能に表示する編集テンプレート作成画面を上記ディスプレイ装置に表示する機能と、上記編集テンプレート作成画面で選択された素材データが所定の編集テンプレート画面に編集が許可された素材として表示されるための画面情報を上記アニメーション動画データの編集テンプレート情報として生成する機能と、上記編集テンプレート情報を当該アニメーション動画データと関連付けて格納する機能と、をさらに上記コンピュータに実現させることを特徴とする。   In addition, the moving image creating program has a function of displaying an edit template creation screen on the display device for selectively displaying material data included in the animation moving image data, and material data selected on the edit template creation screen are predetermined. A function for generating screen information to be displayed on the editing template screen as a material permitted to be edited as editing template information for the animation video data, and a function for storing the editing template information in association with the animation video data. Are further realized by the computer.

また、上記動画作成プログラムは、上記編集テンプレート情報を用いて編集が許可された素材が表示された所定の編集テンプレート画面を上記ディスプレイ装置に表示する機能と、上記編集テンプレート画面において編集が許可された素材に対して他の候補素材を選択可能に制御する機能と、上記編集テンプレート画面において他の候補素材を選択する編集が行われた場合に、該当のアニメーション動画データにおける上記編集が許可された素材データの格納場所に関する情報を、他の候補素材の格納場所に関する情報にテキスト形式で書き換える機能と、をさらに上記コンピュータに実現させることを特徴とする。   The video creation program has a function of displaying a predetermined editing template screen on which the material permitted to be edited using the editing template information is displayed on the display device, and editing is permitted on the editing template screen. A material that allows other candidate materials to be selected for the material, and materials that are permitted to be edited in the corresponding animation video data when editing is performed to select other candidate materials on the editing template screen. The computer is further realized with a function of rewriting information relating to the data storage location to information relating to the storage location of other candidate materials in a text format.

また、上記動画作成プログラムは、上記アニメーション動画データに含まれる各フレームの表示制御情報を選択可能に表示する編集テンプレート作成画面を上記ディスプレイ装置に表示する機能と、編集テンプレート作成画面で選択された表示制御情報が所定の編集テンプレート画面に編集が許可された表示制御情報として表示されるための画面情報を上記アニメーション動画データの編集テンプレート情報として生成する機能と、上記編集テンプレート情報を上記アニメーション動画データと関連付けて格納する機能と、をさらに上記コンピュータに実現させることを特徴とする   In addition, the moving image creation program has a function for displaying an edit template creation screen for selectively displaying display control information of each frame included in the animation movie data on the display device, and a display selected on the edit template creation screen. A function for generating screen information as edit template information of the animation video data for display of control information as display control information permitted to be edited on a predetermined edit template screen, and the edit template information as animation video data. The above-mentioned computer is further realized with a function of storing in association with each other

また、上記動画作成プログラムは、上記編集テンプレート情報を用いて編集が許可された表示制御情報が表示された所定の編集テンプレート画面を上記ディスプレイ装置に表示する機能と、編集テンプレート画面において編集が許可された表示制御情報に対して他の候補の表示制御情報を入力又は選択可能に制御する機能と、上記編集テンプレート画面において他の候補の表示制御情報を入力又は選択する編集が行われた場合に、該当のアニメーション動画データにおける編集が許可された表示制御情報を、他の候補の表示制御情報にテキスト形式で書き換える機能と、をさらに上記コンピュータに実現させることを特徴とする。   Further, the moving image creation program has a function of displaying a predetermined editing template screen on which display control information permitted to be edited using the editing template information is displayed on the display device, and editing is permitted on the editing template screen. When the function for controlling the display control information for other candidates to be input or selectable and the editing for inputting or selecting other candidate display control information on the editing template screen are performed, The computer is further realized with a function of rewriting display control information permitted to be edited in the relevant animation moving image data into other candidate display control information in a text format.

また、本発明の他の側面におけるディスプレイ装置を備えた動画作成装置は、動画の各フレームに含まれる画像等の素材データを格納する素材データ格納部と、上記ディスプレイ装置に表示されるフレームの素材データ及びフレームの表示制御情報を設定可能な動画作成画面を介して設定された表示制御情報及び各フレームに対して関連付けられた素材データの上記素材データ格納部における格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの格納場所に関する情報を含む表示制御情報をテキスト形式で記述したアニメーション動画データを生成するアニメーション動画生成部と、生成されたアニメーション動画データを格納するアニメーション動画格納部と、を有する。そして、上記アニメーション動画生成部が、動画再生部が動画を再生する際に上記格納場所から素材データを取得して各フレームを生成し、生成したフレームを表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で上記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成することを特徴とする。   In addition, the moving image creating apparatus including the display device according to another aspect of the present invention includes a material data storage unit that stores material data such as an image included in each frame of the moving image, and a material of the frame displayed on the display device. Using the display control information set via the video creation screen where data and frame display control information can be set, and information regarding the storage location of the material data associated with each frame in the material data storage unit, An animation video generation unit that generates animation video data in which display control information including information on a storage location of material data in the frame is described in text format, and an animation video storage unit that stores the generated animation video data; Have Then, when the moving image reproducing unit reproduces the moving image, the animation moving image generating unit obtains material data from the storage location to generate each frame, and the generated frame is sequentially displayed based on the display control information. Animation moving image data describing display control information including information related to the storage location of the material data is generated by a control command method for performing processing.

また、本発明のさらに他の側面におけるディスプレイ装置を備えたコンピュータで動画を作成する動画作成方法は、動画の各フレームに含まれる画像等の素材データを格納するステップと、上記ディスプレイ装置に表示されるフレームの素材データ及びフレームの表示制御情報を設定可能な動画作成画面を介して設定された表示制御情報及び各フレームに対して関連付けられた素材データの格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの格納場所に関する情報を含む表示制御情報をテキスト形式で記述したテキストデータであって、動画再生部が動画を再生する際に上記格納場所から素材データを取得して各フレームを生成し、生成したフレームをその表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で上記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成するステップと、生成されたアニメーション動画データを格納するステップと、を含むことを特徴とする。   According to still another aspect of the present invention, there is provided a moving image creating method for creating a moving image by a computer having a display device, the step of storing material data such as an image included in each frame of the moving image, and the display device displaying the moving image data. For each frame, use the display control information set via the video creation screen that can set the frame material data and frame display control information, and information about the storage location of the material data associated with each frame. Text data in which the display control information including information related to the storage location of the material data in the frame is described in a text format, and the video playback unit acquires the material data from the storage location when playing back the video, Video playback processing that generates and sequentially displays the generated frames based on the display control information. Generating animation moving image data describing display control information including information related to the storage location of the material data in a control command method for performing the operation, and storing the generated animation moving image data And

また、本発明の他の側面における動画作成サービス提供システムは、ネットワークを介して接続可能なディスプレイ装置を備えた利用者端末装置を通じ、利用者が動画を作成する動画作成サービスを提供する動画作成サービス提供システムであって、上記ネットワークを通じて上記利用者端末装置から伝送される画像等の素材データを格納する素材データ格納部と、動画を構成するフレームの素材データ及びフレームの表示制御情報を設定可能な動画作成画面を上記ディスプレイ装置に表示させるための画面情報を含み、上記動画作成画面を通じて設定された各フレームの表示制御情報及び素材データ格納部における素材データの格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの格納場所に関する情報を含む表示制御情報をテキスト形式で記述したアニメーション動画データを生成する機能を、上記利用者端末装置に実現させるための動画作成プログラムを格納するプログラム格納部と、利用者からの要請に応答して上記動画作成プログラムを上記利用者端末装置に伝送する動画作成サービス制御部と、上記利用者端末装置から伝送される上記動画作成プログラムを通じて作成されたアニメーション動画データを格納するアニメーション動画格納部とを有する。そして、上記動画作成プログラムは、利用者端末装置の動画再生部に動画を再生する際にネットワークを通じて格納場所から素材データを取得して各フレームを生成し、生成したフレームを表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で上記素材データの格納場所に関する情報を含む表示制御情報を記述したテキスト形式のアニメーション動画データを生成する機能を上記利用者端末装置に実現させることを特徴とする。   In addition, a moving image creation service providing system according to another aspect of the present invention provides a moving image creation service that provides a moving image creation service in which a user creates a moving image through a user terminal device including a display device connectable via a network. A providing system that can set a material data storage unit that stores material data such as images transmitted from the user terminal device through the network, and material data of frames constituting a moving image and display control information of the frames Including screen information for displaying the moving picture creation screen on the display device, and using the display control information of each frame set through the moving picture creation screen and information on the storage location of the material data in the material data storage unit, Contains information about the storage location of material data in the frame A program storage unit for storing a moving image creating program for causing the user terminal device to generate a function for generating animation moving image data in which display control information is described in a text format, and the moving image in response to a request from a user A moving image creation service control unit that transmits a creation program to the user terminal device; and an animation moving image storage unit that stores animation moving image data created through the moving image creation program transmitted from the user terminal device. The moving image creation program acquires material data from the storage location through the network when the moving image is reproduced on the moving image reproduction unit of the user terminal device, generates each frame, and generates the generated frame based on the display control information. Enables the user terminal device to generate a function for generating text-format animation moving image data in which display control information including information related to the storage location of the material data is described by a control command method for performing moving image reproduction processing to be sequentially displayed. It is characterized by that.

また、上記動画作成サービス提供システムの動画作成プログラムは、利用者からの要請に応答して、アニメーション動画格納部に格納された該当のアニメーション動画データに含まれる素材データを選択可能に表示する編集テンプレート作成画面を上記ディスプレイ装置に表示する機能と、編集テンプレート作成画面で選択された素材データが所定の編集テンプレート画面に編集が許可された素材として表示されるための画面情報を上記アニメーション動画データの編集テンプレート情報として生成する機能と、編集テンプレート情報を動画作成サービス提供システムに伝送する機能と、をさらに上記利用者端末装置に実現させるための編集テンプレート作成プログラムを含む。そして、動画作成サービス提供システムは、上記利用者端末装置から伝送される編集テンプレート作成プログラムを通じて作成された編集テンプレート情報を格納する編集テンプレート格納部をさらに有することを特徴とする。   In addition, the video creation program of the video creation service providing system is an edit template that displays the material data included in the corresponding animation video data stored in the animation video storage unit in response to a request from the user. Editing the animation video data for displaying the creation screen on the display device and screen information for displaying the material data selected on the editing template creation screen as the material permitted to be edited on the predetermined editing template screen An editing template creation program for causing the user terminal device to realize a function of generating template information and a function of transmitting editing template information to the moving image creation service providing system is further included. The moving image creation service providing system further includes an edit template storage unit that stores edit template information created through an edit template creation program transmitted from the user terminal device.

また、本発明のさらに他の側面における動画作成サービス提供システムは、ネットワークを介して接続可能なディスプレイ装置を備えた利用者端末装置を通じ、利用者が動画を作成する動画作成サービスを提供する動画作成サービスシステムであって、動画のフレームを構成する素材データを格納する素材データ格納部と、動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたテキストデータであって、上記利用者端末装置における動画生成部が動画を再生する際に格納場所から素材データを取得して各フレームを生成し、生成したフレームを表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で上記素材データの格納場所に関する情報を含む表示制御情報を記述したテキスト形式のアニメーション動画データを格納するアニメーション動画格納部と、上記アニメーション動画データに対する動画の編集テンプレート情報であって、所定の編集テンプレート画面に当該アニメーション動画データにおける編集が許可された素材及び/又は表示制御情報として表示されるための画面情報を格納する編集テンプレート格納部と、利用者からの要求に応答して、該当のアニメーション動画データ、編集テンプレート情報及び編集テンプレート画面を前記利用者端末装置に伝送する動画サービス制御部と、を有する。そして、上記編集テンプレート画面又は上記編集テンプレート情報が、上記アニメーション動画データに対する各フレームの素材及び/又は表示制御情報の編集内容を当該アニメーション動画データにテキスト形式で反映して当該利用者のアニメーション動画データを生成する編集処理を上記利用者端末装置に実行させるための制御命令を含み、上記動画サービス制御部が、上記編集処理を通じて作成されたアニメーション動画データを、上記ネットワークを通じて利用者端末装置から受信して利用者毎に当該利用者のアニメーション動画データとしてアニメーション動画格納部に格納することを特徴とする。   A video creation service providing system according to still another aspect of the present invention provides a video creation service that provides a video creation service in which a user creates a video through a user terminal device having a display device connectable via a network. In the service system, the material data storage unit for storing the material data constituting the frame of the moving image, the display control information for each frame constituting the moving image, and the information on the storage location for storing the material data included in the frame are text. Text data described in a format, when the moving image generation unit in the user terminal device reproduces the moving image, obtains the material data from the storage location, generates each frame, and uses the generated frame as display control information Storage of the material data in a control command system for performing video playback processing that is sequentially displayed based on An animation movie storage unit for storing text-format animation movie data in which display control information including information about the location is described, and animation editing template information for the animation movie data, the animation movie data being displayed on a predetermined editing template screen An editing template storage unit that stores material that is permitted to be edited and / or screen information to be displayed as display control information, and corresponding animation video data, editing template information, and A moving image service control unit that transmits an editing template screen to the user terminal device. Then, the editing template screen or the editing template information reflects the editing contents of each frame material and / or display control information for the animation moving image data in the animation moving image data in a text format. Including a control command for causing the user terminal device to execute editing processing, and the moving image service control unit receives animation moving image data created through the editing processing from the user terminal device through the network. Each user stores the animation moving image data of the user in the animation moving image storage unit.

また、本発明の他の側面におけるディスプレイ装置を備えたコンピュータに動画の再生処理を実行させるための動画再生プログラムは、上記コンピュータに、動画を構成する複数のフレーム順に各フレームの表示制御情報を読み込み、表示制御情報に含まれる当該フレームを構成する素材データの格納場所に関する情報に基づいて格納場所から素材データを取得する機能と、取得した素材データを用いて表示制御情報に基づくフレームを各々生成する機能と、生成した各フレームの表示制御情報に基づく表示制御を遂行しつつ、フレーム順に生成した各フレームを上記ディスプレイ装置に順次表示する機能と、を実現させることを特徴とする。   According to another aspect of the present invention, there is provided a moving image playback program for causing a computer having a display device to execute a moving image playback process, which reads the display control information of each frame in the order of a plurality of frames constituting the moving image. A function for acquiring material data from a storage location based on information on a storage location of material data constituting the frame included in the display control information, and a frame based on display control information using the acquired material data, respectively. A function and a function of sequentially displaying each frame generated in the order of frames on the display device while performing display control based on the display control information of each frame generated are realized.

また、本発明の上記動画再生プログラムは、再生される動画の再生位置を表示する再生スライダをディスプレイ装置に表示する機能と、フレーム順に各フレームの表示制御情報に含まれるフレーム再生時間を用いて、再生スライダを通じて指定された任意の再生位置に対応するフレームを特定する機能と、特定されたフレームを再生開始位置として当該特定されたフレームを含むフレーム順序で生成した各フレームの表示制御情報に基づく表示制御を遂行しつつ、上記フレーム順に生成した各フレームを上記ディスプレイ装置に順次表示する機能と、をさらに上記コンピュータに実現させることを特徴とする。   In addition, the moving image reproduction program of the present invention uses a function for displaying a reproduction slider for displaying a reproduction position of a reproduced moving image on a display device, and a frame reproduction time included in display control information of each frame in the order of frames. A function for specifying a frame corresponding to an arbitrary playback position specified through the playback slider, and display based on display control information of each frame generated in the frame order including the specified frame with the specified frame as a playback start position A function of sequentially displaying the frames generated in the order of the frames on the display device while performing the control is further realized in the computer.

また、本発明のさらに他の側面における動画編集プログラムは、動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたアニメーション動画データに基づいて、動画を再生する際に上記格納場所から素材データを取得して各フレームを生成し、生成したフレームを上記表示制御情報に基づいて順次表示する動画再生処理を遂行する動画再生部を備えたコンピュータに、上記アニメーション動画データの編集処理を実行させるための動画編集プログラムであって、上記アニメーション動画データの各フレームを構成する素材データにおいて予めその編集が許可された素材が表示される所定の編集テンプレート画面を上記ディスプレイ装置に表示する機能と、上記編集テンプレート画面において編集が許可された素材に対して他の候補素材を選択可能に制御する機能と、他の候補素材が選択された場合に、該当のアニメーション動画データにおける編集が許可された素材データの格納場所に関する情報を、選択された他の候補素材の格納場所に関する情報にテキスト形式で書き換える機能と、を上記コンピュータに実現させることを特徴とする。   Further, the moving image editing program according to still another aspect of the present invention provides animation moving image data in which display control information of each frame constituting a moving image and information on a storage location where material data included in the frame is stored are described in a text format. A video playback unit for performing video playback processing for acquiring the material data from the storage location and generating each frame when playing the video based on the display control information, and sequentially displaying the generated frames based on the display control information. A moving image editing program for causing a computer provided to execute editing processing of the animation moving image data, wherein a material permitted to be edited in advance is displayed in material data constituting each frame of the animation moving image data A function of displaying the editing template screen of the above on the display device, A function that allows other candidate materials to be selected for materials that are permitted to be edited on the editing template screen, and materials that are permitted to be edited in the corresponding animation video data when other candidate materials are selected A function of rewriting information relating to the storage location of data into information relating to the storage location of another selected candidate material in a text format is realized in the computer.

また、本発明のさらに他の側面における動画編集プログラムは、動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたアニメーション動画データに基づいて、動画を再生する際に上記格納場所から素材データを取得して各フレームを生成し、生成したフレームを上記表示制御情報に基づいて順次表示する動画再生処理を遂行する動画再生部を備えたコンピュータに、上記アニメーション動画データの編集処理を実行させるための動画編集プログラムであって、アニメーション動画データの各フレームの表示制御情報において予めその編集が許可された表示制御情報が表示される所定の編集テンプレート画面を上記ディスプレイ装置に表示する機能と、編集テンプレート画面において編集が許可された表示制御情報を編集可能に制御する機能と、編集が許可された表示制御情報が編集された場合に、該当のアニメーション動画データにおける編集が許可された表示制御情報を、編集後の表示制御情報にテキスト形式で書き換える機能と、を上記コンピュータに実現させることを特徴とする。   Further, the moving image editing program according to still another aspect of the present invention provides animation moving image data in which display control information of each frame constituting a moving image and information on a storage location where material data included in the frame is stored are described in a text format. A video playback unit for performing video playback processing for acquiring the material data from the storage location and generating each frame when playing the video based on the display control information, and sequentially displaying the generated frames based on the display control information. A moving image editing program for causing a computer provided to execute the editing process of the animation moving image data, wherein display control information permitted to be edited in advance is displayed in display control information of each frame of the animation moving image data. The editing template screen of A function for controlling the display control information permitted to be edited on the template screen to be editable, and display control information permitted to be edited in the corresponding animation video data when the display control information permitted to be edited is edited. A function of rewriting the edited display control information in a text format is realized in the computer.

本発明によれば、画像データ等の素材自体を含まないアニメーション動画データを作成することができ、動画作成及び動画配信に好適な動画を提供することが可能となる。   According to the present invention, animation moving image data that does not include material itself such as image data can be created, and a moving image suitable for moving image creation and moving image distribution can be provided.

すなわち、動画再生部の動画再生の際に画像等の素材をその格納場所から取得して該当のフレームをリアルタイムに生成して順次表示する動画再生処理を遂行させるアニメーション動画データは、画像等の素材を保持しないため、そのデータ容量を極めて小さくすることができる。   That is, animation video data for performing a video playback process of acquiring a material such as an image from the storage location and generating a corresponding frame in real time and displaying it sequentially when the video playback unit plays back the video is a material such as an image. Therefore, the data capacity can be made extremely small.

さらに、従来のように画像等の複数の素材データを1つの動画ファイルに包含させる必要がないため、画像等の素材データ自体が介在しない動画生成プロセスを実現でき、動画生成プロセスが簡素化され、従来の動画生成プロセスによりも格段に処理負担が低減される。   Furthermore, since it is not necessary to include a plurality of material data such as images in one moving image file as in the past, it is possible to realize a moving image generation process that does not involve the material data itself such as images, and the moving image generation process is simplified, The processing load is significantly reduced by the conventional moving image generation process.

本発明の第1実施形態における動画作成装置の構成ブロック図である。1 is a configuration block diagram of a moving image creation apparatus in a first embodiment of the present invention. 本発明の第1実施形態における動画作成画面の一例を示す図である。It is a figure which shows an example of the moving image creation screen in 1st Embodiment of this invention. 本発明の第1実施形態における表示制御情報設定画面の一例を示す図である。It is a figure which shows an example of the display control information setting screen in 1st Embodiment of this invention. 本発明の第1実施形態における設定されたフレームの表示制御情報(a)、動画データ(b)の一例を示す図である。It is a figure which shows an example of the display control information (a) and moving image data (b) of the set flame | frame in 1st Embodiment of this invention. 本発明の第1実施形態におけるアニメーション動画データの一例を示す図である。It is a figure which shows an example of the animation moving image data in 1st Embodiment of this invention. 本発明の第1実施形態における動画作成装置の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image production apparatus in 1st Embodiment of this invention. 本発明の第1実施形態におけるアニメーション動画生成処理の処理遷移を示すフローチャートである。It is a flowchart which shows the process transition of the animation moving image production | generation process in 1st Embodiment of this invention. 本発明の第1実施形態における動画再生部がアニメーション動画データに基づいて再生処理を行う際の処理フローを示す図である。It is a figure which shows the processing flow at the time of the moving image reproduction part in 1st Embodiment of this invention performing reproduction | regeneration processing based on animation moving image data. 本発明の第1実施形態における動画再生画面の一例を示す図である。It is a figure which shows an example of the moving image reproduction screen in 1st Embodiment of this invention. 本発明の第1実施形態における動画再生処理の説明するためのフローチャートである。It is a flowchart for demonstrating the moving image reproduction process in 1st Embodiment of this invention. 本発明の第1実施形態におけるアニメーション動画データの編集処理の一例を示す図である。FIG. 5 is a diagram showing an example of editing processing of animation moving image data in the first embodiment of the present invention. 本発明の第1実施形態における動画編集の一例を示す図であり、フレームに素材を追加する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図である。It is a figure which shows an example of the moving image edit in 1st Embodiment of this invention, and is a figure which shows the animation moving image data before and after an edit at the time of performing the edit which adds a raw material to a flame | frame. 本発明の第1実施形態における動画編集の一例を示す図であり、フレームの表示制御情報を変更する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図である。It is a figure which shows an example of the moving image edit in 1st Embodiment of this invention, and is a figure which shows animation moving image data before and after an edit at the time of performing the edit which changes the display control information of a frame. 本発明の第1実施形態における動画編集の一例を示す図であり、フレームの表示制御情報を削除する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図である。It is a figure which shows an example of the moving image edit in 1st Embodiment of this invention, and is a figure which shows the animation moving image data before and after an edit at the time of performing the edit which deletes the display control information of a frame. 本発明の第2実施形態における動画作成装置の構成ブロック図である。It is a structure block diagram of the moving image production apparatus in 2nd Embodiment of this invention. 本発明の第2実施形態における編集テンプレート作成画面(a)、XML形式で生成された編集テンプレート情報(b)の一例を示す図である。It is a figure which shows an example of the edit template creation screen (a) in 2nd Embodiment of this invention, and edit template information (b) produced | generated by the XML format. 本発明の第2実施形態における編集テンプレート画面の一例を示す図である。It is a figure which shows an example of the edit template screen in 2nd Embodiment of this invention. 本発明の第2実施形態における編集テンプレート作成処理の処理遷移を示すフローチャートである。It is a flowchart which shows the process transition of the edit template creation process in 2nd Embodiment of this invention. 本発明の第2実施形態における編集テンプレート画面が表示された動画再生画面の一例を示す図である。It is a figure which shows an example of the moving image reproduction screen where the edit template screen in 2nd Embodiment of this invention was displayed. 本発明の第2実施形態における編集テンプレート画面を通じた編集処理において、編集前のアニメーション動画データ及び編集テンプレート画面(a)、編集後のアニメーション動画データ及び編集テンプレート画面(b)の一例を示す図である。In the edit process through the edit template screen in 2nd Embodiment of this invention, it is a figure which shows an example of the animation moving image data and edit template screen (a) before edit, the animation moving image data after edit, and the edit template screen (b). is there. 本発明の第2実施形態における編集テンプレートを通じた動画編集処理の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image edit process through the edit template in 2nd Embodiment of this invention. 本発明の第3実施形態における動画作成サービス提供システムのネットワーク構成図である。It is a network block diagram of the moving image creation service provision system in 3rd Embodiment of this invention. 本発明の第3実施形態における動画作成サービス提供システムの動画作成サービス提供サーバ及びデータ格納サーバの構成ブロックを示す図である。It is a figure which shows the structural block of the moving image production service provision server and data storage server of the moving image production service provision system in 3rd Embodiment of this invention. 本発明の第3実施形態における利用者端末装置の構成ブロックを示す図である。It is a figure which shows the structural block of the user terminal device in 3rd Embodiment of this invention. 本発明の第3実施形態における動画作成サービスの動画作成の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image preparation of the moving image preparation service in 3rd Embodiment of this invention. 本発明の第3実施形態における動画作成サービスの編集テンプレート作成の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of edit template creation of the moving image creation service in 3rd Embodiment of this invention. 本発明の第3実施形態における動画作成サービスの動画再生の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image reproduction of the moving image creation service in 3rd Embodiment of this invention. 本発明の第3実施形態における動画作成サービスの編集テンプレートを用いた動画編集の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image edit using the edit template of the moving image creation service in 3rd Embodiment of this invention. 本発明の第4実施形態における動画作成サービス提供システムのネットワーク構成図である。It is a network block diagram of the moving image creation service provision system in 4th Embodiment of this invention. 本発明の第4実施形態における動画作成サービス提供システムの動画作成サービス提供サーバ及びデータ格納サーバの構成ブロックを示す図である。It is a figure which shows the structure block of the moving image production service provision server and data storage server of the moving image production service provision system in 4th Embodiment of this invention. 本発明の第4実施形態における利用者端末装置の構成ブロックを示す図である。It is a figure which shows the structural block of the user terminal device in 4th Embodiment of this invention. 本発明の第4実施形態における動画作成サービスの編集テンプレートを用いた動画作成の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image creation using the edit template of the moving image creation service in 4th Embodiment of this invention. 本発明の第4実施形態における動画作成サービス提供システムの変形例の動画作成の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the moving image creation of the modification of the moving image creation service provision system in 4th Embodiment of this invention.

以下、本発明の実施形態を添付の図面を参照しながら詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

(第1実施形態)
図1は、本発明の動画作成方法(動画作成プログラム)が適用された第1実施形態における動画作成装置の構成ブロック図である。
(First embodiment)
FIG. 1 is a configuration block diagram of a moving image creating apparatus according to a first embodiment to which a moving image creating method (moving image creating program) of the present invention is applied.

図1に示すように、本実施形態の動画作成装置100は、インターネット等のネットワークNを通じた他のコンピュータ等との通信制御を遂行する通信制御部110、動画作成装置100全体の制御を司る制御部(CPU)120、メモリ130、ディスプレイ装置141が接続される表示インターフェース(表示IF)140、キーボード等の入力部151及びマウス等の操作部152が接続される外部インターフェース(外部IF)150、Flash(登録商標)Player等の動画再生手段である動画再生部160、後述する動画作成機能を提供する動画作成制御部170、及び動画作成制御部170を通じて作成された動画データを含む各種データを格納する格納部180を含む。なお、動画作成装置100は、パーソナルコンピュータやPDA(Personal Digital Assistant)、携帯電話機等の移動通信端末装置などの通信機能及び演算機能を備えた情報処理装置により実現できる。   As shown in FIG. 1, a moving image creating apparatus 100 according to the present embodiment includes a communication control unit 110 that performs communication control with other computers and the like through a network N such as the Internet, and a control that controls the entire moving image creating apparatus 100. Unit (CPU) 120, memory 130, display interface (display IF) 140 to which display device 141 is connected, input unit 151 such as a keyboard and external interface (external IF) 150 to which operation unit 152 such as a mouse is connected, Flash Stores various types of data including a moving image reproducing unit 160 that is a moving image reproducing means such as (registered trademark) Player, a moving image creation control unit 170 that provides a moving image creation function described later, and moving image data created through the moving image creation control unit 170. A storage unit 180 is included. The moving image creating apparatus 100 can be realized by an information processing apparatus having a communication function and an arithmetic function such as a personal computer, a PDA (Personal Digital Assistant), and a mobile communication terminal device such as a mobile phone.

動画作成制御部170は、動画を作成する作成者からの要請、例えば、動画作成機能を実行させるボタンやアイコン等の押下・選択に応答して、画面データ格納部181から動画を作成するための画面情報を取得し、この画面情報に基づいて動画作成画面をディスプレイ装置141に表示させる。そして、ディスプレイ装置141に表示された動画作成画面における作成者の操作・入力制御を遂行するとともに、動画として後述するアニメーション動画データを生成する。このため、動画作成制御部170は、アニメーション動画生成部171を含み、該アニメーション動画生成部171が動画作成画面において作成者が設定・選択した動画の表示制御情報に基づいて動画データを生成する。なお、アニメーション動画生成部171は、動画作成制御部170と個別の態様で構成することも可能であり、動画作成制御部170がアニメーション動画生成部171の機能を遂行するように構成することも可能である。   The movie creation control unit 170 creates a movie from the screen data storage unit 181 in response to a request from a creator who creates a movie, for example, pressing or selecting a button or icon for executing the movie creation function. Screen information is acquired, and a moving image creation screen is displayed on the display device 141 based on the screen information. Then, the creator's operation / input control on the moving image creation screen displayed on the display device 141 is performed, and animation moving image data to be described later is generated as a moving image. For this reason, the moving image creation control unit 170 includes an animation moving image generation unit 171, and the animation moving image generation unit 171 generates moving image data based on the display control information of the moving image set and selected by the creator on the moving image creation screen. The animation moving image generation unit 171 can be configured separately from the moving image creation control unit 170, and the moving image generation control unit 170 can be configured to perform the function of the animation moving image generation unit 171. It is.

格納部180は、アニメーション動画生成部171によって生成されたアニメーション動画データを格納するアニメーション動画格納部183、動画のフレームを構成する背景画、登場キャラクタ、台詞などの文字情報が表示される吹き出しなどの画像等の素材及びBGMや台詞に対応する音声、効果音などの音データ等の素材を格納する素材データ格納部182、及び動画作成画面その他のディスプレイ装置141に表示される画面の情報を格納する画面データ格納部181を含む。   The storage unit 180 includes an animation moving image storage unit 183 that stores the animation moving image data generated by the animation moving image generation unit 171, a background image that forms a frame of the moving image, a balloon that displays character information such as an appearance character and dialogue, and the like. Material data storage unit 182 for storing materials such as images, sound corresponding to BGM and speech, sound data such as sound effects, and information on screens displayed on the moving image creation screen and other display devices 141 are stored. A screen data storage unit 181 is included.

図2は、本実施形態の動画作成画面の一例を示す図であり、図3は、動画の各フレームに対する表示制御情報の設定画面の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a moving image creation screen according to the present embodiment, and FIG. 3 is a diagram illustrating an example of a display control information setting screen for each frame of the moving image.

図2に示すように、動画作成画面MSは、動画を構成する複数のフレームが表示されるフレーム表示欄MS1、背景画、登場キャラクタ画、音楽データ(BGM)等の素材データが表示される素材表示欄MS2、フレームに表示する文字情報の文字入力欄MS3、各フレームの表示制御情報を設定するための表示制御情報設定欄MS4、及び選択したフレームが表示され、素材表示欄MS2に表示された素材データをクリックアンドドロップして選択したフレームに素材データを設定(関連付け)することができる選択フレーム表示欄MS5の各表示領域を含む。これら各表示領域の表示制御は、動画作成制御部170によって遂行される。   As shown in FIG. 2, the moving image creation screen MS is a material on which material data such as a frame display field MS1 in which a plurality of frames constituting the moving image are displayed, a background image, an appearance character image, and music data (BGM) are displayed. Display field MS2, character input field MS3 for character information to be displayed in the frame, display control information setting field MS4 for setting display control information for each frame, and the selected frame are displayed and displayed in the material display field MS2. Each display area of the selected frame display field MS5 that can set (associate) material data with the frame selected by clicking and dropping the material data is included. Display control of these display areas is performed by the moving image creation control unit 170.

具体的な動画作成画面MSを通じた動画の作成方法について説明すると、動画は、複数のフレームが連続して表示される一連の動く画像であり、作成者は、フレーム表示欄MS1において作成する動画のフレーム数を決定することができ、また、そのフレーム数を増減することができる。さらに、フレーム順序(ストーリー順序)を設定・変更することができる。   A specific method for creating a moving image through the moving image creation screen MS will be described. A moving image is a series of moving images in which a plurality of frames are displayed in succession. The creator can create a moving image created in the frame display field MS1. The number of frames can be determined and the number of frames can be increased or decreased. Furthermore, the frame order (story order) can be set / changed.

フレームは、1つ又は複数の背景画等の素材データを含んで構成されるので、動画作成制御部170は、素材表示欄MS2に素材データ格納部182に格納されている画像等の素材データを表示し、作成者は、選択フレーム表示欄MS5に表示された選択フレームに、素材表示欄MS2に表示されている素材データをクリックアンドドロップ操作することでフレームを構成する素材データを設定(関連付け)することができる。   Since the frame is configured to include material data such as one or a plurality of background images, the moving image creation control unit 170 stores the material data such as images stored in the material data storage unit 182 in the material display field MS2. The creator sets (associates) the material data constituting the frame by clicking and dropping the material data displayed in the material display column MS2 into the selected frame displayed in the selected frame display column MS5. can do.

さらに、作成者は、フレームに表示する文字情報を文字入力欄MS3から入力することができ、例えば、動画タイトル、該フレームの登場キャラクタの台詞等の文字情報を入力することができる。   Further, the creator can input character information to be displayed on the frame from the character input field MS3. For example, the creator can input character information such as a moving image title and dialogue of characters appearing in the frame.

また、作成者は、素材データを含む各フレームの表示制御情報を表示制御情報設定欄MS4で設定することができる。具体的には、表示制御情報設定欄MS4は、フレームの再生時間、フレームにおける背景画、登場キャラクタ、吹き出し、文字情報の表示位置、及び各フレーム又は動画全体における音声、BGM、効果音、素材エフェクト、文字エフェクトを設定する表示領域である。なお、表示制御情報設定欄MS4が動画作成画面MSの文字入力欄MS3を含むように構成することもでき、表示制御情報設定欄MS4において、作成者は文字入力を行うことも可能である。   Further, the creator can set display control information for each frame including material data in the display control information setting field MS4. Specifically, the display control information setting field MS4 includes a frame playback time, a background image in the frame, an appearance character, a speech balloon, a display position of character information, and sound, BGM, sound effects, and material effects in each frame or the entire moving image. This is the display area for setting character effects. The display control information setting field MS4 may be configured to include a character input field MS3 of the moving image creation screen MS, and the creator can also input characters in the display control information setting field MS4.

図3は、フレームの再生時間及び登場キャラクタの表示位置についての表示制御情報設定欄MS4の一例を示す図である。作成者は、表示制御情報を設定するフレームを選択した後に、表示制御情報設定欄MS4における設定開始ボタン等を押下すると、動画作成制御部170は、図3に示す画面をディスプレイ装置141に表示する。そして、作成者は、選択したフレームの再生時間を予め設定された再生時間から選択したり、直接任意の再生時間を入力して、当該フレームの再生時間を設定することができる。   FIG. 3 is a diagram illustrating an example of the display control information setting field MS4 regarding the frame playback time and the display position of the appearance character. When the creator selects a frame for setting display control information and then presses a setting start button or the like in the display control information setting field MS4, the moving image creation control unit 170 displays the screen shown in FIG. . The creator can select the playback time of the selected frame from preset playback times, or can directly input an arbitrary playback time to set the playback time of the frame.

また、作成者によって選択されたフレームに登場キャラクタの画像が関連付けられている場合は、動画作成制御部170は、図3に示す画面に選択されたフレームとともに登場キャラクタ画像を表示する。作成者は、マウスポインタで登場キャラクタ画像を選択してフレーム内を任意の位置に当該登場キャラクタを配置することができる。   When the appearance character image is associated with the frame selected by the creator, the moving image creation control unit 170 displays the appearance character image together with the selected frame on the screen shown in FIG. The creator can select an appearance character image with the mouse pointer and place the appearance character at an arbitrary position in the frame.

また、登場キャラクタを移動させるフレーム構成とする場合、作成者は、移動元(初期表示位置)のA地点から移動先のB地点まで、登場キャラクタ画像をマウスポインタで移動させることにより、初期表示位置及び移動先を設定することができる。このとき、動画作成制御部170は、予め設定されたフレームの座標系(例えばXY座標)に従ってマウスポインタで指定された位置情報を取得し、初期表示位置及び移動先の各座標情報を算出して保持することができる。なお、登場キャラクタ画像のA地点からB地点までの移動速度は、当該フレームの再生時間を用いて調節することができる(実際の表示制御では、後述するように設定されたフレーム再生時間でA地点から移動先のB地点まで移動するように制御されるので、初期表示位置及び移動先位置に対してフレーム再生時間が設定されることで、登場キャラクタの移動速度が設定されることになる)。   Further, in the case of a frame configuration for moving the appearance character, the creator moves the appearance character image from the point A of the movement source (initial display position) to the point B of the movement destination with the mouse pointer to thereby move the initial display position. And a destination can be set. At this time, the moving image creation control unit 170 acquires position information designated by the mouse pointer according to a preset frame coordinate system (for example, XY coordinates), and calculates each coordinate information of the initial display position and the movement destination. Can be held. Note that the moving speed from the point A to the point B of the appearance character image can be adjusted using the playback time of the frame (in actual display control, the point A is set at the frame playback time set as described later. Since the frame reproduction time is set with respect to the initial display position and the movement destination position, the moving speed of the appearance character is set).

さらに、作成者は、選択したフレームを構成する画像等の素材及び文字情報に対するエフェクトを、表示制御情報設定欄MS4を通じて設定することもできる。例えば、作成者が表示制御情報設定欄MS4のエフェクト設定ボタン等を押下すると、動画作成制御部170は、素材又は文字情報に対するエフェクト項目をディスプレイ装置141に表示し、作成者は、各エフェクト項目に従って素材及び文字情報に対するエフェクトを設定(選択)することができる(不図示)。   Further, the creator can set the effect on the material such as the image and the character information constituting the selected frame through the display control information setting field MS4. For example, when the creator presses an effect setting button or the like in the display control information setting field MS4, the moving image creation control unit 170 displays effect items for the material or character information on the display device 141, and the creator follows the effect items. It is possible to set (select) an effect on material and character information (not shown).

画像等の素材に対するエフェクトとしては、カラー(色)や登場キャラクタなどの画像の動作エフェクト(例えば、登場キャラクタをスライド、回転等させるアニメーション動作)があり、動画のタイトルや動画中の台詞などの文字情報に対するエフェクトとしては、文字のカラー(色)やフォント、文字の動作エフェクト(例えば、台詞をスライド、回転等させるアニメーション動作)がある。なお、これらの設定されたエフェクト情報は、その動画の表示制御情報としてアニメーション動画データに含まれる。   As an effect on materials such as images, there are image motion effects such as color and appearance characters (for example, animation operations that slide and rotate the appearance characters). Characters such as movie titles and dialogue lines As an effect on information, there are a character color, a font, and a character operation effect (for example, an animation operation that slides, rotates, and the like). The set effect information is included in the animation moving image data as display control information of the moving image.

なお、本実施形態では、フレームの表示制御の設定例として表示制御情報設定欄MS4を動画作成画面MSと個別の構成としているが、これに限らず設定可能な各表示制御情報を動画作成画面MS内の表示制御情報設定欄MS4にリスト表示させ、各表示制御項目に対する設定・入力ができるように構成することも可能である。また、色の設定は、例えばカラーパレットなどを別途表示して選択させるように構成することもでき、本実施形態の表示制御情報設定欄MS4の構成は、その動画作成のユーザインターフェースとして適宜変更することが可能である。すなわち、本実施形態の動画作成画面MSは、従来の動画作成における様々な技術を適用することが可能であり、その画面構成、選択手段、表示方法などは、作成者が動画を作成する上で使い勝手の良い画面構成及びその画面制御を適用することができる。   In this embodiment, the display control information setting field MS4 is configured separately from the movie creation screen MS as an example of frame display control settings. However, the present invention is not limited to this, and each display control information that can be set is displayed in the movie creation screen MS. It is also possible to make a list display in the display control information setting field MS4 in the list so that setting / input for each display control item can be performed. Further, the color setting can be configured such that, for example, a color palette is separately displayed and selected, and the configuration of the display control information setting field MS4 of the present embodiment is appropriately changed as a user interface for creating the moving image. It is possible. That is, the moving image creation screen MS of the present embodiment can apply various techniques in conventional moving image creation, and the screen configuration, selection means, display method, and the like are those for the creator creating the moving image. A user-friendly screen configuration and its screen control can be applied.

また、本実施形態では、動画全体についての表示制御情報を設定することも可能であり、例えば、動画全体において出力されるBGM音楽データを動画全体に関連付けられる素材として設定することもできる。すなわち、各フレームに個別に又は動画全体を通じた素材データの関連付けが可能である。   In the present embodiment, it is also possible to set display control information for the entire moving image. For example, BGM music data output in the entire moving image can be set as a material associated with the entire moving image. That is, it is possible to associate material data with each frame individually or throughout the entire moving image.

このように作成者は、動画作成画面MSを通じて所望するフレーム構成及び表示制御の動画を作成することができ、動画作成制御部170は、動画作成画面MSを通じて作成された各フレームの表示制御情報をフレーム別にメモリ130に又はアニメーション動画格納部183に一時的に格納する。図4(a)は、動画を構成する複数のフレームのフレーム1についての表示制御情報の一例を示す図であり、フレーム再生時間(500ms)、背景画(背景画1.jpg)、登場キャラクタ(登場キャラクタ1.png)、移動元位置(X=10,Y=200)、移動先位置(X=100,Y=200)、素材3(吹き出し1.swf)、文字情報(○○○・・・・)、文字エフェクト(黒色)、音楽(BGM1.swf)が、フレーム1の表示制御情報として保持される。その他の動画を構成するフレーム2〜フレームnについても同様に個別に表示制御情報が保持される。   In this way, the creator can create a desired frame configuration and display control movie through the movie creation screen MS, and the movie creation control unit 170 can display display control information of each frame created through the movie creation screen MS. Each frame is temporarily stored in the memory 130 or the animation moving image storage unit 183. FIG. 4A is a diagram showing an example of display control information for frame 1 of a plurality of frames constituting a moving image. Frame reproduction time (500 ms), background image (background image 1.jpg), appearance character ( Appearing character 1. png), source position (X = 10, Y = 200), destination position (X = 100, Y = 200), material 3 (speech balloon 1. swf), character information (XXX) ..), Character effect (black), music (BGM1.swf) are held as display control information of frame 1. Similarly, the display control information is individually held for frames 2 to n constituting other moving images.

そして、作成者は、不図示の動画生成ボタン等を押下することにより動画を生成することができる。本実施形態の動画作成制御部170は、作成者からの動画生成要求に応答して、保持している動画の各フレームの表示制御情報を用いたアニメーション動画の生成処理を、アニメーション動画生成部171に遂行させる。   Then, the creator can generate a moving image by pressing a moving image generation button or the like (not shown). In response to a video generation request from the creator, the video generation control unit 170 according to the present embodiment performs an animation video generation process using display control information of each frame of the stored video. Let it be carried out.

本実施形態の動画生成プロセスは、アニメーション動画生成部171により以下のような処理が遂行され、動画再生部160にアニメーション動画再生処理を実行させるためのアニメーション動画データを生成する。   In the moving image generation process of this embodiment, the following processing is performed by the animation moving image generation unit 171 to generate animation moving image data for causing the moving image reproduction unit 160 to execute the animation moving image reproduction process.

上述のように、一般的な従来の動画ファイルは、背景画、登場キャラクタ、吹き出し等の画像の1つ又は複数の素材を含んだフレームが、その動画を構成するフレーム数分含まれ、素材が画像等のデータとして存在する。このため、従来の動画生成プロセスは、画像等の各素材を含んだフレームを生成し、さらに生成した複数のフレームを連結して1つの動画データとして生成する処理手順を踏んでいる。   As described above, a general conventional moving image file includes a frame including one or a plurality of materials such as a background image, an appearance character, and a speech balloon as many as the number of frames constituting the moving image. Exists as data such as images. For this reason, the conventional moving image generation process takes a processing procedure of generating a frame including each material such as an image, and further generating a single moving image data by concatenating the plurality of generated frames.

これに対してアニメーション動画生成部171による動画生成プロセスは、フレームを構成する画像等の素材がデータとして存在しない動画データであって、動画再生部160での動画再生の際に、該動画再生部160が素材データをその格納場所から取得して該当のフレームをリアルタイムに生成して順次表示する動画再生処理を遂行させるための動画再生プログラムを動画データして生成する動画生成プロセスを遂行する。すなわち、本実施形態のアニメーション動画データは、画像データ等の素材自体を含まない表示制御情報のみで構成された動画再生プログラムとして生成され、画像データ等の素材については、その素材データの格納場所に関する情報が各フレームの表示制御情報に含まれるように構成される。   On the other hand, the moving image generation process by the animation moving image generation unit 171 is moving image data in which a material such as an image constituting a frame does not exist as data, and when the moving image reproduction unit 160 reproduces the moving image, 160 performs a moving image generation process in which a moving image reproduction program for performing moving image reproduction processing for acquiring material data from the storage location, generating corresponding frames in real time and sequentially displaying them is generated as moving image data. That is, the animation moving image data of the present embodiment is generated as a moving image reproduction program composed only of display control information not including the material itself such as image data, and the material such as the image data is related to the storage location of the material data. Information is configured to be included in the display control information of each frame.

図4(a)に示すように、図2及び図3に示した動画作成画面を通じて作成された動画は、そのフレーム毎に素材及びその表示制御情報が関連付けられて保持されており(フレーム毎に表示制御情報がグループ化されており)、これら各フレームの表示制御情報を用いて動画再生部160に本実施形態の動画再生処理を遂行させる動画再生プログラムを当該動画の動画データとして生成する。各フレームを構成する画像等の素材については、その素材が格納されている格納場所、すなわち、素材データ格納部182における格納場所に関する情報(例えば、ディレクトリパス情報やURL情報)を用い、動画再生部160が格納場所に関する情報に従って素材を取得するように動作させ、かつ動画再生部160側でフレーム生成処理を遂行する機能を実現させる動画データを生成する。   As shown in FIG. 4 (a), the moving image created through the moving image creation screen shown in FIGS. 2 and 3 holds the material and the display control information in association with each frame (for each frame). Display control information is grouped), and using the display control information of each frame, a video playback program that causes the video playback unit 160 to perform the video playback processing of this embodiment is generated as video data of the video. For a material such as an image constituting each frame, a moving image playback unit uses information on a storage location where the material is stored, that is, information on a storage location in the material data storage unit 182 (for example, directory path information and URL information). The moving image data is generated so that the 160 operates to acquire the material according to the information on the storage location and realizes the function of performing the frame generation processing on the moving image reproducing unit 160 side.

本実施形態のアニメーション動画生成部171は、XML形式で動画再生プログラムを生成することができ、図4(b)は、図4(a)のフレーム1の表示制御情報をXML形式で記述した一例である。図4(b)に示すように、タグ<frame>〜</frame>で1つのフレームが記述され、このタグ間に当該フレーム1の素材データの格納場所に関する情報を含む表示制御情報がXML形式で記述される。本実施形態では、フレームを表すタグにフレームの再生時間が含まれ、例えば、フレーム1の再生時間が500ミリ/秒の場合、フレーム1のタグ<frame interval=“500">〜</frame>の間に素材データの格納場所に関する情報を含む表示制御情報が記述される。なお、<!--フレーム_1-->は、何番目のフレームかを示すフレーム順序におけるフレーム番号を表示するコメントである。   The animation moving image generation unit 171 of the present embodiment can generate a moving image reproduction program in the XML format. FIG. 4B is an example in which the display control information of the frame 1 in FIG. 4A is described in the XML format. It is. As shown in FIG. 4B, one frame is described by tags <frame> to </ frame>, and display control information including information on the storage location of the material data of the frame 1 is in XML format between the tags. It is described by. In this embodiment, the tag representing the frame includes the frame playback time. For example, when the frame 1 playback time is 500 milliseconds / second, the frame 1 tag <frame interval = “500”> to </ frame> Display control information including information related to the storage location of the material data is described in between. Note that <!-Frame_1-> is a comment that displays the frame number in the frame order indicating the frame number.

フレームに含まれる素材データについては、タグ<item>〜</item>で1つの素材が記述され、当該フレームが複数の素材データで構成されて場合、複数のタグ<item>〜</item>が記述される。例えば、フレーム1に関連付けられた背景画1に対しては、その背景画1の格納場所に関するURL情報「http://・・・・・/images/背景画1.jpg」がXML形式で生成され、その素材データが格納場所に関する情報によって特定される。その他登場キャラクタ及び吹き出し等の素材に対しても同様にタグ<item>〜</item>で記述される。   For material data included in a frame, if a single material is described with tags <item> to </ item> and the frame is composed of multiple material data, multiple tags <item> to </ item> Is described. For example, for background image 1 associated with frame 1, URL information “http: // ・ ・ ・ ・ ・ / images / background image 1.jpg” relating to the storage location of background image 1 is generated in XML format. The material data is specified by the information on the storage location. In addition, tags <item> to </ item> are similarly described for other characters such as characters and balloons.

また、背景画1.jpg,吹き出し_1.swf、登場キャラクタ1.pngの各々の当該フレームにおける位置情報は、
<xInfo type="BasicTransitionType" startNum="○○" targetNum=“○○"/>
<yInfo type="BasicTransitionType" startNum="○○" targetNum="○○"/>
と生成することができ、各素材に対応するタグ<item>〜</item>間に記述される。なお、登場キャラクタが当該フレームで移動する場合、例えば、X方向に移動させる場合には、X方向の「startNum(移動元)」及び「targetNum(移動先)」の値を相違させることで、当該登場キャラクタの移動表示制御を動画再生部160に遂行させることができる。なお、X方向、Y方向ともに「startNum」及び「targetNum」を同じ値である場合は、その素材がフレーム内の所定の位置に固定表示されることになる。
In addition, the position information of each frame of background image 1.jpg, speech bubble_1.swf, and appearance character 1.png
<xInfo type = "BasicTransitionType" startNum = "XX" targetNum = "XX"/>
<yInfo type = "BasicTransitionType" startNum = "XX" targetNum = "XXX"/>
And is described between tags <item> to </ item> corresponding to each material. When the appearance character moves in the frame, for example, in the case of moving in the X direction, the values of “startNum (movement source)” and “targetNum (movement destination)” in the X direction are made different. The moving image reproduction unit 160 can perform the movement display control of the appearance character. When “startNum” and “targetNum” have the same value in both the X direction and the Y direction, the material is fixedly displayed at a predetermined position in the frame.

また、吹き出し1.swfに表示される文字情報は、直接表示制御情報に含まれて記述され、その文字情報のフォント及び色の情報を含んだ<baseInfo type=“BalloonBaseType” text=“○○○○○(文字情報)" align="left" font="MSPゴシック"color="000000(黒)"/>のようにXML形式で生成することができ、動画再生部160が吹き出し_1.swfにフォントがMSPゴシックで色が黒色の文字情報「○○○○○」を表示する処理を遂行させる。図4の例では、素材である吹き出し1.swfに文字情報を表示する構成であるので、吹き出し1のタグ<item>〜</item>間にこの文字情報に関する表示制御情報が記述される。   Also, the character information displayed in the balloon 1.swf is described by being directly included in the display control information, and includes the font and color information of the character information <baseInfo type = “BalloonBaseType” text = “○○○ XX (character information) "align =" left "font =" MSP Gothic "color =" 000000 (black) "/> can be generated in the XML format, and the moving image playback unit 160 has a balloon_1.swf The process of displaying the character information “XXXXXX” whose font is MSP Gothic and black is performed. In the example of FIG. 4, the character information is displayed in the balloon 1.swf that is the material, and therefore display control information related to the character information is described between the tags <item> to </ item> of the balloon 1.

また、BGMや台詞に対応する音声、効果音などの音データについても、画像等の素材と同様にタグ<item>〜</item>で1つの音データが記述され、そのBGM1.swfやeffect_1.swfの格納場所に関するURL情報「http://・・・・・sounds/BGM1.swf">,「http://・・・・・sounds/effect_1.swf">」がXML形式で生成される。また、本実施形態では、複数のフレームに亘って出力されるBGM音楽データは、<baseInfo type="BgSoundType" targetNum=“○○"/>と記述することができ、targetNum=“○○"においてフレーム数を指定可能に構成され、BGM1.swfを当該フレームから何フレーム先まで再生させるかを制御することができる。例えば、動画全体において出力されるBGM音楽データの場合、動画を構成する複数フレームの最初のフレームにおいて動画全体に対してBGM音楽データを関連付けたXML形式の表示制御情報、すなわち、最初のフレームの音データについて当該動画の総フレーム数nに対応するtargetNum=“n"がタグ<item>〜</item>間に記述される表示制御情報が生成される。また、台詞に対応する音声、効果音などの音データについては、<baseInfo type="EffectSoundType"/>と記述することができる(図5のフレーム2参照)。   Also, for sound data such as sound and sound effects corresponding to BGM and dialogue, one sound data is described with tags <item> to </ item>, as with materials such as images, and the BGM1.swf and effect_1 URL information “http: // ・ ・ ・ ・ ・ sounds / BGM1.swf”>, “http: // ・ ・ ・ ・ ・ sounds / effect_1.swf”> ”related to the storage location of .swf is generated in XML format The In the present embodiment, the BGM music data output over a plurality of frames can be described as <baseInfo type = "BgSoundType" targetNum = "XX" />, where targetNum = "XX" The number of frames can be specified, and it is possible to control how many frames ahead of the BGM1.swf are to be reproduced. For example, in the case of BGM music data output in the entire moving image, the display control information in the XML format in which BGM music data is associated with the entire moving image in the first frame of a plurality of frames constituting the moving image, that is, the sound of the first frame Display control information in which targetNum = “n” corresponding to the total number of frames n of the moving image is described between the tags <item> to </ item> is generated. Also, sound data such as speech and sound effects corresponding to dialogue can be described as <baseInfo type = "EffectSoundType" /> (see frame 2 in FIG. 5).

図5は、本実施形態のアニメーション動画データの一例を示す図であり、アニメーション動画生成部171は、動画がnコのフレームで構成されている場合、各フレームに対応する<frame>〜</frame>のnコのXML形式で記述された表示制御情報をテキストデータで生成し、そのフレーム順序に基づいて生成した各フレームの表示制御情報を配列した当該動画についてのアニメーション動画データを生成する。   FIG. 5 is a diagram illustrating an example of animation moving image data according to the present embodiment. When the moving image is composed of n frames, the animation moving image generation unit 171 includes <frame> to </ corresponding to each frame. Display control information described in the XML format of frame> n is generated as text data, and animation moving image data for the moving image in which display control information of each frame generated based on the frame order is arranged is generated.

このように本実施形態のアニメーション動画データは、動画再生部160に各フレームをパラパラ漫画のように順次表示するアニメーション動画再生を遂行させる動画再生プログラムとして生成される。   As described above, the animation moving image data of the present embodiment is generated as a moving image reproduction program for causing the moving image reproduction unit 160 to perform animation moving image reproduction for sequentially displaying each frame like a flip book.

図8は、動画再生部160がアニメーション動画データを読み込むことにより遂行する動画再生の処理フローを示す図である。同図に示すように、動画再生部160は、使用者の動画再生要求に応答して該当のアニメーション動画データをアニメーション動画格納部183から取得し、取得したアニメーション動画データを読み込む(ステップS201)。動画生成部160は、タグ<frame>〜</frame>毎にそのタグ間の表示制御情報をフレーム順(XMLデータの記述順)に読み込み、第1フレームの素材データの格納場所に関する情報を特定し(ステップS202)、その格納場所(素材データ格納部182)から該当の素材データを取得する(ステップS203)。   FIG. 8 is a diagram illustrating a processing flow of moving image reproduction performed by the moving image reproducing unit 160 by reading animation moving image data. As shown in the figure, in response to the user's video playback request, the video playback unit 160 acquires the corresponding animation video data from the animation video storage unit 183, and reads the acquired animation video data (step S201). The video generation unit 160 reads the display control information between the tags for each tag <frame> to </ frame> in the frame order (the description order of the XML data), and specifies information on the storage location of the material data of the first frame Then, the corresponding material data is acquired from the storage location (material data storage unit 182) (step S203).

次に、取得した素材データを用いてフレームを生成する(ステップS204)。具体的には、上述した表示位置に従って背景画、登場キャラクタ、吹き出し等の素材を重畳させたフレームを生成する。また、吹き出しに台詞等の文字情報が含まれる場合には、アニメーション動画データに直接含まれる文字情報を吹き出し画像内に表示させたフレームを生成する。動画再生部160は、生成したフレームをディスプレイ装置141に表示するとともに、各素材や文字情報をそのタグ<item>〜</item>間に含まれる表示制御情報に従って表示制御する(ステップS205)。   Next, a frame is generated using the acquired material data (step S204). Specifically, a frame in which materials such as a background image, an appearance character, and a balloon are superimposed according to the display position described above is generated. When character information such as dialogue is included in the speech balloon, a frame is generated in which the character information directly included in the animation moving image data is displayed in the speech balloon image. The moving image reproducing unit 160 displays the generated frame on the display device 141, and controls display of each material and character information according to display control information included between the tags <item> to </ item> (step S205).

図4(b)の例では、動画再生部160は、タグ<item>〜</item>を参照して背景画1.jpg、吹き出し_1.swf及び登場キャラクタ1.pngの各素材を特定するとともに、その素材の格納場所に関する情報を用いて各背景画1.jpg、吹き出し_1.swf及び登場キャラクタ1.pngを取得する。素材データを取得した動画再生部160は、これら背景画1.jpg、吹き出し_1.swf及び登場キャラクタ1.pngを重畳させ、かつ吹き出し_1.swf及び登場キャラクタ1.pngをその表示位置に配置したフレーム1を生成する。そして、各素材のタグ<item>〜</item>に含まれる表示制御情報を参照して吹き出し_1.swfにフォントがMSPゴシックで色が黒色の文字情報「○○○○○」を表示させるとともに、登場キャラクタをX方向に移動させる表示制御をそのフレームの再生時間に応じて遂行する。また、動画再生部160は、動画再生部160は、タグ<item>〜</item>を参照してBGM1.swfを特定してその音楽データの格納場所に関する情報を用いてBGM1.swfを取得する。音楽データを取得した動画再生部160は、上述したフレーム1の表示制御においてBGM1.swfを再生する制御も遂行する。   In the example of FIG. 4B, the video playback unit 160 identifies each material of the background image 1.jpg, the balloon_1.swf, and the appearance character 1.png with reference to the tags <item> to </ item>. At the same time, each background image 1.jpg, speech balloon_1.swf, and appearance character 1.png are acquired using information on the storage location of the material. The video playback unit 160 that has acquired the material data superimposes the background image 1.jpg, the balloon_1.swf, and the appearance character 1.png, and the balloon_1.swf and the appearance character 1.png at the display position. The arranged frame 1 is generated. Then, referring to the display control information included in the tags <item> to </ item> of each material, the text information “XXXXXX” is displayed in the balloon _1.swf with the font MSP Gothic and black. In addition, display control for moving the appearance character in the X direction is performed according to the playback time of the frame. In addition, the moving image reproducing unit 160 refers to the tags <item> to </ item>, identifies BGM1.swf, and acquires BGM1.swf using information regarding the storage location of the music data. To do. The moving image reproduction unit 160 that has acquired the music data also performs control for reproducing BGM1.swf in the above-described display control of frame 1.

そして、このステップS202からステップS205までの処理をその動画のフレーム数(タグ<frame>〜</frame>数)分繰り返し行い、フレーム1からフレームnまでの各フレームのリアルタイム生成及び表示制御を順次行うことで、動画再生部160は、作成者が作成した動画をアニメーション動画として動画再生する。動画再生部160は、最後のフレームの生成及び表示制御が終了したか否かを判別し、最後のフレームの表示制御が終了したと判別された場合にその再生処理を終了する(ステップS206)。   The processing from step S202 to step S205 is repeated for the number of frames of the moving image (number of tags <frame> to </ frame>), and real-time generation and display control of each frame from frame 1 to frame n is sequentially performed. By doing so, the moving image reproduction unit 160 reproduces the moving image created by the creator as an animated moving image. The moving image reproduction unit 160 determines whether or not the last frame generation and display control has ended, and ends the reproduction process when it is determined that the last frame display control has ended (step S206).

図6は、本実施形態の動画作成装置100の動画作成処理における処理フローを示したフローチャートである。動画作成制御部170は、動画を作成する作成者からの要請に応答して、画面データ格納部181から動画を作成するための画面情報を取得し、動画作成画面をディスプレイ装置141に表示させる(ステップS101)。続いて、動画作成制御部170は、動画作成画面による動画作成機能を作成者に提供するために画面制御を開始するとともに(ステップS102)、素材データ格納部182から素材データを取得して動画作成画面の素材表示欄に素材データを表示する(ステップS103)。   FIG. 6 is a flowchart showing a processing flow in the moving image creating process of the moving image creating apparatus 100 of the present embodiment. In response to a request from a creator who creates a moving image, the moving image creation control unit 170 acquires screen information for creating a moving image from the screen data storage unit 181 and displays the moving image creation screen on the display device 141 ( Step S101). Subsequently, the video creation control unit 170 starts screen control in order to provide the creator with a video creation function using the video creation screen (step S102), and acquires material data from the material data storage unit 182 to create a video. The material data is displayed in the material display field on the screen (step S103).

動画作成制御部170は、作成者の操作入力に応じたフレーム構成、各フレームに対する素材データの選択、表示制御情報の設定等の設定入力制御を遂行するとともに、作成者が動画を作成するために素材データを素材データ格納部182に登録(格納)する素材登録処理を遂行する(ステップS104)。動画作成制御部170は、作成者から素材データの登録処理の要請があった場合には、その素材データを素材データ格納部182に格納する。なお、画像等の素材データの素材データ格納部182への登録処理は、動画作成前に作成者が予め素材データ格納部182に直接登録することも可能である。   The video creation control unit 170 performs setting input control such as frame configuration according to the operation input of the creator, selection of material data for each frame, setting of display control information, and the like for the creator to create a video. A material registration process for registering (storing) material data in the material data storage unit 182 is performed (step S104). When the creator requests material data registration processing, the moving image creation control unit 170 stores the material data in the material data storage unit 182. The registration process of material data such as images in the material data storage unit 182 can be directly registered in advance in the material data storage unit 182 by the creator before creating a moving image.

次に、動画作成制御部170は、作成者からの動画生成要求に応答し、動画作成画面を通じて作成された動画の各フレームの表示制御情報を用いたアニメーション動画の生成処理を、アニメーション動画生成部171に遂行させる(ステップS105)。アニメーション動画生成部171は、XML形式のアニメーション動画データを生成し(ステップS106)、動画作成制御部170は、アニメーション動画生成部171で生成されたアニメーション動画データをテキスト形式でアニメーション動画格納部183に格納する(ステップS107)。その後、動画作成終了の要求に応答して動画作成処理の終了処理を遂行して動画作成機能を終了させる(ステップS108)。   Next, the movie creation control unit 170 responds to the movie creation request from the creator, and performs animation movie creation processing using the display control information of each frame of the movie created through the movie creation screen. In step S105, the process is executed. The animation moving image generation unit 171 generates animation moving image data in XML format (step S106), and the moving image creation control unit 170 stores the animation moving image data generated by the animation moving image generation unit 171 in the animation moving image storage unit 183 in text format. Store (step S107). After that, in response to the request for the end of the moving image creation, the moving image creation process is terminated to end the moving image creation function (step S108).

図7は、本実施形態のアニメーション動画生成部171によるアニメーション動画データ生成処理の処理フローを示すフローチャートであり、アニメーション動画生成部171は、動画作成制御部170からの動画生成命令を契機にアニメーション動画データ生成処理を遂行する。アニメーション動画生成部171は、動画作成制御部170によって保持されている各フレームの表示制御情報を参照し、当該フレームに含まれている素材データを特定する。そして、特定された素材データについてその格納場所に関する情報を取得する(ステップS1061)。なお、素材の格納場所に関する情報は、素材データ格納部182に格納された素材データのディレクトリパス情報やURL情報であり、素材データと関連付けて予め格納場所の情報を素材データ格納部182に格納しておき、アニメーション動画生成部171が素材データ格納部182から格納場所に関する情報を取得するように構成することができる。また、アニメーション動画生成部182が素材データ格納制182に格納された素材データの格納位置を特定して当該素材データの格納場所に関する情報を取得するように構成することもできる。   FIG. 7 is a flowchart showing a processing flow of animation moving image data generation processing by the animation moving image generation unit 171 of the present embodiment. The animation moving image generation unit 171 is triggered by a moving image generation command from the moving image creation control unit 170. Perform data generation processing. The animation moving image generation unit 171 refers to the display control information of each frame held by the moving image creation control unit 170, and specifies material data included in the frame. And the information regarding the storage location is acquired about the specified material data (step S1061). The information on the storage location of the material is directory path information and URL information of the material data stored in the material data storage unit 182, and the storage location information is stored in advance in the material data storage unit 182 in association with the material data. In addition, the animation moving image generation unit 171 can be configured to acquire information related to the storage location from the material data storage unit 182. Further, the animation moving image generation unit 182 may be configured to specify the storage position of the material data stored in the material data storage system 182 and acquire information regarding the storage location of the material data.

次に、素材データの格納場所に関する情報を取得したアニメーション動画生成部171は、素材データの格納場所に関する情報を含む表示制御情報をフレーム毎にXML形式で生成し(ステップS1062)、生成したXML形式の各表示制御情報をフレーム順序に従って配列し、その動画のアニメーション動画データとしての動画再生プログラムを生成する(ステップS1063)。   Next, the animation moving image generation unit 171 that has acquired the information on the storage location of the material data generates display control information including information on the storage location of the material data in the XML format for each frame (step S1062), and generates the generated XML format. Are arranged according to the frame order, and a moving image reproduction program as animation moving image data of the moving image is generated (step S1063).

このように本実施形態の動画作成装置100は、フレームを構成する画像等の素材がデータとして存在しない動画データであって、動画再生部160での動画再生の際に該動画再生部160が素材データをその格納場所から取得して該当のフレームをリアルタイムに生成して順次表示する動画再生処理を遂行させるための動画再生プログラムを動画データして生成する動画生成処理を提供するとともに、画像データ等の素材自体を含まない表示制御情報のみで構成された動画再生プログラムがその動画データとして生成される(テキスト形式以外のデータを含まないテキストデータのみで構成された動画再生プログラムがその動画データとして生成される)。   As described above, the moving image creating apparatus 100 according to the present embodiment is moving image data in which a material such as an image constituting a frame does not exist as data, and the moving image reproducing unit 160 uses the material when the moving image reproducing unit 160 reproduces the moving image. Provides video generation processing to generate video playback program for executing video playback processing to execute the video playback processing to acquire the data from its storage location and generate the corresponding frames in real time and display them sequentially, image data etc. A video playback program consisting only of display control information that does not include the material itself is generated as the video data (a video playback program consisting only of text data not including data other than text format is generated as the video data )

すなわち、動画再生部160での動画再生の際に該動画再生部160が画像等の素材をその格納場所から取得して該当のフレームをリアルタイムに生成して順次表示する動画再生処理を遂行させる本実施形態のアニメーション動画データは、素材の格納場所に関する情報を含む表示制御情報をテキストデータで保持することができ、そのデータ容量を極めて小さくすることができる。   That is, when the moving image reproducing unit 160 reproduces the moving image, the moving image reproducing unit 160 performs the moving image reproducing process in which the material such as the image is acquired from the storage location, the corresponding frame is generated in real time and sequentially displayed. The animation moving image data of the embodiment can hold display control information including information regarding the storage location of the material as text data, and the data capacity can be extremely reduced.

さらに、従来のように画像等の複数の素材データを1つの動画ファイルに包含させる必要がないため、画像等の素材データ自体が介在しない動画生成プロセスを実現でき、動画生成プロセスが簡素化され、従来の動画生成プロセスによりも格段に処理負担が低減される。このため、動画のフレーム数や素材数、又はその素材のデータ容量に関係なく好適な動画生成プロセスを提供することができる。また、本実施形態の動画生成プロセスは、XML形式でテキストデータを生成するのと同等の極めて処理負荷が小さい生成プロセスであるため、動画生成機能をコンパクトに実現できる。   Furthermore, since it is not necessary to include a plurality of material data such as images in one moving image file as in the past, it is possible to realize a moving image generation process that does not involve the material data itself such as images, and the moving image generation process is simplified, The processing load is significantly reduced by the conventional moving image generation process. Therefore, a suitable moving image generation process can be provided regardless of the number of frames and the number of materials of the moving image, or the data capacity of the material. In addition, since the moving image generation process of the present embodiment is a generation process that has an extremely small processing load equivalent to generating text data in the XML format, the moving image generation function can be realized in a compact manner.

さらに、本実施形態のアニメーション動画データは、動画再生部160が再生処理の際にリアルタイムに画像等の素材データを取得し、フレームを動的に生成しながら動画を構築する動画再生プログラムである。このため、動画再生部160が画像等の複数の素材データを含む1つの動画ファイルを読み込む従来の動画再生に比べて、本実施形態の動画再生処理は、素材データを動的に順次取得しながらフレームをリアルタイムに生成するので、動画再生部160での動画再生処理の負担が低減され、快適な動画再生環境を提供することが可能となる。   Furthermore, the animation moving image data of the present embodiment is a moving image reproduction program that constructs a moving image while dynamically generating frames by acquiring material data such as images in real time during the reproduction process by the moving image reproducing unit 160. For this reason, compared with the conventional moving image reproduction in which the moving image reproducing unit 160 reads one moving image file including a plurality of material data such as images, the moving image reproducing process of the present embodiment dynamically acquires the material data sequentially. Since the frames are generated in real time, the burden of moving image reproduction processing in the moving image reproduction unit 160 is reduced, and a comfortable moving image reproduction environment can be provided.

また、本実施形態のアニメーション動画データは、動画を構成する複数のフレームがその前後のフレームに対して独立した形態で生成される(図5参照)。すなわち、1つのフレームは、タグ<frame>〜</frame>で生成され、このフレームの素材及び表示制御は、タグ<frame>〜</frame>間に含まれて生成されるので、1つのフレームがタグ<frame>〜</frame>間で完結した情報として生成される。このため、他のフレームの素材及び表示制御情報との連関性がない動画生成プロセス及び動画再生プロセスを実現することができる。   In addition, the animation moving image data of the present embodiment is generated in a form in which a plurality of frames constituting the moving image are independent of the frames before and after the frame (see FIG. 5). That is, one frame is generated with tags <frame> to </ frame>, and the material and display control of this frame are generated between tags <frame> to </ frame>. A frame is generated as complete information between tags <frame> to </ frame>. Therefore, it is possible to realize a moving image generation process and a moving image reproduction process that are not associated with other frame materials and display control information.

なお、本実施形態では、アニメーション動画データをXML形式で生成しているが、XML形式以外にも他の形式の制御命令でアニメーション動画データを生成することが可能である。つまり、動画再生部160が読み込み可能であって、かつ本実施形態の動画再生処理が実行可能なプログラム形式であれば、どのような形式でアニメーション動画データを生成してもよい。また、動画再生部160は、Flash(登録商標)Player以外にも他の動画再生手段、例えば、メディアプレーヤ、Quick Time(登録商標)などであってもよい。   In this embodiment, animation moving image data is generated in the XML format. However, animation moving image data can be generated by using a control command in another format other than the XML format. That is, the animation moving image data may be generated in any format as long as the moving image reproduction unit 160 can read the program and can execute the moving image reproduction processing of the present embodiment. In addition to the Flash (registered trademark) player, the moving image playback unit 160 may be other moving image playback means, for example, a media player, Quick Time (registered trademark), or the like.

ここで、アニメーション動画データを用いた動画再生部160の動画再生処理において、任意の再生位置から動画を再生する際の動画再生部160の処理について説明する。   Here, in the video playback process of the video playback unit 160 using animation video data, the process of the video playback unit 160 when playing back a video from an arbitrary playback position will be described.

従来の動画ファイルは、動画全体として再生時間情報を有しているが、動画全体におけるどの再生時間に各フレームが対応しているかに関する情報を含んでいない場合が多い。すなわち、従来の動画ファイルは、動画を構成するフレーム同士が連結され、そのフレーム間に連関性がある。例えば、動画作成時には、フレーム1とフレーム2の各フレームの再生時間情報を設定していても、動画ファイルとして生成されると動画全体で決められた再生時間においてフレーム1及びフレーム2が連関して再生されればよいので、動画全体のどの再生時間に各フレームが対応しているかに関する情報が含まれていない(例えば、ビデオテープのように映像全体の再生時間情報に対して各フレームの再生位置についての再生時間情報が含まれていない)。   A conventional moving image file has reproduction time information as a whole moving image, but often does not include information regarding which reproduction time in the entire moving image corresponds to each frame. That is, in the conventional moving image file, frames constituting the moving image are connected to each other, and there is an association between the frames. For example, even when the playback time information of each frame 1 and frame 2 is set at the time of moving image creation, when generated as a moving image file, frames 1 and 2 are linked in the playback time determined for the entire moving image. Information about which playback time of the entire video corresponds to each frame is not included (for example, the playback position of each frame with respect to the playback time information of the entire video like a video tape). Does not include playback time information).

このため、従来の動画ファイルを任意の再生位置から再生する場合、動画再生部160は、その動画全体の再生時間に基づいて指定された再生位置に対応する再生開始時間を算出し、算出された再生開始時間から再生処理を開始していた(動画全体の再生時間を用いて指定された再生開始位置を特定していた)。   For this reason, when playing back a conventional video file from an arbitrary playback position, the video playback unit 160 calculates the playback start time corresponding to the playback position specified based on the playback time of the entire video, and is calculated The reproduction process was started from the reproduction start time (the reproduction start position designated by using the reproduction time of the entire moving image was specified).

一方、本実施形態のアニメーション動画データは、上述のように各フレームがタグ<frame>〜</frame>で独立して生成され、各フレームの再生時間がタグ<frame interval="○○○">〜</frame>又はその間に含まれて生成される。言い換えれば、各フレームの再生時間が他のフレームの再生時間に対して影響を受けず、かつフレーム生成及び表示制御が動画再生部160においてリアルタイムに行われる。このため、任意の再生位置から再生を開始する場合、指定された再生位置に対応するフレームを容易に特定でき、その特定されたフレームを再生開始位置とする再生制御を遂行することができる。   On the other hand, in the animation moving image data of the present embodiment, as described above, each frame is independently generated with the tags <frame> to </ frame>, and the playback time of each frame is the tag <frame interval = "XXXXX". > ~ </ Frame> or included between them. In other words, the playback time of each frame is not affected by the playback time of other frames, and frame generation and display control is performed in real time in the moving image playback unit 160. For this reason, when playback is started from an arbitrary playback position, a frame corresponding to the designated playback position can be easily specified, and playback control using the specified frame as the playback start position can be performed.

図9は、動画再生画面MPの一例を示す図であり、動画再生画面MPは、動画が表示される表示領域(アニメーション表示画面)MVを含み、さらに、再生開始ボタンP、一時停止ボタンTE、再生時間カウンタTI、再生スライダSL、音量変更スライダSOが設けられている。   FIG. 9 is a diagram illustrating an example of the video playback screen MP. The video playback screen MP includes a display area (animation display screen) MV in which a video is displayed, and further includes a playback start button P, a pause button TE, A playback time counter TI, a playback slider SL, and a volume change slider SO are provided.

再生時間カウンタTIは、動画全体の再生時間と現在再生されている動画の再生時間を表示する(再生時間/動画全体の再生時間)。再生スライダSLは、スライダーバーSB及び再生時間に応じてスライダーバーSB上を移動する移動ポインタSPを備え、再生中の動画全体の現在の再生位置を示す。動画再生部160は、アニメーション動画データを読み込み、動画再生処理を遂行する処理とともに、再生時間カウンタTIの現在の再生時間を表示させつつ、かつ移動ポインタSPをその再生時間に対応するスライダーバーSB上の位置に移動させる制御を遂行する。   The reproduction time counter TI displays the reproduction time of the entire moving image and the reproduction time of the currently reproduced moving image (reproduction time / reproduction time of the entire moving image). The playback slider SL includes a slider bar SB and a moving pointer SP that moves on the slider bar SB according to the playback time, and indicates the current playback position of the entire moving image being played back. The moving image reproduction unit 160 reads the animation moving image data, performs the moving image reproduction process, displays the current reproduction time of the reproduction time counter TI, and moves the moving pointer SP on the slider bar SB corresponding to the reproduction time. The control to move to the position of is performed.

具体的には、動画再生部160は、アニメーション動画データの各フレームの表示制御情報に含まれるフレーム再生時間を参照し、各フレーム再生時間を合算することで動画全体の再生時間を算出して再生時間カウンタTIに表示することができる。また、現在の再生位置における再生時間は、順次生成されてアニメーション表示画面MVに表示される各フレームの再生時間情報を用いて、現在の再生位置までの再生時間を算出して再生時間カウンタTIに表示することができる。また、動画再生部160は、算出した現在の再生位置までの再生時間に対応するスライダーバーSBの位置に移動ポインタSPを移動させる各種制御を遂行することができる。   Specifically, the video playback unit 160 refers to the frame playback time included in the display control information of each frame of the animation video data and calculates the playback time of the entire video by adding the frame playback times. It can be displayed on the time counter TI. The playback time at the current playback position is calculated using the playback time information of each frame that is sequentially generated and displayed on the animation display screen MV, and the playback time up to the current playback position is calculated and stored in the playback time counter TI. Can be displayed. Further, the moving image reproducing unit 160 can perform various controls for moving the movement pointer SP to the position of the slider bar SB corresponding to the calculated reproduction time to the current reproduction position.

図10は、本実施形態の動画再生部160による動画再生処理において、使用者によって指定された任意の再生位置からの動画再生処理を含んだ処理フローを示したフローチャートである。なお、図8に示した動画再生の処理フローと同様の構成については、同様の符号を付してその説明を省略する。   FIG. 10 is a flowchart showing a processing flow including a moving image reproduction process from an arbitrary reproduction position designated by the user in the moving image reproduction process by the moving image reproduction unit 160 of the present embodiment. Note that the same components as those in the moving image playback processing flow shown in FIG.

動画再生部160は、アニメーション動画データを読み込んだ後に、使用者が再生スライダSLにおいて任意の再生位置を指定したか否かを判別する(ステップS201A)。任意の再生位置が指定されたと判別された場合、動画再生部160は、指定された再生位置に対応する再生開始時間を算出する(ステップS201B)。具体的には、スライダーバーSBの長さが動画全体の再生時間と関連付けられているため、スライダーバーSBにおいて指定された位置に対応する再生開始時間を算出することができる。   The moving image reproduction unit 160 determines whether or not the user has designated an arbitrary reproduction position on the reproduction slider SL after reading the animation moving image data (step S201A). When it is determined that an arbitrary reproduction position has been designated, the moving image reproduction unit 160 calculates a reproduction start time corresponding to the designated reproduction position (step S201B). Specifically, since the length of the slider bar SB is associated with the playback time of the entire moving image, the playback start time corresponding to the position specified in the slider bar SB can be calculated.

そして、動画再生部160は、算出された再生開始時間に対応するフレームを特定するために、動画を構成するフレーム順序に基づいて最初のフレームから順に各フレームの再生時間を積算し、指定された再生開始時間に対応するフレームを特定する(ステップS201C)。その後動画再生部160は、特定されたフレーム以降の動画再生処理、すなわち、特定されたフレームの<frame interval="○○○">〜</frame>を読み込み、素材データの格納場所から該当の素材データを取得し、取得した素材データを用いてリアルタイムにフレームを生成し、生成したフレームを表示制御情報に従って表示制御する。   Then, in order to specify the frame corresponding to the calculated reproduction start time, the moving image reproduction unit 160 accumulates the reproduction time of each frame in order from the first frame based on the frame order constituting the moving image, and is designated. A frame corresponding to the reproduction start time is specified (step S201C). Thereafter, the video playback unit 160 reads the video playback process after the specified frame, that is, reads <frame interval = "XXXXX"> to </ frame> of the specified frame, and applies the corresponding from the storage location of the material data. Material data is acquired, a frame is generated in real time using the acquired material data, and display control of the generated frame is performed according to display control information.

このように本実施形態のアニメーション動画データは、各フレームが独立し、フレーム間において連関性を有していないため、再生開始位置に対応するフレームからの動画再生を容易に行うことができる。特に、再生時間の長い動画の場合、動画ファイル全体を読み込み、動画全体の再生時間情報から再生開始位置を割り出す従来と比べ、本実施形態のアニメーション動画データでは、各フレームの再生時間から指定された再生開始位置に対応するフレームを迅速に特定でき、そのフレームからの円滑な動画再生を可能とする。   As described above, in the animation moving image data of the present embodiment, each frame is independent, and there is no association between the frames. Therefore, the moving image reproduction from the frame corresponding to the reproduction start position can be easily performed. In particular, in the case of a video with a long playback time, the entire video file is read and the playback start position is determined from the playback time information of the entire video. A frame corresponding to the reproduction start position can be quickly identified, and smooth moving image reproduction from the frame can be performed.

次に、本実施形態の動画作成装置100において、一度作成された動画に対する編集処理について説明する。   Next, editing processing for a once created moving image in the moving image creating apparatus 100 of the present embodiment will be described.

作成者は、上述した動画作成画面MSから一度作成した動画を編集することができ、動画作成制御部170は、動画作成画面MSに一度作成された動画のリスト情報を表示することができる。動画作成制御部170は、作成者によって選択された編集対象の動画を動画作成画面MSに表示するとともに、動画を作成する際と同様にフレームの追加、フレームの再生時間の変更、素材の追加などを上述の各種画面を通じて編集可能に制御する。   The creator can edit the movie once created from the movie creation screen MS described above, and the movie creation control unit 170 can display the list information of the movie created once on the movie creation screen MS. The movie creation control unit 170 displays the movie to be edited selected by the creator on the movie creation screen MS, and adds a frame, changes the playback time of the frame, adds a material, etc. in the same manner as when creating a movie. Is controlled to be editable through the various screens described above.

次に、動画作成制御部170は、作成者による動画編集が終了した後に(作成者からの動画生成要求に応答して)、その編集された編集結果を編集前のアニメーション動画データに反映する処理をアニメーション動画生成部171に遂行させる。   Next, after the editing of the moving image by the creator is completed (in response to a moving image generation request from the creator), the moving image creation control unit 170 reflects the edited result on the animation moving image data before editing. Is executed by the animation moving image generating unit 171.

具体的には、複数のフレーム構成で生成された動画に対して新たにフレームと追加する動画編集がなされた場合、動画作成制御部170が新たに追加されたフレームの表示制御情報を保持しているので、アニメーション動画生成部171は、その表示制御情報を用いて当該フレームのXML形式の表示制御情報を生成し、追加されたフレーム順序に従って新たなフレームの表示制御情報を挿入する。例えば、図11に示すように、編集前のアニメーション動画データに対し、フレーム3とフレーム4との間にフレーム3−1のXML形式で記述した表示制御情報(フレーム3−1の<frame interval="○○○">〜</frame>)を追加する処理を遂行する。   Specifically, when a moving image editing to be newly added to a moving image generated with a plurality of frame configurations is performed, the moving image creation control unit 170 holds display control information of the newly added frame. Therefore, the animation moving image generation unit 171 generates the display control information in the XML format of the frame using the display control information, and inserts the display control information of the new frame according to the added frame order. For example, as shown in FIG. 11, the display control information described in the XML format of the frame 3-1 between the frame 3 and the frame 4 for the animation moving image data before editing (<frame interval = of the frame 3-1) "○○○"> ~ </ frame>) is added.

このように本実施形態の動画作成装置100は、XML形式で記述されたアニメーション動画データを生成するため、一度作成された動画データに対してその編集結果をテキスト形式で容易に反映することができる。   As described above, since the moving image creating apparatus 100 according to the present embodiment generates animated moving image data described in the XML format, the editing result can be easily reflected in the text format on the once created moving image data. .

つまり、従来の動画編集は、一度作成された動画に編集を施す場合であっても、編集内容を反映させるためには、動画生成プロセスを実行して編集前の動画とは個別の動画が生成する必要があり、編集前の動画に対して編集内容を動画生成プロセスを経ずに反映することができなかった。このため、容易に編集を行うことが困難であった。これに対して本実施形態の動画編集処理は、XML形式で生成されたアニメーション動画データをテキスト形式で編集することで、その動画を編集することができる。したがって、動画生成プロセスを実行することなく、動画データを容易に編集(更新)することができる。   In other words, even in the case of conventional video editing, even when editing a video once created, in order to reflect the edited content, the video generation process is executed to generate a separate video from the video before editing Therefore, the edited content could not be reflected on the pre-edited video without going through the video generation process. For this reason, it has been difficult to easily edit. On the other hand, the moving image editing process of this embodiment can edit the moving image by editing the animated moving image data generated in the XML format in the text format. Therefore, the moving image data can be easily edited (updated) without executing the moving image generation process.

図12は、一度作成された動画のフレームに素材を追加する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図であり、アニメーション動画生成部171は、動画作成制御部170が保持する編集後の表示制御情報に基づいて、追加された素材の格納場所に関する情報及びその表示制御情報を含む<item>〜</item>を生成し、当該特定フレームの<frame interval="○○○">〜</frame>間にテキスト形式で追加挿入する編集処理を遂行する。   FIG. 12 is a diagram illustrating animation moving image data before and after editing in the case where editing is performed to add a material to a frame of a once created moving image. The animation moving image generation unit 171 includes a moving image generation control unit 170. Based on the display control information after editing that is stored, <item> to </ item> including information on the storage location of the added material and the display control information are generated, and <frame interval = "○" of the specific frame Executes the editing process to insert additional text in the text format between XX "> and </ frame>.

また、図13は、一度作成された動画のフレームに表示制御情報を変更する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図であり、アニメーション動画生成部171は、動画作成制御部170が保持する編集後の表示制御情報に基づいて、当該アニメーション動画データにおける変更された該当箇所の表示制御情報を書き換える編集処理を遂行する。   FIG. 13 is a diagram showing animation moving image data before and after editing when editing is performed to change display control information on a frame of a moving image that has been once created. Based on the edited display control information held by the control unit 170, an editing process is performed to rewrite the display control information of the corresponding portion changed in the animation moving image data.

具体的には、フレーム3の再生時間、背景画、吹き出し、該吹き出しに表示される文字情報及び登場キャラクタを変更する編集が行われた場合、アニメーション動画生成部171は、<frame interval=“500">の「500」を「1000」に書き換え、<item id=“背景画1” filename=“http://・・・・・/images/背景画2.jpg">の「filename=“http://・・・・・/images/背景画2.jpg"」を「filename=“http://・・・・・/images/背景画3.jpg"」に書き換え、<item id=“テキスト_2” filename=“http://・・・・/・・・・/item/吹き出し_1.swf>の「filename=“http://・・・・/・・・・/item/吹き出し_1.swf」を「filename=“http://・・・・/・・・・/item/吹き出し_2.swf」に書き換えるとともに、<baseInfo type=“BalloonBaseType” text=“○○○○○" align="left" font="MS Pゴシック"color="0x000000"/>の「text=“○○○○○"」を「text=“○○△△□□"」に書き換え、<item id=“登場キャラクタ” filename=“http://・・・・・・/images/登場キャラクタ2.png">の「filename=“http://・・・・・・/images/登場キャラクタ2.png"」を「filename=“http://・・・・・・/images/登場キャラクタ5.png"」に書き換える編集処理を遂行する。   Specifically, when editing is performed to change the playback time, background image, speech balloon, character information displayed in the speech balloon, and the appearance character of the frame 3, the animation moving image generation unit 171 performs <frame interval = “500 ">" 500 "is rewritten to" 1000 ", and <item id =“ background image 1 ”filename =“ http: // ・ ・ ・ ・ ・ / images / background image 2.jpg ”>“ filename = “http Rewrite “: // ・ ・ ・ ・ ・ / images / background image 2.jpg” ”to“ filename = “http: // ・ ・ ・ ・ ・ / images / background image 3.jpg” ”and <item id =“ Text_2 ”filename =“ http: //·······/item/balloon_1.swf> 'filename = “http: // ······· / item / Rewrite “speech_1.swf” to “filename =“ http: // ・ ・ ・ ・ / ・ ・ ・ ・ /item/speech_2.swf ”and <baseInfo type =“ BalloonBaseType ”text =“ ○○○ ○○ "align =" left "font =" MS P Gothic "color =" 0x000000 "/>" text = "○○○○○" " Rewrite to “text =“ ○ △△△ □□ ””, <item id = “appearing character” filename = “http: // ・ ・ ・ ・ ・ ・ / images / appearing character 2.png”> Editing process to rewrite “http: // ・ ・ ・ ・ ・ ・ / images / appearing character 2.png” to “filename =“ http: // ・ ・ ・ ・ ・ ・ / images / appearing character 5.png ”” Carry out.

また、図14は、一度作成された動画のフレームについてその表示制御情報を削除する編集を行った場合の編集前及び編集後のアニメーション動画データを示す図であり、アニメーション動画生成部171は、動画作成制御部170が保持する編集後の表示制御情報に基づいて、当該アニメーション動画データにおける該当箇所の表示制御情報をテキスト形式で削除する編集処理を遂行する。   FIG. 14 is a diagram showing animation video data before and after editing when editing is performed to delete the display control information for a frame of a video once created. The animation video generation unit 171 Based on the edited display control information held by the creation control unit 170, an editing process is performed to delete the display control information of the corresponding part in the animation moving image data in a text format.

具体的には、フレーム3の吹き出し素材及び吹き出し素材に表示される文字情報を削除する編集が行われた場合、アニメーション動画生成部171は、この吹き出しに対応する<item>〜</item>のXML形式の表示制御情報を削除する編集処理を遂行する。   Specifically, when editing is performed to delete the balloon material of frame 3 and the character information displayed on the balloon material, the animation moving image generating unit 171 selects <item> to </ item> corresponding to the balloon. Edit processing for deleting display control information in XML format is performed.

このように、動画生成プロセスを経ずとも動画全体に係るフレームの追加及びフレーム順の変更、フレームの再生時間の変更等の編集を容易に行うことができるとともに、動画に登場する登場キャラクタや表示される文字情報を差し替えるなどの比較的簡易な編集を、一度作成された動画に対して迅速に行うことができる。   In this way, it is possible to easily perform editing such as addition of frames, change of the frame order, change of frame playback time, etc. without changing the movie generation process, and appearance characters and displays appearing in the movie It is possible to quickly perform relatively simple editing such as replacing the character information to be performed on a moving image once created.

(第2実施形態)
図15から図21は、本発明の動画作成装置の第2実施形態を説明するための図である。上述のようにXML形式で生成されるアニメーション動画データは、その内容をテキスト形式で編集することで、動画生成プロセスを実行しなくても容易に編集することが可能である。そこで、本実施形態では、上記第1実施形態に対し、アニメーション動画データに含まれる画像等の素材データ及び台詞等の文字情報の中から選択された編集対象の画像等の素材データや文字情報を、所定の編集テンプレート画面を通じて編集することができ、編集内容をリアルタイムにアニメーション動画データに反映させる編集テンプレートを提供する。なお、上記第1実施形態の同様の構成については、同符号を付してその説明を省略する。
(Second Embodiment)
FIGS. 15 to 21 are diagrams for explaining a second embodiment of the moving image creating apparatus of the present invention. As described above, the animation moving image data generated in the XML format can be easily edited without executing the moving image generation process by editing the content in the text format. Therefore, in this embodiment, material data and character information such as an image to be edited selected from material data such as images and character information such as lines included in the animation moving image data are compared with the first embodiment. An editing template that can be edited through a predetermined editing template screen and that reflects the editing content in the animation video data in real time is provided. In addition, about the same structure of the said 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

具体的な編集テンプレートによる動画編集の一例として、図19に示すように動画再生画面MPが編集テンプレート画面MEを含み、編集テンプレート画面MEを通じた編集内容をリアルタイムにアニメーション動画データに反映し、動画再生画面MVのアニメーション表示領域で編集後のアニメーション動画データを再生することができる編集テンプレートを提供する。また、編集テンプレートを通じて編集内容をアニメーション動画格納部183に格納されたオリジナルのアニメーション動画データに反映する編集機能も提供する。   As an example of editing a moving image using a specific editing template, the moving image playback screen MP includes an editing template screen ME as shown in FIG. 19, and the editing content through the editing template screen ME is reflected in the animation moving image data in real time to play the moving image. Provided is an editing template capable of reproducing edited animation moving image data in an animation display area of a screen MV. In addition, an editing function is also provided that reflects the edited content in the original animation moving image data stored in the animation moving image storage unit 183 through the editing template.

本実施形態の動画作成制御部170は、作成された動画(アニメーション動画データ)に対する編集テンプレートを作成する作成者からの要請、例えば、編集テンプレート作成機能を実行させるボタンやアイコン等の押下・選択に応答して、画面データ格納部181から画面情報を取得して編集テンプレート作成画面をディスプレイ装置141に表示させる。そして、ディスプレイ装置141に表示された編集テンプレート作成画面における作成者の操作・入力制御を遂行するとともに、作成されたアニメーション動画データに対応する編集テンプレート情報を生成する。このため、動画作成制御部170は、編集テンプレート情報生成部172をさらに含み、該編集テンプレート情報生成部172が編集テンプレート作成画面において作成者が設定・選択した項目に基づいて編集テンプレート情報を生成する。   The moving image creation control unit 170 according to the present embodiment responds to a request from a creator who creates an editing template for the created moving image (animated moving image data), for example, pressing / selecting a button or icon for executing the editing template creation function. In response, screen information is acquired from the screen data storage unit 181 and an edit template creation screen is displayed on the display device 141. Then, the creator's operation / input control on the edit template creation screen displayed on the display device 141 is performed, and edit template information corresponding to the created animation video data is generated. For this reason, the moving image creation control unit 170 further includes an editing template information generation unit 172, and the editing template information generation unit 172 generates editing template information based on items set and selected by the creator on the editing template creation screen. .

また、本実施形態の格納部180は、編集テンプレート情報生成部172により生成された編集テンプレート情報を格納する編集テンプレート格納部184をさらに備えており、画面データ格納部181は、後述する編集テンプレート作成画面及び編集テンプレート画面の各画面制御情報を格納している。   The storage unit 180 of this embodiment further includes an editing template storage unit 184 that stores the editing template information generated by the editing template information generation unit 172. The screen data storage unit 181 includes an editing template creation described later. Each screen control information of the screen and the edit template screen is stored.

図16(a)は、本実施形態の編集テンプレート作成画面の一例を示す図である。動画作成制御部170は、編集テンプレート作成画面から編集テンプレートを作成する対象のアニメーション動画データが作成者によって指定されると、編集テンプレート作成画面に、指定されたアニメーション動画データの素材データ及び文字情報を表示する。   FIG. 16A is a diagram illustrating an example of an edit template creation screen according to the present embodiment. When the creator specifies animation video data for which an editing template is to be created from the editing template creation screen, the video creation control unit 170 displays the material data and character information of the specified animation video data on the editing template creation screen. indicate.

具体的には、動画作成制御部170は、指定されたアニメーション動画データを参照し、XML形式で記述されたタグ<item>を識別する。本実施形態のアニメーション動画データは、タグ<item>〜</item>で1つの画像等の素材データが記述され、各素材(背景画1.jpg,吹き出し_1.swf、登場キャラクタ1.png等)には、その識別情報として例えば図4(b)に示すように、“背景画1”,“テキスト_1”,“登場キャラクタ_1”などの識別IDが付与されているので、この識別IDを参照することで、アニメーション動画データに含まれる画像等の素材及び文字情報を識別することができる。   Specifically, the moving image creation control unit 170 refers to the designated animation moving image data, and identifies a tag <item> described in the XML format. In the animation video data of this embodiment, material data such as one image is described by tags <item> to </ item>, and each material (background image 1.jpg, speech bubble_1.swf, appearance character 1.png Etc.) are given identification IDs such as “background image 1”, “text_1”, “appearance character_1” as the identification information, for example, as shown in FIG. By referring to the identification ID, it is possible to identify a material such as an image and character information included in the animation moving image data.

そして、動画作成制御部170は、識別した素材データを編集テンプレート作成画面の素材選択領域1及び素材選択領域2に各々表示する処理を遂行する。図16(a)の例では、画像等の素材データをタグ<item>〜</item>に含まれる素材データの格納場所に関する情報に基づいて素材選択領域1に表示し、台詞などの文字情報をタグ<item>〜</item>に含まれる文字情報に基づいて素材選択領域2に表示する。作成者は、この編集テンプレート作成画面に表示された素材データ及び文字情報を選択することで、作成された動画(アニメーション動画データ)に含まれる素材データ及び文字情報のうち、編集を許可する素材を決定することができる。   Then, the moving image creation control unit 170 performs a process of displaying the identified material data in the material selection area 1 and the material selection area 2 on the editing template creation screen. In the example of FIG. 16A, material data such as an image is displayed in the material selection area 1 based on information on the storage location of the material data included in the tags <item> to </ item>, and character information such as dialogue is displayed. Are displayed in the material selection area 2 based on the character information included in the tags <item> to </ item>. The creator selects material data and character information included in the created video (animation video data) by selecting the material data and character information displayed on the editing template creation screen. Can be determined.

作成者は、編集テンプレートでの編集を許可する素材を決定した後に、編集テンプレート作成画面の作成ボタン(不図示)を押下・選択することにより編集テンプレート情報を生成することができる。動画作成制御部170は、この編集テンプレート情報生成要求に応答して、編集テンプレート情報生成処理を編集テンプレート情報生成部172に遂行させる。   The creator can generate editing template information by pressing and selecting a creation button (not shown) on the editing template creation screen after determining a material permitted to be edited in the editing template. In response to the editing template information generation request, the moving image creation control unit 170 causes the editing template information generation unit 172 to perform editing template information generation processing.

本実施形態の編集テンプレート情報生成部172は、編集テンプレート画面に表示される編集が許可された素材(画像等の素材データ及び文字情報)に関する画面情報を、そのアニメーション動画データの編集テンプレート情報としてXML形式で生成する。なお、文字等に対するエフェクトやBGM等の音データについても、編集テンプレート作成画面において編集を許可するように構成することもできる。   The edit template information generation unit 172 of the present embodiment uses screen information related to materials (material data such as images and character information) that are displayed on the edit template screen as edit template information of the animation video data. Generate in format. Note that it is also possible to allow editing of character data effects and sound data such as BGM on the editing template creation screen.

すなわち、編集テンプレート情報生成部172は、編集テンプレート作成画面で選択された素材の当該アニメーション動画データにおけるタグ<item>〜</item>に含まれる識別ID(“背景画1”,“テキスト_1”,“登場キャラクタ_1”)を抽出するとともに、素材データであればその素材データの格納場所に関する情報(URL情報等)、文字情報であればそのテキスト情報(○○○・・・・・)を抽出する。   In other words, the edit template information generation unit 172 includes the identification IDs (“background image 1”, “text — 1” included in the tags <item> to </ item> in the animation video data of the material selected on the edit template creation screen. "," Appearing character_1 ") is extracted, and if it is material data, information on the storage location of the material data (URL information, etc.), if it is character information, its text information (XX ... ).

そして、図16(b)に示すように、編集が許可された各素材の各々ついてタグ<Template>〜</Template>を生成し、例えば、編集が許可された登場キャラクタの素材データ格納場所に関する情報<template id=“C1" url="http://・・・・・・/images/登場キャラクタ2.png"/>と、当該登場キャラクタ2のアニメーション動画データにおける識別ID<item id = “登場キャラクタ"/>とが含まれたタグ<登場キャラクタ Template>〜</登場キャラクタ Template>を生成する。また、文字情報についても図16(b)に示すように同様に生成する。動画再生部160は、このXML形式の編集テンプレート情報を読み込んで、編集テンプレート画面に編集が許可された素材を表示することができる。動画作成制御部170は、生成された編集テンプレート情報を編集テンプレート格納部184にそのアニメーション動画データと関連付けて格納する。   Then, as shown in FIG. 16B, tags <Template> to </ Template> are generated for each of the materials that are permitted to be edited. For example, the material data storage location of the character that is permitted to be edited is generated. Information <template id = “C1” url = "http: // ··· / images / appearing character 2.png" /> and identification ID in the animation video data of the appearing character 2 <item id = “ Tags <appearance character template> to </ appearance character template> including the appearance character "/> are generated. Also, the character information is generated in the same manner as shown in FIG. The moving image reproducing unit 160 can read the editing template information in the XML format and display the material permitted to be edited on the editing template screen. The moving image creation control unit 170 stores the generated editing template information in the editing template storage unit 184 in association with the animation moving image data.

図18は、本実施形態の編集テンプレート情報生成処理の処理フローを示したフローチャートである。同図に示すように、動画作成制御部170は、作成者からの編集テンプレート作成要求に応答して、編集テンプレート作成画面をディスプレイ装置141に表示する(ステップS301)。また、動画作成制御部170は、指定されたアニメーション動画データを参照し、XML形式で記述されたタグ<item>を識別して(ステップS302)、そのアニメーション動画データに含まれる全ての画像等及び文字情報の素材を編集テンプレート作成画面の素材選択領域1及び素材選択領域2に各々表示する(ステップS303)。   FIG. 18 is a flowchart showing a processing flow of the editing template information generation processing of this embodiment. As shown in the figure, the moving image creation control unit 170 displays an edit template creation screen on the display device 141 in response to an edit template creation request from the creator (step S301). In addition, the moving image creation control unit 170 refers to the designated animation moving image data, identifies the tag <item> described in the XML format (step S302), and includes all images included in the animation moving image data, and the like. The material of the character information is displayed in the material selection area 1 and the material selection area 2 on the editing template creation screen (step S303).

動画作成制御部170は、作成者が素材選択領域1及び2において選択した素材データを当該動画に対する編集許可素材として決定し(ステップS304)、編集テンプレート生成部172に、編集テンプレート情報の生成処理を遂行させる(ステップS305)。そして、動画作成制御部170は、編集テンプレート情報生成部172によって生成された編集テンプレート情報を当該アニメーション動画データと関連付けて編集テンプレート格納部184に格納し(ステップS306)、作成者からの終了指示に基づいて編集テンプレート作成処理を終了する(ステップS307)。   The moving image creation control unit 170 determines the material data selected by the creator in the material selection areas 1 and 2 as an editing-permitted material for the moving image (step S304), and causes the editing template generation unit 172 to generate editing template information. This is performed (step S305). Then, the moving image creation control unit 170 stores the editing template information generated by the editing template information generation unit 172 in the editing template storage unit 184 in association with the animation moving image data (step S306), and receives an end instruction from the creator. Based on this, the editing template creation process ends (step S307).

次に、編集テンプレート画面について説明する。図17は、編集テンプレート画面の一例を示す図であり、編集テンプレート画面MEは、編集テンプレート情報生成部172により生成される編集テンプレート情報に基づいて、編集が許可された素材データ及び文字情報を選択可能に表示するもくじ欄ME1と、該もくじ欄ME1において選択された素材データ及び文字情報を編集可能な選択入力欄ME2とを含み、タブ(もくじタブ及び入力画面タブ)によって編集テンプレート画面MEでもくじ欄ME1と選択入力欄ME2とを切替表示することができる。また、プレビューボタン及び決定(保存)ボタンを含んでいる。   Next, the editing template screen will be described. FIG. 17 is a diagram illustrating an example of an editing template screen. The editing template screen ME selects material data and character information that are permitted to be edited based on editing template information generated by the editing template information generation unit 172. An editable template screen including a lottery field ME1 to be displayed and a selection input field ME2 capable of editing the material data and the character information selected in the lottery field ME1, and using tabs (a lottery tab and an input screen tab) In ME, the lottery field ME1 and the selection input field ME2 can be switched and displayed. Also, a preview button and a decision (save) button are included.

動画再生部160は、編集テンプレート画面の画面制御情報を読み込むことで、編集テンプレート画面MEの表示入力制御を遂行するとともに、編集テンプレート情報を読み込んで、編集テンプレート画面での編集入力の制御を遂行する。また、編集テンプレートの画面制御情報は、動画再生部160に編集テンプレート画面での編集内容をアニメーション動画データに反映する編集処理を遂行させるための制御命令を含んでおり、動画再生部160は、この制御命令に基づいて後述する編集処理を遂行する。   The video playback unit 160 reads display control information on the editing template screen, thereby performing display input control of the editing template screen ME, and reading editing template information to control editing input on the editing template screen. . Further, the screen control information of the editing template includes a control command for causing the moving image reproducing unit 160 to perform editing processing for reflecting the editing content on the editing template screen in the animation moving image data. Based on the control command, edit processing described later is performed.

もくじ欄ME1は、編集テンプレート情報に含まれる編集が許可された画像等の素材データ及び文字情報をリスト表示する表示領域である(図17(a)参照)。また、もくじ欄ME1においてリスト表示された素材データ及び文字情報を選択することができ、もくじ欄ME1において例えば、台詞1が選択された場合、動画再生部160は、編集テンプレート情報に含まれる編集前の現在の文字情報が表示された選択入力欄ME2に切替える画面制御を遂行する(図17(b))。そして、選択入力欄ME2において台詞1をテキスト編集することができる。このとき、動画再生部160は、編集テンプレート情報に含まれる「question=”台詞1を入力して下さい”」を参照し(図16(b))、選択入力欄ME2に編集前の現在の文字情報とともに表示する制御を遂行することができる。このため、編集テンプレート情報は、選択入力欄ME2に表示される入力を促すコメント情報を含むことができる。   The table of contents ME1 is a display area for displaying a list of material data and character information such as images permitted to be edited included in the editing template information (see FIG. 17A). In addition, the material data and the character information displayed in the list in the table of contents ME1 can be selected. For example, when the dialogue 1 is selected in the table of contents ME1, the moving image reproducing unit 160 is included in the editing template information. Screen control for switching to the selection input field ME2 displaying the current character information before editing is performed (FIG. 17B). The dialogue 1 can be text-edited in the selection input field ME2. At this time, the moving image reproduction unit 160 refers to “question =“ Please input dialogue 1 ”” included in the editing template information (FIG. 16B), and displays the current character before editing in the selection input field ME2. It is possible to perform control to display together with information. For this reason, the edit template information can include comment information that prompts input to be displayed in the selection input field ME2.

もくじ欄ME1において登場キャラクタが選択された場合、動画再生部160は、選択入力欄ME2に切り替えるとともに、編集テンプレート情報に含まれる編集前の現在の登場キャラクタの格納場所に関する情報を用いて、現在の登場キャラクタ画像を取得する。このとき、他の候補の登場キャラクタ画像も同時に取得して現在の登場キャラクタ画像(画像1)と他の候補画像(画像2)を選択入力欄ME2に表示する(図17(c))。選択入力欄ME2に表示された他の候補の登場キャラクタ画像を選択することで、現在の登場キャラクタ画像を変更する編集を行うことができる。   When an appearance character is selected in the table of contents ME1, the video playback unit 160 switches to the selection input field ME2 and uses the information on the storage location of the current appearance character before editing included in the editing template information to The appearance character image of is acquired. At this time, other candidate appearance character images are also acquired and the current appearance character image (image 1) and the other candidate image (image 2) are displayed in the selection input field ME2 (FIG. 17C). By selecting another candidate appearance character image displayed in the selection input field ME2, editing can be performed to change the current appearance character image.

なお、他の候補の登場キャラクタ画像は、他の候補の登場キャラクタ画像の格納場所に関する情報を編集テンプレート情報に含ませることで、動画再生部160が選択入力欄ME2に現在の登場キャラクタ画像及び他の候補の登場キャラクタ画像を共に表示させることができる。この場合、編集テンプレート作成画面において、編集を許可する素材の素材選択領域の他に、編集候補の素材を表示する素材選択領域を設けて作成者に選択させ、選択された候補素材の格納場所に関する情報を含む編集テンプレート情報を生成することができる。   It should be noted that other candidate appearance character images include information on the storage location of other candidate appearance character images in the edit template information, so that the moving image reproduction unit 160 enters the current appearance character image and other information in the selection input field ME2. Can be displayed together. In this case, on the editing template creation screen, in addition to the material selection area of the material that is permitted to be edited, a material selection area for displaying the material of the editing candidate is provided and the creator selects it, and the storage location of the selected candidate material Editing template information including information can be generated.

また、他の編集候補の素材は、動画再生部160の画面制御によって素材データ格納部182から取得して選択入力欄ME2に表示することができ、編集テンプレート情報が他の候補の素材に関する情報を含まない形態でも実現することもできる。例えば、もくじ欄ME1において登場キャラクタが選択された場合に、動画再生部160は、選択入力欄ME2への画面切替制御を行うとともに、素材データ格納部182を参照して候補の登場キャラクタ画像を取得して表示するように構成することができる。   Further, other editing candidate materials can be acquired from the material data storage unit 182 by the screen control of the video playback unit 160 and displayed in the selection input field ME2, and the editing template information can include information on other candidate materials. It can also be realized in a form that does not include. For example, when an appearance character is selected in the table of contents ME1, the video reproduction unit 160 performs screen switching control to the selection input field ME2, and refers to the material data storage unit 182 to display candidate appearance character images. It can be configured to obtain and display.

なお、文字等に対するエフェクトやBGM等の音データについて編集を許可された編集テンプレートが提供される場合は、上記図17(c)に示した登場キャラクタ画像と同様に、選択入力欄ME2において他の候補のBGM音楽データが選択できるように構成すればよい。   In the case where an editing template that allows editing of sound data such as effects on characters and the like and sound data such as BGM is provided, in the selection input field ME2, as in the appearance character image shown in FIG. What is necessary is just to comprise so that candidate BGM music data can be selected.

このように動画再生部160は、編集テンプレート画面の画面制御情報及び編集テンプレート情報を読み込むことで、編集テンプレート画面を通じたアニメーション動画データの素材に対する編集インターフェースを実現させるとともに、編集テンプレート画面の画面制御情報に含まれる制御命令に基づいて、編集テンプレート画面での編集内容をアニメーション動画データに反映する編集処理機能を遂行する。   In this way, the video playback unit 160 reads the screen control information and the editing template information on the editing template screen, thereby realizing an editing interface for the material of the animation video data through the editing template screen and the screen control information on the editing template screen. Based on the control command included in the above, the editing processing function for reflecting the editing content on the editing template screen to the animation moving image data is performed.

具体的には、編集テンプレート画面の画面制御情報は、動画再生部160に、編集テンプレート画面での編集内容を動画再生部160が保持しているアニメーション動画データに反映する第1編集処理機能を遂行させる制御命令と、アニメーション動画格納部183に格納されているオリジナルのアニメーション動画データに編集内容を反映する第2編集処理機能を遂行させる制御命令と、を含んでいる。   Specifically, the screen control information of the editing template screen performs a first editing processing function that causes the moving image playback unit 160 to reflect the editing content on the editing template screen to the animation moving image data held by the moving image playback unit 160. And a control command for performing a second editing processing function for reflecting the edited content in the original animation moving image data stored in the animation moving image storage unit 183.

上述のように編集テンプレート情報において編集が許可された各素材は、タグ<Template>〜</Template>に含まれる識別IDによってそのアニメーション動画データと関連付けられている。そこで、第1編集処理機能は、編集テンプレート画面のプレビューボタンが使用者によって選択された場合に、動画再生部160は編集テンプレート情報に含まれる識別IDに対応するアニメーション動画データ内の識別IDを特定し、動画再生部160が保持しているアニメーション動画データに編集内容、例えば、台詞を編集した場合はアニメーション動画データの編集前のテキスト情報を編集後のテキスト情報にテキスト形式で書き換える処理を遂行する。   As described above, each material whose editing is permitted in the editing template information is associated with the animation moving image data by the identification ID included in the tags <Template> to </ Template>. Therefore, in the first editing processing function, when the preview button on the editing template screen is selected by the user, the moving image reproducing unit 160 specifies the identification ID in the animation moving image data corresponding to the identification ID included in the editing template information. Then, if the edited content, for example, dialogue, is edited in the animation moving image data held by the moving image reproducing unit 160, the text information before editing the animation moving image data is rewritten in the text format with the edited text information. .

第2編集処理機能は、決定(保存)ボタンDが使用者によって選択された場合において、例えば、台詞を編集した場合は、アニメーション動画データの編集前のテキスト情報を編集後のテキスト情報にテキスト形式で書き換える処理を遂行するとともに、編集内容を反映したアニメーション動画データをアニメーション動画格納部183に格納されているオリジナルのアニメーション動画データに上書きするアニメーション動画データの更新処理を遂行する。この場合、アニメーション動画格納部183に格納されているアニメーション動画データに対して直接に、識別IDに基づいて編集テンプレート画面での編集内容のみをテキスト形式で書き換える更新処理を遂行することもできる。   For example, when the decision (save) button D is selected by the user, for example, when the dialogue is edited, the second editing processing function converts the text information before editing the animation moving image data into the text information after editing. In addition to performing the rewriting process, the animation moving image data updating process for overwriting the original moving image data stored in the animated moving image storage unit 183 with the animated moving image data reflecting the edited content is performed. In this case, it is also possible to perform update processing for rewriting only the edited content on the editing template screen in the text format based on the identification ID directly on the animation moving image data stored in the animation moving image storage unit 183.

これら第1及び第2編集処理機能は、編集テンプレート画面の画面制御情報に制御命令として含まれ、これらの機能を制御命令に基づいて動画再生部160が遂行する。言い換えれば、本実施形態の編集テンプレートは、編集テンプレート情報とともに、画面制御情報に第1及び第2編集処理機能を動画再生部160に実現させるための制御命令を含んだ編集テンプレート画面を提供し、動画再生部160が、編集テンプレート画面を通じた編集処理部として機能する。   These first and second editing processing functions are included as control commands in the screen control information of the editing template screen, and these functions are performed by the moving image playback unit 160 based on the control commands. In other words, the edit template according to the present embodiment provides an edit template screen including a control command for causing the video playback unit 160 to implement the first and second edit processing functions in the screen control information, together with the edit template information. The moving image playback unit 160 functions as an editing processing unit through the editing template screen.

図21は、編集テンプレートを用いた動画編集の処理フローを示すフローチャートであり、図19及び図20を参照しながら説明する。   FIG. 21 is a flowchart showing a processing flow of moving image editing using an editing template, which will be described with reference to FIGS. 19 and 20.

使用者からの編集テンプレートを用いた動画編集の要求、例えば、アイコン等が選択された場合に、動画作成制御部170は、編集テンプレート格納部184から編集テンプレート情報が作成されているアニメーション動画データを判別し、編集テンプレートによる動画編集が可能な動画の一覧リスト(不図示)を、ディスプレイ装置141に表示する(ステップS401)。動画作成制御部170は、この一覧リストの中から指定された動画についてのアニメーション動画データ、編集テンプレート情報、編集テンプレート画面情報を格納部180から抽出して動画再生部160に出力して動画再生部160に編集処理及び動画再生処理の各処理を開始させる(ステップS402)。   When a video editing request using an editing template from a user, for example, when an icon or the like is selected, the video creation control unit 170 receives animation video data for which editing template information has been created from the editing template storage unit 184. A list (not shown) of moving images that are discriminated and editable with the editing template is displayed on the display device 141 (step S401). The moving image creation control unit 170 extracts animation moving image data, editing template information, and editing template screen information for the moving image specified from the list from the storage unit 180 and outputs the extracted data to the moving image reproduction unit 160 for output to the moving image reproduction unit. 160 starts the editing process and the moving image reproduction process (step S402).

動画再生部160は、図19に示すように、アニメーション動画データが再生表示されるアニメーション表示領域MVを含む動画再生画面MPに、編集テンプレート画面情報に基づいて編集テンプレート画面MEを表示する。そして、動画再生部160は、編集テンプレート情報及びアニメーション動画データを読み込み、アニメーション表示領域MVでの動画再生処理及び編集テンプレート画面MEでの表示入力制御を遂行する(ステップS403)。   As shown in FIG. 19, the moving image reproduction unit 160 displays an editing template screen ME on the moving image reproduction screen MP including the animation display area MV on which animation moving image data is reproduced and displayed based on the editing template screen information. The moving image reproduction unit 160 reads the editing template information and animation moving image data, and performs moving image reproduction processing in the animation display area MV and display input control on the editing template screen ME (step S403).

編集者は、再生ボタンPを選択することで動画再生を行うことができ、また、編集テンプレート画面MEを通じて動画をリアルタイムに編集することができる。編集者が編集テンプレート画面で、登場キャラクタを他の登場キャラクタに差し替えたり(他の登場キャラクタを選択したり)、台詞等の文字情報を任意に入力、変更した編集内容は、動画再生部160が保持する。そして、編集者がプレビューボタンを選択した場合(ステップS404)、動画再生部160は、編集テンプレート画面での編集内容を当該動画再生部160が保持しているアニメーション動画データに反映する処理を行う(ステップS405)。動画再生部160は、編集者の再生指示に応答して編集内容が反映されたアニメーション動画データの再生処理を遂行する(ステップS406)。   The editor can reproduce the moving image by selecting the reproduction button P, and can edit the moving image in real time through the editing template screen ME. On the editing template screen, the video player 160 replaces the appearance character with another appearance character (selects another appearance character) or arbitrarily inputs and changes character information such as dialogue. Hold. When the editor selects the preview button (step S404), the video playback unit 160 performs a process of reflecting the edited content on the editing template screen on the animation video data held by the video playback unit 160 (step S404). Step S405). The moving image reproduction unit 160 performs reproduction processing of animation moving image data in which the edited content is reflected in response to the reproduction instruction from the editor (step S406).

図20は、編集テンプレートを用いたアニメーション動画データの編集前及び編集後を示す図である。図20(a)に示すように、編集テンプレート画面MEの選択入力欄ME2には、編集前(オリジナル)のアニメーション動画データの台詞1「いざ勝負!?」が表示されている。編集者がこの選択入力欄ME2において「かかってこい!」に編集することができ、この状態でプレビューボタンが選択されると、動画再生部160は、上述した第1編集処理機能を遂行して、編集前のアニメーション動画データの識別IDのテキスト_1の文字情報を図20(b)に示すように「かかってこい!」に書き換える。   FIG. 20 is a diagram illustrating before and after editing of animation moving image data using an editing template. As shown in FIG. 20A, in the selection input field ME2 of the editing template screen ME, the dialogue 1 “Iza Game !?” of the animation video data before editing (original) is displayed. When the editor can edit “Select!” In the selection input field ME2, and the preview button is selected in this state, the moving image reproduction unit 160 performs the above-described first editing processing function. Then, the character information of the identification ID text_1 of the animation moving image data before editing is rewritten as “Kake me!” As shown in FIG.

編集者は、編集後のアニメーション動画データを再生させることができ、編集者は、編集テンプレート画面MEで編集した内容が反映された動画をリアルタイムで再生することができる。したがって、動画再生部160によって再生される動画に対して、編集テンプレートを通じてリアルタイムに編集処理を行うことができる。   The editor can play back the animated moving image data after editing, and the editor can play back the moving image reflecting the content edited on the editing template screen ME in real time. Therefore, editing processing can be performed in real time on the moving image reproduced by the moving image reproducing unit 160 through the editing template.

また、決定(保存)ボタンが選択された場合(ステップS407)、動画再生部160は、上述した第2編集処理機能を遂行して、アニメーション動画格納部183に格納されているオリジナルのアニメーション動画データを更新する(ステップS408)。その後、動画再生部160は、編集者からの終了指示に基づいて編集処理を終了する(ステップS409)。   If the determination (save) button is selected (step S407), the moving image playback unit 160 performs the above-described second editing processing function, and the original animation moving image data stored in the animation moving image storage unit 183. Is updated (step S408). Thereafter, the moving image reproduction unit 160 ends the editing process based on an end instruction from the editor (step S409).

このように本実施形態の編集テンプレートは、XML形式のアニメーション動画データに対して、特別な編集機能がなくても(別途動画編集ツールの使用及び設置しなくても)容易に編集することができ、かつリアルタイムに動画を編集させることが可能となる。特に、本実施形態の編集テンプレートによる動画編集は、動画再生部160に編集処理機能を遂行させているため、編集した内容を即座に再生して確認することができる。   As described above, the editing template according to the present embodiment can be easily edited without special editing function (without using and installing a separate video editing tool) with respect to the animation video data in the XML format. In addition, it becomes possible to edit a moving image in real time. In particular, the moving image editing by the editing template of the present embodiment allows the moving image reproducing unit 160 to perform the editing processing function, so that the edited content can be immediately reproduced and confirmed.

(第3実施形態)
図22は、本発明の第3実施形態における動画作成サービス提供システムのネットワーク構成図である。本実施形態の動画作成サービス提供システム1000は、上述の第1及び第2実施形態における動画作成制御部170の動画作成機能及び編集テンプレート作成機能を通じた動画作成サービスをインターネット等のネットワークを通じて利用者に提供する。また、作成されたアニメーション動画データをインターネット等のネットワークを通じて配信し、アニメーション動画データによる動画再生サービスも提供する。
(Third embodiment)
FIG. 22 is a network configuration diagram of a moving image creation service providing system according to the third embodiment of the present invention. The video creation service providing system 1000 according to the present embodiment provides the video creation service through the video creation function and the edit template creation function of the video creation control unit 170 in the first and second embodiments described above to the user via a network such as the Internet. provide. In addition, the created animation moving image data is distributed through a network such as the Internet, and a moving image reproduction service using animation moving image data is also provided.

なお、本実施形態の動画作成、編集テンプレート作成、動画編集、編集テンプレートによる動画編集、及び動画再生の各処理は、上記第1及び第2実施形態で既に説明した動画作成制御部170、アニメーション動画生成部171、編集テンプレート生成部172及び動画再生部160の各部による処理と同様であるので、その詳細な説明は省略する。   Note that the video creation, editing template creation, video editing, video editing using the editing template, and video playback processing according to the present embodiment are the same as the video creation control unit 170 and animation video already described in the first and second embodiments. Since the processing is the same as the processing performed by the generation unit 171, the editing template generation unit 172, and the moving image playback unit 160, detailed description thereof will be omitted.

図23は、動画作成サービス提供システム1000の構成ブロック図であり、本実施形態の動画作成サービス提供システム1000は、動画作成サービス提供サーバ1100及びデータ格納サーバ1200を含む。   FIG. 23 is a block diagram showing the configuration of the moving image creation service providing system 1000. The moving image creation service providing system 1000 of this embodiment includes a moving image creation service providing server 1100 and a data storage server 1200.

動画作成サービス提供サーバ1100は、インターネット等のネットワークNを通じた複数の利用者端末装置200との通信制御を行う通信制御部1110、動画作成サービス提供サーバ1100全体の制御を司る制御部(CPU)1120、メモリ1130、動画作成プログラムを利用者端末装置200に提供してネットワークNを通じた動画作成機能等を制御する動画作成サービス制御部1140、利用者端末装置200に動画作成サービス画面及び作成された動画の動画配信画面を提供する画面制御部1150、及び利用者端末装置200に提供される動画作成プログラムを格納する動画作成プログラム格納部1160を含む。   The moving image creation service providing server 1100 includes a communication control unit 1110 that controls communication with a plurality of user terminal devices 200 through a network N such as the Internet, and a control unit (CPU) 1120 that controls the entire moving image creation service providing server 1100. , A memory 1130, a video creation service control unit 1140 that provides a video creation program to the user terminal device 200 to control a video creation function and the like through the network N, and a video creation service screen and a created video on the user terminal device 200 A screen control unit 1150 that provides a moving image distribution screen, and a moving image creation program storage unit 1160 that stores a moving image creation program provided to the user terminal device 200.

動画作成プログラムは、上述の第1実施形態の動画作成機能及び上述の第2実施形態の編集テンプレート作成機能を利用者端末装置200に実現させるための動画作成プログラム(動画作成クライアント)であり、図1及び図15に示した動画作成制御部170と同様の処理機能を利用者端末装置200で実現させるとともに、動画作成画面及び編集テンプレート作成画面の各画面情報を含んでいる。   The movie creation program is a movie creation program (movie creation client) for causing the user terminal device 200 to realize the movie creation function of the first embodiment and the edit template creation function of the second embodiment. 1 and the processing function similar to the moving image creation control unit 170 shown in FIG. 15 is realized by the user terminal device 200, and each screen information of the moving image creation screen and the edit template creation screen is included.

画面制御部1150は、動画作成サービス提供システム1000にアクセスする利用者端末装置200に動画作成サービス画面を伝送し、利用者に動画作成サービス画面を通じた各種のサービスを受けることができ、利用者は、動画作成サービス画面から動画作成サービスを起動させて動画作成を開始することができる。   The screen control unit 1150 transmits the video creation service screen to the user terminal device 200 that accesses the video creation service providing system 1000, and can receive various services through the video creation service screen to the user. The movie creation service can be started by starting the movie creation service from the movie creation service screen.

なお、動画作成サービス提供システム1000は、利用者が本実施形態の動画作成サービスを利用するために事前に登録したユーザ登録情報を格納し、動画作成サービス画面を通じた認証処理を遂行する認証サーバ等を別途備えることができる(不図示)。   Note that the video creation service providing system 1000 stores user registration information registered in advance by the user to use the video creation service of the present embodiment, and performs an authentication process through the video creation service screen. Can be provided separately (not shown).

また、画面制御部1150は、動画配信画面を利用者端末装置200に伝送し、利用者は、この動画配信画面を通じて本実施形態のアニメーション動画データの動画再生を行うことができる。したがって、画面制御部1150は、アニメーション動画格納部1230を参照して動画閲覧用の動画リストを生成し、動画リストが含まれた動画配信画面を生成することができる。例えば、アニメーション動画データの作成者名、動画タイトルなどを含む動画リストを含んだ動画配信画面を利用者端末装置200に提供することができる。   Further, the screen control unit 1150 transmits the moving image distribution screen to the user terminal device 200, and the user can reproduce the moving image of the animation moving image data of the present embodiment through the moving image distribution screen. Therefore, the screen control unit 1150 can generate a video list for browsing videos by referring to the animation video storage unit 1230, and generate a video distribution screen including the video list. For example, a moving image distribution screen including a moving image list including a creator name of animation moving image data, a moving image title, and the like can be provided to the user terminal device 200.

動画作成サービス制御部1140は、動画作成サービスを利用する利用者端末装置200での動画作成を制御する。具体的には、動画作成プログラムを利用者端末装置200に伝送して上述した動画作成制御部170の機能を利用者端末装置200に設置させ、さらに、利用者からの画像等の素材データの登録要求に応じて、素材データを素材データ格納部1220にアップロードする素材登録処理を遂行する。また、利用者からの動画再生要求に応答して、該当のアニメーション動画データを利用者端末装置200に伝送するとともに、利用者端末装置200の動画再生部からの素材取得要求に応答して、素材データ格納部1220から該当の素材を抽出して伝送する処理を遂行する。   The moving image creation service control unit 1140 controls the moving image creation on the user terminal device 200 that uses the moving image creation service. Specifically, the moving image creation program is transmitted to the user terminal device 200, the function of the moving image creation control unit 170 described above is installed in the user terminal device 200, and further, registration of material data such as images from the user is performed. In response to the request, a material registration process for uploading material data to the material data storage unit 1220 is performed. Also, in response to a video playback request from the user, the corresponding animation video data is transmitted to the user terminal device 200, and in response to a material acquisition request from the video playback unit of the user terminal device 200, the material A process of extracting and transmitting the corresponding material from the data storage unit 1220 is performed.

データ格納サーバ1200は、アニメーション動画データが格納されるアニメーション動画格納部1230、編集テンプレート情報が格納される編集テンプレート格納部1240、画像等の素材データが格納される素材データ格納部1220、及び編集テンプレート画面及び動画再生画面の画面情報と、画面制御部1150が利用者端末装置200に提供する動画作成サービス画面及び動画配信画面の画面情報を格納する画面データ格納部1210を含む。   The data storage server 1200 includes an animation moving image storage unit 1230 that stores animation moving image data, an editing template storage unit 1240 that stores editing template information, a material data storage unit 1220 that stores material data such as images, and an editing template. A screen data storage unit 1210 that stores screen information of the screen and the video playback screen, and screen information of the video creation service screen and video distribution screen that the screen control unit 1150 provides to the user terminal device 200 is included.

図24は、利用者端末装置200の構成ブロック図であり、インターネット等のネットワークNを通じた動画作成サービス提供サーバ1100との通信制御を行う通信制御部210、利用者端末装置200全体の制御を司る制御部(CPU)220、メモリ230、ディスプレイ装置241が接続される表示インターフェース(表示IF)240、キーボード等の入力部251及びマウス等の操作部252が接続される外部インターフェース(外部IF)250、Flash(登録商標)Player等の動画再生手段である動画再生部260、動画作成制御部270、及び各種データを格納する格納部280を含む。なお、利用者端末装置200は、パーソナルコンピュータやPDA(Personal Digital Assistant)、携帯電話機等の移動通信端末装置などの通信機能及び演算機能を備えた情報処理装置により実現できる。なお、利用者端末装置200は、WEBブラウザ等のブラウザ機能を有し、動画作成サービス提供サーバ1100から伝送される動画作成サービス画面や動画配信画面などを表示することができる。   FIG. 24 is a block diagram of the configuration of the user terminal device 200, which controls the communication control unit 210 that controls communication with the moving image creation service providing server 1100 through the network N such as the Internet, and the overall control of the user terminal device 200. A control unit (CPU) 220, a memory 230, a display interface (display IF) 240 to which a display device 241 is connected, an input unit 251 such as a keyboard and an external interface (external IF) 250 to which an operation unit 252 such as a mouse is connected; A moving image reproducing unit 260 that is a moving image reproducing unit such as Flash (registered trademark) Player, a moving image creation control unit 270, and a storage unit 280 that stores various data are included. The user terminal device 200 can be realized by an information processing apparatus having a communication function and an arithmetic function, such as a personal computer, a PDA (Personal Digital Assistant), and a mobile communication terminal device such as a mobile phone. The user terminal device 200 has a browser function such as a WEB browser, and can display a moving image creation service screen, a moving image distribution screen, and the like transmitted from the moving image creation service providing server 1100.

動画作成制御部270は、動画作成サービス提供システム1000が提供する動画作成プログラムの設置によって利用者端末装置200に実現され、アニメーション動画生成部271及び編集テンプレート生成部272を含む。そして、動画作成画面(図2、図3参照)及び編集テンプレート作成画面(図16(a)参照)の各画面を通じてアニメーション動画データ及び編集テンプレート情報を生成する。また、本実施形態の動画作成制御部270は、動画作成画面及び編集テンプレート作成画面の各画面情報を格納する画面データ格納部273を含み、利用者端末装置200での動画作成処理、編集テンプレート情報作成処理、及び素材データの登録処理の制御を遂行する。   The moving image creation control unit 270 is implemented in the user terminal device 200 by installing a moving image creation program provided by the moving image creation service providing system 1000, and includes an animation moving image generation unit 271 and an editing template generation unit 272. And animation animation data and edit template information are produced | generated through each screen of a moving image preparation screen (refer FIG. 2, FIG. 3) and an edit template preparation screen (refer FIG. 16A). In addition, the moving image creation control unit 270 of the present embodiment includes a screen data storage unit 273 that stores each screen information of the moving image creation screen and the editing template creation screen, and the moving image creation processing and editing template information in the user terminal device 200. It performs control of creation processing and material data registration processing.

図25は、本実施形態の動画作成サービス提供システムの動画作成処理の処理フローを示したフローチャートである。   FIG. 25 is a flowchart showing a processing flow of the moving image creating process of the moving image creating service providing system of the present embodiment.

利用者は、利用者端末装置200を介して動画作成サービス提供サーバ1100にアクセスすると、画面制御部1150が動画作成サービス画面を利用者端末装置200に伝送する。利用者は、動画作成サービス画面を通じてユーザ認証を行い、動画作成サービス画面から動画作成サービスを起動する(ステップS2101)。   When the user accesses the moving image creation service providing server 1100 via the user terminal device 200, the screen control unit 1150 transmits the moving image creation service screen to the user terminal device 200. The user performs user authentication through the video creation service screen, and activates the video creation service from the video creation service screen (step S2101).

動画作成サービス制御部1140は、動画作成サービス画面からの動画作成要求に応答して、利用者端末装置200に動画作成プログラムがインストールされているか否かを判別する(ステップS1101)。動画作成プログラムがインストールされていないと判別された場合に、動画作成プログラム格納部1160に格納されている動画作成プログラムを利用者端末装置200に伝送して当該プログラムのインストール処理を利用者端末装置200に遂行させる(ステップS1102)。利用者端末装置200でのインストール処理が完了した後に、動画作成サービス制御部1140は、利用者端末装置200の動画作成制御部270に対して動画作成機能を起動させる起動指示を伝送する(ステップS1103)。なお、ステップS1101で動画作成プログラムがインストールされていると判別された場合には、ステップS1102を遂行せずにステップS1103に進む。   In response to the movie creation request from the movie creation service screen, the movie creation service control unit 1140 determines whether a movie creation program is installed in the user terminal device 200 (step S1101). When it is determined that the moving image creating program is not installed, the moving image creating program stored in the moving image creating program storage unit 1160 is transmitted to the user terminal device 200 and installation processing of the program is performed on the user terminal device 200. (Step S1102). After the installation process on the user terminal device 200 is completed, the video creation service control unit 1140 transmits an activation instruction for starting the video creation function to the video creation control unit 270 of the user terminal device 200 (step S1103). ). If it is determined in step S1101 that the moving image creation program is installed, the process proceeds to step S1103 without performing step S1102.

利用者端末装置200の動画作成制御部270は、動画作成サービス制御部1140からの起動指示に応答して動画作成画面を画面データ格納部273から取得してディスプレイ装置241に表示するとともに、動画作成サービス提供システム1000のデータ格納サーバ1200に格納されている画像等の素材データを動画作成画面の素材表示欄に表示する(ステップS2102,ステップS1104)。このとき、素材データ格納部1220には、作成者自身が登録した素材、サービス提供者が提供する素材、及び他の作成者が登録した素材が含まれ、素材表示欄には、作成者自身が登録した素材以外の素材が表示される。   The video creation control unit 270 of the user terminal device 200 acquires a video creation screen from the screen data storage unit 273 in response to the activation instruction from the video creation service control unit 1140 and displays it on the display device 241. The material data such as images stored in the data storage server 1200 of the service providing system 1000 is displayed in the material display column of the moving image creation screen (step S2102, step S1104). At this time, the material data storage unit 1220 includes the material registered by the creator himself, the material provided by the service provider, and the material registered by another creator. Materials other than the registered material are displayed.

その後、利用者端末装置200の動画作成制御部270は、利用者による動画作成画面を通じた動画作成制御を遂行するとともに(ステップS2103)、利用者から素材データのアップロード処理要求、すなわち、素材データの登録要求があった場合に、素材データを動画作成サービス提供サーバ1100に伝送する素材データアップロード処理を遂行する(ステップS2104)。例えば、利用者は、利用者端末装置200の格納部280に格納されている画像データ、音楽データなどを動画作成サービス提供システム1000に任意に登録することができる。動画作成サービス制御部1140は、利用者端末装置200から送信された素材データを、データ格納サーバ1200の素材データ格納部1220に格納する素材登録処理を遂行する(ステップS1105)。   Thereafter, the video creation control unit 270 of the user terminal device 200 performs video creation control through the video creation screen by the user (step S2103), and requests a material data upload process from the user, that is, material data When there is a registration request, a material data upload process for transmitting material data to the moving image creation service providing server 1100 is performed (step S2104). For example, the user can arbitrarily register image data, music data, and the like stored in the storage unit 280 of the user terminal device 200 in the moving image creation service providing system 1000. The video creation service control unit 1140 performs material registration processing for storing the material data transmitted from the user terminal device 200 in the material data storage unit 1220 of the data storage server 1200 (step S1105).

動画作成制御部270は、作成者からの動画生成要求に応答してアニメーション動画生成部271に動画作成画面で作成した動画に係るXML形式のアニメーション動画データの生成処理を遂行させ(ステップS2105)、生成されたアニメーション動画データを動画作成サービス提供サーバ1100に伝送する(ステップS2106)。動画作成サービス制御部1140は、受信したアニメーション動画データをデータ格納サーバ1200のアニメーション動画格納部1230に作成者別に格納する処理を遂行する(ステップS1106)。   In response to the moving image generation request from the creator, the moving image generation control unit 270 causes the animation moving image generation unit 271 to perform generation processing of animation moving image data in the XML format related to the moving image generated on the moving image generation screen (step S2105). The generated animation moving image data is transmitted to the moving image creation service providing server 1100 (step S2106). The moving image creation service control unit 1140 performs a process of storing the received animation moving image data for each creator in the animation moving image storage unit 1230 of the data storage server 1200 (step S1106).

なお、アニメーション動画生成部271は、動画生成処理において動画を構成する各フレームに含まれる素材データの格納場所に関する情報として、動画作成サービス提供システム1000のデータ格納サーバ1200に格納された素材データのURL情報を用いることができる。   The animation moving image generation unit 271 uses the URL of the material data stored in the data storage server 1200 of the moving image creation service providing system 1000 as information on the storage location of the material data included in each frame constituting the moving image in the moving image generation process. Information can be used.

図26は、本実施形態の動画作成サービス提供システムの編集テンプレート作成処理の処理フローを示したフローチャートである。   FIG. 26 is a flowchart showing a processing flow of editing template creation processing of the moving image creation service providing system of this embodiment.

利用者は、利用者端末装置200に表示された動画作成画面又は画面制御部1150が提供する動画作成サービス画面を通じて、編集テンプレート作成サービスを起動することができる(ステップS2201)。なお、本実施形態では、動画作成機能と編集テンプレート作成機能とを1つの動画作成プログラムによって提供しているが、編集テンプレート作成機能を動画作成機能とは個別に提供することもできる。この場合、動画作成機能を利用者端末装置200で実現させるための動画作成プログラムと、編集テンプレート作成機能を利用者端末装置200で実現させるための編集テンプレート作成プログラムとを動画作成プログラム格納部1160に個別に格納し、利用者からの動画作成画面又は動画作成サービス画面を通じた各機能の起動要求に応答して、これらのプログラムを個別に利用者端末装置200に提供するように構成することができる。この場合、動画作成サービス制御部1140は、図25に示した動画作成プログラムの設置確認及び設置処理(ステップS1101、S1102)に対応する編集テンプレート作成プログラムの設置確認及び設置処理を遂行することができる。   The user can activate the editing template creation service through the movie creation screen displayed on the user terminal device 200 or the movie creation service screen provided by the screen control unit 1150 (step S2201). In this embodiment, the movie creation function and the edit template creation function are provided by one movie creation program, but the edit template creation function can be provided separately from the movie creation function. In this case, a moving image creating program for realizing the moving image creating function on the user terminal device 200 and an editing template creating program for realizing the editing template creating function on the user terminal device 200 are stored in the moving image creating program storage unit 1160. These programs can be stored individually, and can be configured to provide these programs to the user terminal device 200 individually in response to the activation request of each function through the movie creation screen or the movie creation service screen from the user. . In this case, the moving image creation service control unit 1140 can perform the installation confirmation and installation processing of the editing template creation program corresponding to the installation confirmation and installation processing (steps S1101 and S1102) of the moving image creation program illustrated in FIG. .

動画作成サービス制御部1140は、利用者からの動画作成要求に応答して利用者端末装置200の動画作成制御部270に対して編集テンプレート作成機能を起動させる起動指示を伝送する(ステップS1201)。   In response to the video creation request from the user, the video creation service control unit 1140 transmits an activation instruction to activate the editing template creation function to the video creation control unit 270 of the user terminal device 200 (step S1201).

利用者端末装置200の動画作成制御部270は、起動指示に応答して編集テンプレート作成画面の画面情報を画面データ格納部273から取得してディスプレイ装置241に表示するとともに(ステップS2202)、動画作成サービス提供システム1100のアニメーション動画格納部1230に格納されている当該作成者のアニメーション動画データのリスト情報を編集テンプレート作成画面に表示する(図16(a)参照)。具体的には、作成者の作成したアニメーション動画データを参照し、動画タイトル名などをリスト表示する。   In response to the activation instruction, the moving image creation control unit 270 of the user terminal device 200 acquires screen information of the editing template creation screen from the screen data storage unit 273 and displays it on the display device 241 (step S2202). List information of the creator's animation movie data stored in the animation movie storage unit 1230 of the service providing system 1100 is displayed on the edit template creation screen (see FIG. 16A). Specifically, the animation moving image data created by the creator is referred to, and the moving image title name and the like are displayed as a list.

利用者は、編集テンプレート作成画面に表示された動画選択領域で、編集テンプレートを作成する対象のアニメーション動画データを指定することができ、利用者端末装置200の動画作成制御部270は、指定されたアニメーション動画データを取得するための要求を動画作成サービス提供サーバ1100に送信する(ステップS2203)。動画作成サービス制御部1140は、アニメーション動画データの取得要求に応答して該当のアニメーション動画データをデータ格納サーバ1200から取得して利用者端末装置200に伝送する(ステップS1202)。   The user can specify the animation video data for which the edit template is to be created in the video selection area displayed on the edit template creation screen, and the video creation control unit 270 of the user terminal device 200 is designated. A request for acquiring animation moving image data is transmitted to the moving image creation service providing server 1100 (step S2203). In response to the animation video data acquisition request, the video creation service control unit 1140 acquires the corresponding animation video data from the data storage server 1200 and transmits it to the user terminal device 200 (step S1202).

利用者端末装置200の動画作成制御部270は、受信したアニメーション動画データを解析し、編集テンプレート作成画面に利用者が選択したアニメーション動画データの素材データ及び文字情報を各々表示し、編集テンプレート作成画面での編集を許可する素材の選択等の画面制御を遂行する(ステップS2204)。   The moving image creation control unit 270 of the user terminal device 200 analyzes the received animation moving image data, displays the material data and character information of the animation moving image data selected by the user on the editing template creation screen, and edit template creation screen Screen control such as selection of materials permitted to be edited is performed (step S2204).

作成者は、編集テンプレートでの編集を許可する素材を決定した後に、編集テンプレート作成画面の作成ボタン(不図示)を押下・選択することにより編集テンプレート情報を生成することができる。動画作成制御部270は、この編集テンプレート情報生成要求に応答して、編集テンプレート情報生成処理を編集テンプレート情報生成部272に遂行させる。編集テンプレート情報生成部272は、編集テンプレート画面に表示される編集が許可されたアニメーション動画データについての素材(画像等の素材データ及び文字情報、エフェクト情報を含む)に関する画面情報を、そのアニメーション動画データの編集テンプレート情報としてXML形式で生成する(ステップS2205)。   The creator can generate editing template information by pressing and selecting a creation button (not shown) on the editing template creation screen after determining a material permitted to be edited in the editing template. In response to the editing template information generation request, the moving image creation control unit 270 causes the editing template information generation unit 272 to perform editing template information generation processing. The editing template information generation unit 272 displays screen information related to materials (including material data such as images, character information, and effect information) regarding the animation video data permitted to be edited and displayed on the editing template screen. The editing template information is generated in the XML format (step S2205).

動画作成制御部270は、生成された編集テンプレート情報を動画作成サービス提供サーバ1100に伝送し(ステップS2206)、動画作成サービス制御部1140は、受信した編集テンプレート情報をデータ格納サーバ1200の編集テンプレート格納部1240に、対応するアニメーション動画データと関連付けて格納する処理を遂行する(ステップS1203)。   The video creation control unit 270 transmits the generated editing template information to the video creation service providing server 1100 (step S2206), and the video creation service control unit 1140 stores the received editing template information in the editing template of the data storage server 1200. The unit 1240 performs a process of storing in association with the corresponding animation video data (step S1203).

図27は、本実施形態の動画作成サービス提供システムの動画再生処理の処理フローを示したフローチャートである。   FIG. 27 is a flowchart showing a processing flow of the moving image reproduction processing of the moving image creation service providing system of the present embodiment.

利用者は、利用者端末装置200を介して動画作成サービス提供サーバ1100にアクセスし、画面制御部1150が提供する動画配信画面から自身が作成した動画又は他の作成者が作成した動画を閲覧することができる。画面制御部1150は、利用者端末装置200にアニメーション動画データの作成者名、動画タイトルなどを含む動画リストを含んだ動画配信画面を伝送し、利用者は、ディスプレイ装置241に表示された動画配信画面の中から所望の動画を閲覧(再生)することができる。   The user accesses the video creation service providing server 1100 via the user terminal device 200, and browses a video created by the user or a video created by another creator from the video distribution screen provided by the screen control unit 1150. be able to. The screen control unit 1150 transmits a moving image distribution screen including a moving image list including an animation moving image data creator name and a moving image title to the user terminal device 200, and the user distributes the moving image displayed on the display device 241. A desired moving image can be viewed (reproduced) from the screen.

利用者によって動画配信画面に表示された動画リストから所望の動画が選択されると(ステップS2301)、動画作成サービス制御部1140は、選択された動画のアニメーション動画データを、アニメーション動画格納部1230から取得し(ステップS1301)、利用者端末装置200に伝送する(ステップS1302)。   When a desired video is selected from the video list displayed on the video distribution screen by the user (step S2301), the video creation service control unit 1140 receives the animation video data of the selected video from the animation video storage unit 1230. Obtain (step S1301) and transmit to the user terminal device 200 (step S1302).

利用者端末装置200の動画再生部260は、動画作成サービス提供システム1000から伝送されたアニメーション動画データを読み込み、動画再生処理を遂行する(ステップS2302)。動画再生部260は、タグ<frame>〜</frame>毎にそのタグ間の表示制御情報をフレーム順(XMLデータの記述順)に読み込み、第1フレームの素材データの格納場所に関する情報を特定し(ステップS2303)、動画作成サービス制御部1140を通じて又はデータ格納サーバ1200の素材データ格納部1220に直接アクセスして該当の素材データを取得する(ステップS2304、S1303)。   The moving image reproduction unit 260 of the user terminal device 200 reads the animation moving image data transmitted from the moving image creation service providing system 1000 and performs a moving image reproduction process (step S2302). The video playback unit 260 reads the display control information between the tags for each tag <frame> to </ frame> in the frame order (the description order of the XML data), and specifies information about the storage location of the material data of the first frame Then, the corresponding material data is acquired through the moving image creation service control unit 1140 or by directly accessing the material data storage unit 1220 of the data storage server 1200 (steps S2304 and S1303).

動画再生部260は、取得した素材データを用いてフレームを生成し(ステップS2305)、生成したフレームをディスプレイ装置241に表示するとともに、各素材や文字情報をそのタグ<item>〜</item>間に含まれる表示制御情報に従って表示制御する(ステップS2306)。   The moving image reproduction unit 260 generates a frame using the acquired material data (step S2305), displays the generated frame on the display device 241, and tags each material and character information with the tags <item> to </ item>. Display control is performed in accordance with the display control information included therebetween (step S2306).

そして、動画再生部260は、ステップS2303からステップS2307までの処理をその動画のフレーム数(タグ<frame>〜</frame>数)分繰り返し行い、フレーム1からフレームnまでの各フレームのリアルタイム生成及び表示制御を順次行う。動画再生部260は、最後のフレームの生成及び表示制御が終了したか否かを判別し(ステップS2307)、最後のフレームの表示制御が終了したと判別された場合にその再生処理を終了する(ステップS2308)。   Then, the moving image reproduction unit 260 repeats the processing from step S2303 to step S2307 for the number of frames of the moving image (number of tags <frame> to </ frame>), and generates each frame from frame 1 to frame n in real time. And display control is sequentially performed. The moving image reproduction unit 260 determines whether or not the last frame generation and display control has ended (step S2307), and ends the reproduction process when it is determined that the last frame display control has ended (step S2307). Step S2308).

図28は、本実施形態の動画作成サービス提供システムの編集テンプレートを通じた動画編集処理の処理フローを示したフローチャートである。   FIG. 28 is a flowchart showing a processing flow of a moving image editing process through an editing template of the moving image creation service providing system of the present embodiment.

利用者は、利用者端末装置200を介して動画作成サービス提供サーバ1100にアクセスし、画面制御部1150が提供する動画配信画面から編集テンプレートによる動画編集を行うことができる。動画作成サービス制御部1140は、利用者からの編集テンプレートを用いた動画編集の要求があった場合(ステップS2401)、編集対象のアニメーション動画データ、編集テンプレート情報及び編集テンプレート画面を含む動画再生画面を利用者端末装置200に伝送する(ステップS1401,S1402)。   The user can access the video creation service providing server 1100 via the user terminal device 200 and perform video editing using an editing template from the video distribution screen provided by the screen control unit 1150. When there is a video editing request using the editing template from the user (step S2401), the video creation service control unit 1140 displays a video playback screen including the animation video data to be edited, the editing template information, and the editing template screen. It transmits to the user terminal device 200 (steps S1401, S1402).

利用者端末装置200の動画再生部260は、アニメーション動画データ、編集テンプレート情報、編集テンプレート画面を含む動画再生画面の画面情報を読み込み、動画再生画面MP(図19参照)をディスプレイ装置241に表示させる。動画再生部260は、編集テンプレート情報及びアニメーション動画データを読み込み、アニメーション表示領域MVでの動画再生処理及び編集テンプレート画面MEでの表示入力制御を遂行する(ステップS2402)。ここで、動画再生部260は、編集テンプレート画面MEに表示される当該アニメーション動画データの素材データ及び他の候補の素材データを、データ格納サーバ1200から編集テンプレート情報に含まれる素材データ格納場所に関する情報に基づいて取得して表示する。   The video playback unit 260 of the user terminal device 200 reads the screen information of the video playback screen including the animation video data, the editing template information, and the editing template screen, and causes the display device 241 to display the video playback screen MP (see FIG. 19). . The moving image reproduction unit 260 reads the editing template information and animation moving image data, and performs moving image reproduction processing in the animation display area MV and display input control on the editing template screen ME (step S2402). Here, the moving image reproduction unit 260 obtains the material data of the animation moving image data and other candidate material data displayed on the editing template screen ME from the data storage server 1200 regarding the material data storage location included in the editing template information. Acquire and display based on.

利用者は、再生ボタンPを選択することで動画再生を行うことができ、また、編集テンプレート画面MEを通じて動画をリアルタイムに編集することができる。編集者が編集テンプレート画面MEで、登場キャラクタを他の登場キャラクタに差し替えたり(他の登場キャラクタを選択したり)、台詞等の文字情報を任意に入力、変更した編集内容は、動画再生部260が保持する(図17、図20参照)。そして、利用者がプレビューボタンを選択した場合(ステップS2403)、動画再生部260は、上述の第2実施形態で説明した第1編集処理機能を実行し、編集テンプレート画面での編集内容を当該動画再生部260が保持しているアニメーション動画データに反映する処理を行う(ステップS2404)。また、動画再生部260は、利用者の再生指示に応答して編集内容が反映されたアニメーション動画データの再生処理を遂行する(ステップS2405)。   The user can reproduce the moving image by selecting the reproduction button P, and can edit the moving image in real time through the editing template screen ME. The editing content in which the editor replaces the appearance character with another appearance character (selects another appearance character) on the editing template screen ME, or arbitrarily inputs and changes character information such as dialogue, is displayed on the moving image reproduction unit 260. (See FIGS. 17 and 20). When the user selects a preview button (step S2403), the moving image playback unit 260 executes the first editing processing function described in the second embodiment and edits the editing content on the editing template screen. A process of reflecting the animation moving image data held by the reproduction unit 260 is performed (step S2404). In addition, the moving image reproduction unit 260 performs a reproduction process of the animation moving image data in which the edited content is reflected in response to the user's reproduction instruction (step S2405).

決定(保存)ボタンが選択された場合(ステップS2406)、動画再生部260は、上述の第2実施形態で説明した第2編集処理機能を遂行して、編集内容が反映されたアニメーション動画データを動画作成サービス提供システムに伝送し、動画作成サービス制御部1140は、アニメーション動画格納部1230に格納されているオリジナルのアニメーション動画データを更新する(ステップS2407,ステップS1403)。その後、動画再生部260は、利用者からの終了指示に基づいて(ステップS2408)、編集処理を終了する(ステップS2409)。   When the determination (save) button is selected (step S2406), the moving image playback unit 260 performs the second editing processing function described in the second embodiment to generate animated moving image data reflecting the editing content. The video creation service control unit 1140 updates the original animation video data stored in the animation video storage unit 1230 (steps S2407 and S1403). Thereafter, the moving image reproduction unit 260 ends the editing process (step S2409) based on the end instruction from the user (step S2408).

このように本実施形態の動画作成サービス提供システム1000では、画像等の素材を保持しないアニメーション動画データの作成サービスを利用者に提供し、利用者がローカル環境で保持する画像等の素材データをネットワークを通じてアップロードすることで、その素材を利用した動画作成を提供することができる。   As described above, in the moving image creation service providing system 1000 according to the present embodiment, animation moving image data creation service that does not hold images or the like is provided to the user, and the material data such as images that the user holds in the local environment is networked. By uploading through, you can provide video creation using the material.

したがって、動画作成サービス提供システム1000にアップロードされた素材を複数の利用者が共有して利用することができ、各作成者がローカル環境で保持する画像等の素材を他の作成者が利用する機会が向上するので、動画作成の面白みを向上させることができる。   Therefore, the materials uploaded to the video creation service providing system 1000 can be shared and used by a plurality of users, and each creator can use materials such as images held in the local environment by other creators. Therefore, it is possible to improve the fun of creating a movie.

言い換えれば、本実施形態の動画作成サービス提供システム1000は、動画再生部260の動画再生の際に画像等の素材をネットワークNと介して動画作成サービス提供システム1000から取得して該当のフレームをリアルタイムに生成して順次表示する動画再生処理を遂行させるアニメーション動画データを提供するので、動画に含まれる素材自体を独立して容易に管理することができる。このため、素材の作成者又は提供者がその素材を管理することができない等による素材の利用制限を抑制することができ、利用者及び提供者が安心して他の利用者に素材を利用させることのできる動画作成サービスを提供することができる。   In other words, the moving image creation service providing system 1000 according to the present embodiment acquires a material such as an image from the moving image creation service providing system 1000 via the network N when the moving image reproducing unit 260 reproduces the moving image, and obtains the corresponding frame in real time. The animation moving image data for performing the moving image reproduction process that is generated and displayed sequentially is provided, so that the material itself included in the moving image can be easily managed independently. For this reason, it is possible to suppress the use restriction of the material due to the fact that the creator or provider of the material cannot manage the material, etc., so that the user and the provider can use the material with peace of mind by other users. A video creation service that can

このため、動画作成における素材のバリエーションが広くなり、所望する画像等の素材の利用に際して該素材の作成者(提供者)の許諾を得たり、別途料金の支払いなどの負担がなく、他の作成者が作成した動画に含まれる素材を自身の動画作成に容易に利用することができ、動画作成の面白みを向上させることができる。   For this reason, there are a wide variety of materials for creating movies, and there is no burden of obtaining the materials creator (provider) when using the materials such as desired images, and there is no burden of separately paying other materials. The material included in the moving image created by the user can be easily used for creating the moving image of itself, and the fun of moving image creation can be improved.

また、上述のようにアニメーション動画データ自体がそのデータ容量が極めて小さく、かつ動画再生部260が必要な素材データを再生処理の際にリアルタイムに動画作成サービス提供システムから取得するので、ネットワークNのトラフィック量が低減され、快適な動画配信サービスを提供できるとともに、簡素化された動画生成プロセスにより動画の作成及び配信が迅速化することができる。したがって、サービス事業者は、円滑な動画配信を実現するためのシステム構築及びそのコストの負担を低減することができる。   Further, as described above, the animation video data itself has a very small data capacity, and the video playback unit 260 acquires the necessary material data from the video creation service providing system in real time during the playback process. The amount can be reduced, and a comfortable moving image distribution service can be provided, and the creation and distribution of moving images can be speeded up by a simplified moving image generation process. Therefore, the service provider can reduce the system construction and cost burden for realizing smooth video distribution.

また、編集テンプレートを通じた動画の編集ができるので、従来のように動画生成プロセスを経ることなく、リアルタイムにかつ容易に動画を編集することが可能となるとともに、その編集された動画を即座に配信することが可能となる。   In addition, since the video can be edited through the editing template, it is possible to edit the video in real time and easily without going through the video generation process as before, and the edited video is immediately distributed. It becomes possible to do.

(第4実施形態)
図29は、本発明の第4実施形態における動画作成サービス提供システムのネットワーク構成図である。本実施形態の動画作成サービス提供システム1000は、上述の第2実施形態の編集テンプレートを通じた動画編集機能を利用者に提供することで、新たな動画の楽しみ方を提供することができる動画作成サービスを提供する。
(Fourth embodiment)
FIG. 29 is a network configuration diagram of a moving image creation service providing system according to the fourth embodiment of the present invention. The video creation service providing system 1000 according to the present embodiment provides a video editing function through the editing template according to the second embodiment described above to the user, thereby providing a new way of enjoying a video. I will provide a.

具体的には、本実施形態の動画作成サービス提供システムは、利用者が配信される動画に対して編集テンプレートを通じた動画編集を楽しむことができるとともに、その編集した動画を当該利用者が作成した動画としてインターネット上で公開することで、一度作成された動画が、動画の閲覧者によって変化する新たな動画の楽しみ方を提供する。   Specifically, the video creation service providing system of the present embodiment can enjoy video editing through an editing template for a video distributed by the user, and the user creates the edited video. By publishing on the Internet as a video, the video once created provides a new way to enjoy video that changes depending on the viewer of the video.

図30は、本実施形態の動画作成サービス提供システム1000Aの構成ブロックであり、動画作成サービス提供サーバ1100A及びデータ格納サーバ1200Aを含む。   FIG. 30 is a configuration block of the moving image creation service providing system 1000A of the present embodiment, and includes a moving image creation service providing server 1100A and a data storage server 1200A.

動画作成サービス提供サーバ1100Aは、インターネット等のネットワークNを通じた複数の利用者端末装置200との通信制御を行う通信制御部1110A、動画作成サービス提供サーバ1100A全体の制御を司る制御部(CPU)1120A、メモリ1130A、利用者からの動画配信及び動画作成要求に応答してアニメーション動画データ及び/又は編集テンプレートを通じた動画編集作成機能を提供する動画サービス制御部1140A、利用者端末装置200Aに動画の動画配信画面(動画再生画面)を提供する画面制御部1150A、及び作成された動画及び編集テンプレートを通じて作成された動画の公開制御を遂行するパブリッシュ制御部1160Aを含む。   The video creation service providing server 1100A includes a communication control unit 1110A that performs communication control with a plurality of user terminal devices 200 through a network N such as the Internet, and a control unit (CPU) 1120A that controls the entire video creation service providing server 1100A. , A memory 1130A, a video service control unit 1140A that provides a video editing creation function through animation video data and / or an editing template in response to a video distribution and video creation request from the user, and a video of the video to the user terminal device 200A It includes a screen control unit 1150A that provides a distribution screen (moving image playback screen), and a publish control unit 1160A that performs public control of the created moving image and the moving image created through the editing template.

データ格納サーバ1200Aは、アニメーション動画データを格納するアニメーション動画格納部1230A、各アニメーション動画データと関連付けられた編集テンプレート情報を格納する編集テンプレート格納部1240A、アニメーション動画データの各素材データを格納する素材データ格納部1220A、編集テンプレート画面を含む動画再生画面の画面情報及び動画配信画面等の画面情報を格納する画面データ格納部1210Aを含む。   The data storage server 1200A includes an animation movie storage unit 1230A that stores animation movie data, an edit template storage unit 1240A that stores editing template information associated with each animation movie data, and material data that stores each material data of animation movie data. The storage unit 1220A includes a screen data storage unit 1210A that stores screen information such as a moving image playback screen including an editing template screen and a moving image distribution screen.

図31は、本実施形態の利用者端末装置200Aの構成ブロック図であり、インターネット等のネットワークNを通じた動画作成サービス提供サーバ1100Aとの通信制御を行う通信制御部210A、利用者端末装置200A全体の制御を司る制御部(CPU)220A、メモリ230A、ディスプレイ装置241Aが接続される表示インターフェース(表示IF)240A、キーボード等の入力部251A及びマウス等の操作部252Aが接続される外部インターフェース(外部IF)250A、及びFlash(登録商標)Player等の動画再生手段である動画再生部260Aを含む。なお、利用者端末装置200は、パーソナルコンピュータやPDA(Personal Digital Assistant)、携帯電話機等の移動通信端末装置などの通信機能及び演算機能を備えた情報処理装置により実現できる。なお、利用者端末装置200Aは、WEBブラウザ等のブラウザ機能を有し、動画作成サービス提供サーバ1100Aから伝送される編集テンプレート画面を含む動画再生画面及び動画配信画面などを表示することができる。   FIG. 31 is a block diagram showing the configuration of the user terminal device 200A of the present embodiment. The communication control unit 210A controls the communication with the video creation service providing server 1100A through the network N such as the Internet, and the entire user terminal device 200A. A control unit (CPU) 220A for controlling the display, a memory 230A, a display interface (display IF) 240A to which a display device 241A is connected, an input unit 251A such as a keyboard and an external interface (external interface) to which an operation unit 252A such as a mouse is connected IF) 250A, and a moving image reproducing unit 260A that is a moving image reproducing means such as Flash (registered trademark) Player. The user terminal device 200 can be realized by an information processing apparatus having a communication function and an arithmetic function, such as a personal computer, a PDA (Personal Digital Assistant), and a mobile communication terminal device such as a mobile phone. Note that the user terminal device 200A has a browser function such as a WEB browser, and can display a moving image reproduction screen and a moving image distribution screen including an edit template screen transmitted from the moving image creation service providing server 1100A.

図32は、本実施形態の動画作成サービスの編集テンプレートを通じた動画編集作成処理の処理フローを示したフローチャートである。   FIG. 32 is a flowchart showing the processing flow of the moving image editing creation processing through the editing template of the moving image creation service of the present embodiment.

利用者は、利用者端末装置200Aを介して動画作成サービス提供サーバ1100Aにアクセスし、画面制御部1150Aが提供する動画配信画面から編集テンプレートによる動画編集を行うことができる。動画配信画面は、作成者が作成した動画及び他の作成者が作成した動画リストを含み、利用者は、動画配信画面から所望の動画を選択することができる。利用者は、この動画配信画面から動画再生及び編集テンプレートを用いた動画編集による動画作成を行うことができる。   The user can access the moving image creation service providing server 1100A via the user terminal device 200A, and perform moving image editing using the editing template from the moving image distribution screen provided by the screen control unit 1150A. The moving image distribution screen includes a moving image created by the creator and a moving image list created by another creator, and the user can select a desired moving image from the moving image distribution screen. The user can create a moving image by reproducing the moving image and editing the moving image using the editing template from the moving image distribution screen.

動画サービス制御部1140Aは、利用者が動画配信画面を通じて動画編集による動画作成要求があった場合(ステップS2501)、選択された動画についてのアニメーション動画データ、編集テンプレート情報及び編集テンプレート画面を含む動画再生画面の各種情報をデータ格納サーバ1200Aから抽出し、利用者端末装置200Aに伝送する(ステップS1501,S1502)。   When the user has made a moving image creation request by moving image editing through the moving image distribution screen (step S2501), the moving image service control unit 1140A reproduces the moving image including the animated moving image data, the editing template information, and the editing template screen for the selected moving image. Various information on the screen is extracted from the data storage server 1200A and transmitted to the user terminal device 200A (steps S1501 and S1502).

利用者端末装置200Aの動画再生部260Aは、アニメーション動画データ、編集テンプレート情報、編集テンプレート画面を含む動画再生画面の情報を読み込み、編集テンプレート画面を含む動画再生画面をディスプレイ装置241に表示させる(図19参照)。動画再生部260Aは、編集テンプレート情報及びアニメーション動画データを読み込み、アニメーション表示領域MVでの動画再生処理及び編集テンプレート画面MEでの表示入力制御を遂行する(ステップS2502)。ここで、動画再生部260Aは、編集テンプレート画面に表示される当該アニメーション動画データの素材データ及び他の候補の素材データを、データ格納サーバ1200Aと通信をしながら取得して、画面に表示する。   The video playback unit 260A of the user terminal device 200A reads animation video data, editing template information, and information on the video playback screen including the editing template screen, and displays the video playback screen including the editing template screen on the display device 241 (FIG. 19). The moving image reproduction unit 260A reads the editing template information and the animation moving image data, and performs moving image reproduction processing in the animation display area MV and display input control on the editing template screen ME (step S2502). Here, the moving image reproduction unit 260A acquires the material data of the animation moving image data displayed on the editing template screen and other candidate material data while communicating with the data storage server 1200A, and displays them on the screen.

利用者は、再生ボタンPを選択することで動画再生を行うことができ、また、編集テンプレート画面MEを通じて動画をリアルタイムに編集することができる。利用者が編集テンプレート画面で、登場キャラクタを他の登場キャラクタに差し替えたり(他の登場キャラクタを選択したり)、台詞等の文字情報を任意に入力、変更した編集内容は、動画再生部260Aが保持する。そして、利用者がプレビューボタンを選択した場合(ステップS2503)、動画再生部260Aは、編集テンプレート画面での編集内容を当該動画再生部260Aが保持しているアニメーション動画データに反映する上述の第1編集処理を行う(ステップS2504)。動画再生部260Aは、利用者の再生指示に応答して編集内容が反映されたアニメーション動画データの再生処理を遂行する(ステップS2505)。   The user can reproduce the moving image by selecting the reproduction button P, and can edit the moving image in real time through the editing template screen ME. On the editing template screen, the video playback unit 260A displays the edited content in which the appearance character is replaced with another appearance character (other appearance character is selected) or character information such as dialogue is arbitrarily input and changed. Hold. When the user selects the preview button (step S2503), the video playback unit 260A reflects the edited content on the editing template screen in the animation video data held by the video playback unit 260A. Editing processing is performed (step S2504). The moving image reproducing unit 260A performs a reproduction process of the animation moving image data in which the edited content is reflected in response to the user's reproduction instruction (step S2505).

また、決定(公開)ボタンが選択された場合(ステップS2506)、動画再生部260Aは、ステップS2504と同様に、編集テンプレート画面での編集内容を当該動画再生部260Aが保持しているアニメーション動画データに反映する編集処理を行い、編集内容が反映されたアニメーション動画データを、当該利用者が作成した動画として動画作成サービス提供システム1000Aに送信する(ステップS2507)。動画サービス制御部1140Aは、利用者端末装置200Aから送信されてきたアニメーション動画データをその利用者が作成した動画データとして利用者別にアニメーション動画格納部1230Aに格納するとともに(ステップS1503)、パブリッシュ制御部1160Aに、利用者が編集した動画を当該利用者が作成した動画として動画配信画面での公開処理、例えば、動画配信画面の動画リストに掲載して動画閲覧が可能なようにする(ステップS1504)。   In addition, when the determination (publication) button is selected (step S2506), the moving image reproduction unit 260A, like step S2504, animated animation data that the moving image reproduction unit 260A holds the editing content on the editing template screen. Then, the animation moving image data reflecting the edited content is transmitted to the moving image creating service providing system 1000A as the moving image created by the user (step S2507). The moving image service control unit 1140A stores the animation moving image data transmitted from the user terminal device 200A as moving image data created by the user in the animation moving image storage unit 1230A for each user (step S1503), and the publish control unit. In 1160A, the moving image edited by the user is published as a moving image created by the user on the moving image distribution screen, for example, in a moving image list on the moving image distribution screen so that the moving image can be viewed (step S1504). .

その後、動画再生部260Aは、利用者からの終了指示に基づいて(ステップS2508)、編集処理を終了する(ステップS2509)。   Thereafter, the moving image reproducing unit 260A ends the editing process (step S2509) based on an end instruction from the user (step S2508).

図33は、図32に示した本実施形態の動画作成サービスの変形例であり、利用者端末装置200Aの動画再生部260Aがアニメーション動画データに対して編集内容を反映する編集処理を遂行せずに、動画作成サービス提供システム1000A側でアニメーション動画データに対して編集内容を反映する編集処理を遂行する。この場合、ステップS2507において動画再生部260Aは、編集テンプレート画面での編集内容(編集指示情報)のみを動画作成サービス提供システム1000Aに送信し(ステップS2507A)、動画サービス制御部1140Aが、編集対象のアニメーション動画格納部1230Aに格納されているオリジナルのアニメーション動画データをコピーし、そのコピーしたアニメーション動画データに対して編集内容を反映する編集処理を遂行する(ステップS1503A)。そして、動画サービス制御部1140Aは、編集処理後のアニメーション動画データをその利用者が作成した動画データとして利用者別にアニメーション動画格納部1230Aに格納する(ステップS1503B)。   FIG. 33 is a modification of the video creation service of the present embodiment shown in FIG. 32, and the video playback unit 260A of the user terminal device 200A does not perform an editing process for reflecting the editing content on the animation video data. Further, the moving image creation service providing system 1000A performs an editing process for reflecting the editing contents on the animation moving image data. In this case, in step S2507, the video playback unit 260A transmits only the editing content (edit instruction information) on the editing template screen to the video creation service providing system 1000A (step S2507A), and the video service control unit 1140A selects the editing target. The original animation moving image data stored in the animation moving image storage unit 1230A is copied, and an editing process for reflecting the editing content on the copied animation moving image data is performed (step S1503A). Then, the moving image service control unit 1140A stores the animation moving image data after the editing process in the animation moving image storage unit 1230A for each user as moving image data created by the user (step S1503B).

このように本実施形態では、動画を閲覧する楽しみ方に加え、閲覧する動画を編集して動画を作成する楽しみを提供することができ、その編集した動画を当該利用者が作成した動画としてインターネット上で公開することで、一度作成された動画が、動画の閲覧者によって変化する新たな動画の楽しみ方を提供することができる。   As described above, according to the present embodiment, in addition to the enjoyment method of viewing a movie, it is possible to provide the enjoyment of creating a movie by editing the browsed movie, and the edited movie is used as a movie created by the user on the Internet. By publishing the above, it is possible to provide a new way of enjoying a moving image that has been created once and that changes depending on the viewer of the moving image.

すなわち、1つの動画がテンプレート化され、その動画を複数の利用者で共有することができ、1つの動画が閲覧する利用者によって派生的に変化する新たな動画の楽しみ方を提供することができる。   That is, a single video is made into a template, and the video can be shared by a plurality of users, and a new way of enjoying a video that changes derivatively depending on the user viewing the single video can be provided. .

また、上述のように、編集テンプレートを通じたリアルタイムの動画編集(動画生成)及びその公開を提供できるとともに、ネットワークNのトラフィック量が低減されることから、動画作成及び動画配信を好適に提供することができる。   In addition, as described above, real-time video editing (video generation) through the editing template and its disclosure can be provided, and the traffic volume of the network N is reduced, so that video creation and video distribution are suitably provided. Can do.

以上、本発明を好適な実施形態を一例に説明したが、上述の各サーバ及び利用者端末装置は、ハードウェア構成として上述以外にも、タッチパネル、スキャナー等の操作入力手段、プリンタ、スピーカなどの出力手段、補助記憶装置(ハードディスク等)等を備えることが可能である。   As described above, the present invention has been described by taking a preferred embodiment as an example. However, in addition to the above-described hardware configurations, the above-described servers and user terminal devices include operation input means such as a touch panel, a scanner, a printer, a speaker, and the like. An output unit, an auxiliary storage device (such as a hard disk), and the like can be provided.

また、本発明の動画作成方法の処理(各ステップ及び各機能)は、コンピュータで実行可能なプログラムとして具現化することが可能であり、当該プログラムがインストールされたコンピュータは、本発明の動画作成処理を遂行する情報処理装置として動作することが可能である。例えば、不図示の補助記憶装置に当該プログラムが格納され、CPU等の制御部が補助記憶装置に格納されたプログラムをメモリ等の主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行し、コンピュータに本発明の処理を動作させることができる。また、本発明の動画作成プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、利用者端末装置及びサーバ装置に提供することも可能であり、インターネット等のネットワークを通じて利用者端末装置にダウンロードすることも可能である。コンピュータ読取可能な記録媒体としては、CD−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。本発明の動画作成サービス提供方法及び動画再生方法についても同様である。   Further, the processing (each step and each function) of the moving image creation method of the present invention can be embodied as a program executable by a computer, and the computer in which the program is installed is processed by the moving image creation processing of the present invention. It is possible to operate as an information processing apparatus that performs the above. For example, the program is stored in an auxiliary storage device (not shown), and a control unit such as a CPU reads the program stored in the auxiliary storage device into a main storage device such as a memory, and the program read into the main storage device It can be executed by the control unit and cause the computer to operate the processing of the present invention. The moving image creation program of the present invention can also be provided to a user terminal device and a server device in a state recorded on a computer-readable recording medium, and downloaded to the user terminal device through a network such as the Internet. It is also possible to do. Computer-readable recording media include optical disks such as CD-ROM, phase change optical disks such as DVD-ROM, magneto-optical disks such as MO (Magnet Optical) and MD (Mini Disk), floppy (registered trademark) disks, Examples include magnetic disks such as removable hard disks, memory cards such as compact flash (registered trademark), smart media, SD memory cards, and memory sticks. A hardware device such as an integrated circuit (IC chip or the like) specially designed and configured for the purpose of the present invention is also included as a recording medium. The same applies to the moving image creation service providing method and the moving image reproducing method of the present invention.

また、本発明の方法を実行するためのプログラムには、各プログラムが動的に生成されるプログラムを含む。すなわち、各実行プログラムが利用者端末装置にインストールされた形式で当該実行プログラムが実行される形態のみならず、例えば、オブジェクト指向プログラミングのように、各実行プログラムがクラス群の集合として形成され、実行プログラムとして利用者端末装置に格納されているのではなく、所定の処理を実行する際にこれらのクラス群から必要な機能を抽出して当該実行プログラムを動的(リアルタイム)に生成して、当該実行プログラムを機能させることも可能である。   The program for executing the method of the present invention includes a program in which each program is dynamically generated. That is, not only the form in which each execution program is installed in the user terminal device is executed, but also each execution program is formed as a set of classes and executed, for example, as in object-oriented programming Instead of being stored in the user terminal device as a program, when executing a predetermined process, the necessary functions are extracted from these class groups and the execution program is dynamically generated (in real time). It is also possible to make an execution program function.

なお、本発明を好適な実施形態に則して説明したが、本発明の要旨から逸脱しない範囲内で当該技術分野の技術に照らし合わせて多様に変形することが可能である。したがって、本発明の技術的範囲は、上述の実施形態に限定されるものではなく、特許請求の範囲の記載及びこれと均等なものに基づいて定められるべきである。   Although the present invention has been described according to a preferred embodiment, it can be variously modified in light of the technology in the technical field without departing from the gist of the present invention. Therefore, the technical scope of the present invention should not be limited to the above-described embodiment, but should be determined based on the description of the claims and equivalents thereof.

100 動画作成装置
110 通信制御部
120 制御部(CPU)
130 メモリ
140 表示インターフェース
141 ディスプレイ装置
150 外部インターフェース
151 入力部
152 操作部
160 動画再生部
170 動画作成制御部
171 アニメーション動画生成部
172 編集テンプレート生成部
180 格納部
181 画面データ格納部
182 素材データ格納部
183 アニメーション動画格納部
184 編集テンプレート格納部
1000 動画作成サービス提供システム
1100 動画作成サービス提供サーバ
1110 通信制御部
1120 制御部(CPU)
1130 メモリ
1140 動画作成サービス制御部
1150 画面制御部
1160 動画作成プログラム格納部
1200 データ格納サーバ
1210 画面データ格納部
1220 素材データ格納部
1230 アニメーション動画格納部
1240 編集テンプレート格納部
1000A 動画作成サービス提供システム
1100A 動画作成サービス提供サーバ
1110A 通信制御部
1120A 制御部(CPU)
1130A メモリ
1140A 動画サービス制御部
1150A 画面制御部
1160A パブリッシュ制御部
1200A データ格納サーバ
1210A 画面データ格納部
1220A 素材データ格納部
1230A アニメーション動画格納部
1240A 編集テンプレート格納部
200 利用者端末装置
210 通信制御部
220 制御部(CPU)
230 メモリ
240 表示インターフェース
241 ディスプレイ装置
250 外部インターフェース
251 入力部
252 操作部
260 動画再生部
270 動画作成制御部
271 アニメーション動画生成部
272 編集テンプレート生成部
273 画面データ格納部
280 格納部
200A 利用者端末装置
210A 通信制御部
220A 制御部(CPU)
230A メモリ
240A 表示インターフェース
241A ディスプレイ装置
250A 外部インターフェース
251A 入力部
252A 操作部
260A 動画再生部
N ネットワーク
100 video creation device 110 communication control unit 120 control unit (CPU)
130 Memory 140 Display Interface 141 Display Device 150 External Interface 151 Input Unit 152 Operation Unit 160 Movie Playback Unit 170 Movie Creation Control Unit 171 Animation Movie Generation Unit 172 Edit Template Generation Unit 180 Storage Unit 181 Screen Data Storage Unit 182 Material Data Storage Unit 183 Animation movie storage unit 184 Edit template storage unit 1000 Movie creation service providing system 1100 Movie creation service providing server 1110 Communication control unit 1120 Control unit (CPU)
1130 Memory 1140 Movie creation service control unit 1150 Screen control unit 1160 Movie creation program storage unit 1200 Data storage server 1210 Screen data storage unit 1220 Material data storage unit 1230 Animation movie storage unit 1240 Edit template storage unit 1000A Movie creation service providing system 1100A Movie Creation service providing server 1110A Communication control unit 1120A Control unit (CPU)
1130A Memory 1140A Movie service control unit 1150A Screen control unit 1160A Publish control unit 1200A Data storage server 1210A Screen data storage unit 1220A Material data storage unit 1230A Animation movie storage unit 1240A Edit template storage unit 200 User terminal device 210 Communication control unit 220 Control Department (CPU)
230 Memory 240 Display interface 241 Display device 250 External interface 251 Input unit 252 Operation unit 260 Movie playback unit 270 Movie creation control unit 271 Animation movie generation unit 272 Edit template generation unit 273 Screen data storage unit 280 Storage unit 200A User terminal device 210A Communication control unit 220A Control unit (CPU)
230A Memory 240A Display interface 241A Display device 250A External interface 251A Input unit 252A Operation unit 260A Video playback unit N Network

Claims (22)

ディスプレイ装置を備えたコンピュータに動画作成処理を実行させるための動画作成プログラムであって、前記コンピュータに、
動画を構成する各フレームの素材データ及び前記各フレームの表示制御情報を設定可能な動画作成画面を前記ディスプレイ装置に表示する機能と、
前記表示制御情報及び前記素材データが格納されている格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの前記格納場所に関する情報を含む表示制御情報をテキスト形式で記述したテキストデータであって、動画再生部が動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で前記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成する機能と、
生成された前記アニメーション動画データを格納する機能と、
を実現させるための動画作成プログラム。
A moving image creating program for causing a computer having a display device to execute a moving image creating process, wherein the computer
A function of displaying on the display device a moving image creation screen in which material data of each frame constituting the moving image and display control information of each frame can be set;
Using the display control information and the information on the storage location where the material data is stored, the display control information including information on the storage location of the material data in the frame for each frame is text data describing in text format. When the moving image reproducing unit reproduces the moving image, the moving image reproducing process for acquiring the material data from the storage location and generating each frame and sequentially displaying the generated frame based on the display control information is performed. A function of generating animation moving image data describing display control information including information on a storage location of the material data in a control instruction method;
A function of storing the generated animation video data;
A video creation program to achieve this.
前記アニメーション動画データを生成する機能は、
各フレームの前記素材データの格納場所に関する情報を含む表示制御情報がXML形式で記述されたテキストデータを前記アニメーション動画データとして生成する機能であることを特徴とする請求項1に記載の動画作成プログラム。
The function of generating the animated video data is
2. The moving image creating program according to claim 1, wherein display control information including information relating to a storage location of the material data of each frame is a function of generating text data described in XML format as the animated moving image data. .
前記アニメーション動画データを生成する機能は、
前記動画再生部が前後のフレームに対して独立して各フレームを生成し、生成したフレームを前記ディスプレイ装置に順次表示する動画再生を遂行させる制御命令形式で各フレームの前記素材データの格納場所に関する情報を含む表示制御情報を記述した前記アニメーション動画データを生成する機能であることを特徴とする請求項1又は2に記載の動画作成プログラム。
The function of generating the animated video data is
The moving image reproducing unit generates each frame independently of the preceding and following frames, and sequentially stores the generated frames on the display device, and relates to a storage location of the material data of each frame in a control command format for performing moving image reproduction The moving image creating program according to claim 1 or 2, wherein the moving image creating program has a function of generating the animation moving image data describing display control information including information.
前記動画作成画面を前記ディスプレイ装置に表示する機能は、
フレームの再生時間情報、フレームにおける素材データの表示位置情報、及びフレームに表示される文字情報、各フレーム又は動画全体における音情報、エフェクト情報、フォント情報及び色情報のうち少なくとも1つを含む表示制御の設定が可能な表示領域を含む動画作成画面を前記ディスプレイ装置に表示する機能であることを特徴とする請求項1から3のいずれか1つに記載の動画作成プログラム。
The function of displaying the video creation screen on the display device is:
Display control including at least one of frame playback time information, material data display position information in the frame, character information displayed in the frame, sound information in each frame or the entire moving image, effect information, font information, and color information 4. The moving image creating program according to claim 1, wherein the moving image creating screen has a function of displaying a moving image creating screen including a display area capable of being set on the display device. 5.
前記動画作成画面を前記ディスプレイ装置に表示する機能は、生成された前記アニメーション動画データを呼び出して、該アニメーション動画データの前記フレームの素材データ及び前記フレームの表示制御情報を前記動画作成画面に表示する機能を含み、
前記動画作成画面を通じた該アニメーション動画データに対する動画の編集結果を用いて、前記生成されたアニメーション動画データをテキスト形式で編集する機能、をさらに前記コンピュータに実現させることを特徴とする請求項1から4のいずれか1つに記載の動画作成プログラム。
The function of displaying the moving image creation screen on the display device calls the generated animation moving image data and displays the frame material data of the animation moving image data and the display control information of the frame on the moving image creation screen. Including functions,
2. The computer is further realized with a function of editing the generated animation moving picture data in a text format using a moving picture editing result for the animation moving picture data through the moving picture creation screen. 4. The moving image creation program according to any one of 4 above.
前記アニメーション動画データをテキスト形式で編集する機能は、
生成された前記アニメーション動画データに対してフレーム、素材データ及び前記フレームの表示制御情報を追加する編集である場合、追加されるフレーム、素材データ又はフレームについての表示制御情報をテキスト形式で生成し、前記生成されたアニメーション画像データにテキスト形式で追加する編集処理を遂行する機能であることを特徴とする請求項5に記載の動画作成プログラム。
The function of editing the animation video data in text format is as follows:
In the case of editing to add a frame, material data and display control information of the frame to the generated animation video data, display control information about the added frame, material data or frame is generated in a text format, 6. The moving image creating program according to claim 5, wherein the moving image creating program has a function of performing an editing process of adding the generated animation image data in a text format.
前記アニメーション動画データをテキスト形式で編集する機能は、
生成された前記アニメーション動画データに対してフレーム、素材データ及び前記フレームの表示制御情報を修正する編集である場合、修正されるフレーム、素材データ又はフレームについての表示制御情報をテキスト形式で生成し、前記生成されたアニメーション画像データの該当する表示制御情報をテキスト形式で書き換える編集処理を遂行する機能であることを特徴とする請求項5に記載の動画作成プログラム。
The function of editing the animation video data in text format is as follows:
When editing the frame, material data and display control information of the frame with respect to the generated animation video data, display control information about the corrected frame, material data or frame is generated in a text format, 6. The moving image creating program according to claim 5, wherein the moving image creating program has a function of performing an editing process of rewriting corresponding display control information of the generated animation image data in a text format.
前記アニメーション動画データをテキスト形式で編集する機能は、
生成された前記アニメーション動画データに対してフレーム、素材データ及び前記フレームの表示制御情報を削除する編集である場合、前記生成されたアニメーション画像データの該当する表示制御情報をテキスト形式で削除する編集処理を遂行する機能であることを特徴とする請求項5に記載の動画作成プログラム。
The function of editing the animation video data in text format is as follows:
Edit processing for deleting the display control information corresponding to the generated animation image data in a text format when editing the frame, material data, and display control information of the frame for the generated animation moving image data The moving image creating program according to claim 5, wherein the moving image creating program is a function of performing
前記生成されたアニメーション動画データに含まれる素材データを選択可能に表示する編集テンプレート作成画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート作成画面で選択された素材データが所定の編集テンプレート画面に編集が許可された素材として表示されるための画面情報を前記アニメーション動画データの編集テンプレート情報として生成する機能と、
前記編集テンプレート情報を前記生成されたアニメーション動画データと関連付けて格納する機能と、
をさらに前記コンピュータに実現させることを特徴とする請求項1から8のいずれか1つに記載の動画作成プログラム。
A function of displaying an edit template creation screen for selectively displaying material data included in the generated animation video data on the display device;
A function of generating screen information for displaying material data selected on the editing template creation screen as a material permitted to be edited on a predetermined editing template screen as editing template information of the animation video data;
A function of storing the editing template information in association with the generated animation video data;
9. The moving image creating program according to claim 1, further comprising: realizing the above in the computer.
前記編集テンプレート情報を用いて前記編集が許可された素材が表示された前記所定の編集テンプレート画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート画面において前記編集が許可された素材に対して他の候補素材を選択可能に制御する機能と、
前記編集テンプレート画面において前記他の候補素材を選択する編集が行われた場合に、該当のアニメーション動画データにおける前記編集が許可された素材データの格納場所に関する情報を、他の候補素材の格納場所に関する情報にテキスト形式で書き換える機能と、
をさらに前記コンピュータに実現させることを特徴とする請求項9に記載の動画作成プログラム。
A function for displaying on the display device the predetermined editing template screen on which the material permitted to be edited is displayed using the editing template information;
A function for controlling other candidate materials to be selectable with respect to the materials permitted to be edited on the editing template screen;
When editing to select the other candidate material is performed on the editing template screen, information on the storage location of the material data that is permitted to be edited in the corresponding animation video data is related to the storage location of the other candidate material. The ability to rewrite information in text format,
10. The moving image creation program according to claim 9, wherein the computer is further realized.
前記生成されたアニメーション動画データに含まれる各フレームの表示制御情報を選択可能に表示する編集テンプレート作成画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート作成画面で選択された表示制御情報が所定の編集テンプレート画面に編集が許可された表示制御情報として表示されるための画面情報を前記アニメーション動画データの編集テンプレート情報として生成する機能と、
前記編集テンプレート情報を前記生成されたアニメーション動画データと関連付けて格納する機能と、
をさらに前記コンピュータに実現させることを特徴とする請求項1から8のいずれか1つに記載の動画作成プログラム。
A function of displaying an edit template creation screen for selectively displaying display control information of each frame included in the generated animation video data on the display device;
A function of generating screen information for display control information selected on the edit template creation screen as display control information permitted to be edited on a predetermined edit template screen as edit template information of the animation video data;
A function of storing the editing template information in association with the generated animation video data;
9. The moving image creating program according to claim 1, further comprising: realizing the above in the computer.
前記編集テンプレート情報を用いて前記編集が許可された表示制御情報が表示された前記所定の編集テンプレート画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート画面において前記編集が許可された表示制御情報に対して他の候補の表示制御情報を入力又は選択可能に制御する機能と、
前記編集テンプレート画面において前記他の候補の表示制御情報を入力又は選択する編集が行われた場合に、該当のアニメーション動画データにおける前記編集が許可された表示制御情報を、他の候補の表示制御情報にテキスト形式で書き換える機能と、
をさらに前記コンピュータに実現させることを特徴とする請求項11に記載の動画作成プログラム。
A function of displaying the predetermined edit template screen on which the display control information permitted to be edited is displayed on the display device using the edit template information;
A function of controlling the display control information of other candidates for the display control information permitted to be edited on the editing template screen, or a control function enabling input or selection.
When editing to input or select the other candidate display control information is performed on the editing template screen, the display control information permitted to be edited in the corresponding animation video data is displayed as the other candidate display control information. With the ability to rewrite in text format,
The moving picture creating program according to claim 11, further comprising:
請求項1から12のいずれか1つに記載の動画作成プログラムを記録したコンピュータ読取り可能な記録媒体。   A computer-readable recording medium in which the moving image creating program according to any one of claims 1 to 12 is recorded. ディスプレイ装置を備えた動画作成装置であって、
動画の各フレームに含まれる画像等の素材データを格納する素材データ格納部と、
前記ディスプレイ装置に表示される前記フレームの素材データ及び前記フレームの表示制御情報を設定可能な動画作成画面を介して設定された前記表示制御情報及び各フレームに対して関連付けられた素材データの前記素材データ格納部における格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの前記格納場所に関する情報を含む表示制御情報をテキスト形式で記述したアニメーション動画データを生成するアニメーション動画生成部と、
生成された前記アニメーション動画データを格納するアニメーション動画格納部と、を有し
前記アニメーション動画生成部は、動画再生部が動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で前記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成することを特徴とする動画作成装置。
A video creation device equipped with a display device,
A material data storage unit for storing material data such as images included in each frame of the video;
The material of the frame displayed on the display device and the material of the material data associated with each frame, the display control information set via the moving image creation screen capable of setting the display control information of the frame Using the information about the storage location in the data storage unit, an animation video generation unit for generating, for each frame, animation video data describing the display control information including information about the storage location of the material data in the frame in text format;
An animation movie storage unit that stores the generated animation movie data, and the animation movie generation unit generates material frames from the storage location when the movie playback unit plays the movie. Then, animation moving image data describing display control information including information on the storage location of the material data is generated by a control command method for performing moving image reproduction processing for sequentially displaying the generated frames based on the display control information. A moving picture creating apparatus characterized by that.
ディスプレイ装置を備えたコンピュータで動画を作成する動画作成方法であって、
動画の各フレームに含まれる画像等の素材データを格納するステップと、
前記ディスプレイ装置に表示される前記フレームの素材データ及び前記フレームの表示制御情報を設定可能な動画作成画面を介して設定された前記表示制御情報及び各フレームに対して関連付けられた素材データの格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの前記格納場所に関する情報を含む表示制御情報をテキスト形式で記述したテキストデータであって、動画再生部が動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で前記素材データの格納場所に関する情報を含む表示制御情報を記述したアニメーション動画データを生成するステップと、
生成された前記アニメーション動画データを格納するステップと、
を含むことを特徴とする動画作成方法。
A video creation method for creating a video on a computer equipped with a display device,
Storing material data such as images included in each frame of the video;
Storage location of the display control information and the material data associated with each frame set via the moving image creation screen capable of setting the frame material data and display control information of the frame displayed on the display device Text data in which display control information including information on the storage location of the material data in the frame is described in a text format for each frame, and the storage location when the video playback unit plays back the video A display including information on the storage location of the material data in a control command method for performing a moving image reproduction process in which material data is acquired from each frame to generate each frame and the generated frames are sequentially displayed based on the display control information Generating animated video data describing the control information;
Storing the generated animation video data;
A method for creating a moving image, comprising:
ネットワークを介して接続可能なディスプレイ装置を備えた利用者端末装置を通じ、利用者が動画を作成する動画作成サービスを提供する動画作成サービス提供システムであって、
前記ネットワークを通じて前記利用者端末装置から伝送される画像等の素材データを格納する素材データ格納部と、
動画を構成するフレームの素材データ及び前記フレームの表示制御情報を設定可能な動画作成画面を前記ディスプレイ装置に表示させるための画面情報を含み、前記動画作成画面を通じて設定された各フレームの表示制御情報及び前記素材データ格納部における素材データの格納場所に関する情報を用いて、フレーム毎に当該フレームにおける素材データの前記格納場所に関する情報を含む表示制御情報をテキスト形式で記述したアニメーション動画データを生成する機能を、前記利用者端末装置に実現させるための動画作成プログラムを格納するプログラム格納部と、
前記利用者からの要請に応答して前記動画作成プログラムを前記利用者端末装置に伝送する動画作成サービス制御部と、
前記利用者端末装置から伝送される前記動画作成プログラムを通じて作成された前記アニメーション動画データを格納するアニメーション動画格納部と、を有し、
前記動画作成プログラムは、前記利用者端末装置の動画再生部に動画を再生する際に前記ネットワークを通じて前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で前記素材データの格納場所に関する情報を含む表示制御情報を記述したテキスト形式のアニメーション動画データを生成する機能を前記利用者端末装置に実現させることを特徴とする動画作成サービス提供システム。
A video creation service providing system for providing a video creation service in which a user creates a video through a user terminal device equipped with a display device connectable via a network,
A material data storage unit for storing material data such as images transmitted from the user terminal device through the network;
Display control information for each frame set through the video creation screen, including screen information for causing the display device to display a video creation screen in which material data of frames constituting the video and display control information of the frames can be set And a function for generating animation moving image data in which display control information including information on the storage location of the material data in the frame is described in a text format for each frame using information on the storage location of the material data in the material data storage unit A program storage unit for storing a moving image creating program for causing the user terminal device to realize,
A video creation service control unit that transmits the video creation program to the user terminal device in response to a request from the user;
An animation movie storage unit that stores the animation movie data created through the movie creation program transmitted from the user terminal device;
The moving image creating program obtains material data from the storage location through the network when the moving image is reproduced on the moving image reproducing unit of the user terminal device, generates each frame, and uses the generated frame as the display control information. A function for generating animated text data in text format in which display control information including information on the storage location of the material data is described in a control command method for performing a video playback process for sequentially displaying based on the user terminal device; A video creation service providing system characterized by being realized.
前記動画作成プログラムは、
前記利用者からの要請に応答して、前記アニメーション動画格納部に格納された該当のアニメーション動画データに含まれる素材データを選択可能に表示する編集テンプレート作成画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート作成画面で選択された素材データが所定の編集テンプレート画面に編集が許可された素材として表示されるための画面情報を前記アニメーション動画データの編集テンプレート情報として生成する機能と、
前記編集テンプレート情報を前記動画作成サービス提供システムに伝送する機能と、をさらに前記利用者端末装置に実現させるための編集テンプレート作成プログラムを含み、
前記利用者端末装置から伝送される前記編集テンプレート作成プログラムを通じて作成された前記編集テンプレート情報を格納する編集テンプレート格納部を、さらに有することを特徴とする請求項16に記載の動画作成サービス提供システム。
The video creation program
In response to a request from the user, a function for displaying an edit template creation screen for selectively displaying material data included in the corresponding animation video data stored in the animation video storage unit on the display device;
A function of generating screen information for displaying material data selected on the editing template creation screen as a material permitted to be edited on a predetermined editing template screen as editing template information of the animation video data;
A function for transmitting the editing template information to the moving image creation service providing system, and an editing template creation program for causing the user terminal device to further realize the function,
The moving image creation service providing system according to claim 16, further comprising an edit template storage unit that stores the edit template information created through the edit template creation program transmitted from the user terminal device.
ネットワークを介して接続可能なディスプレイ装置を備えた利用者端末装置を通じ、利用者が動画を作成する動画作成サービスを提供する動画作成サービス提供システムであって、
動画のフレームを構成する素材データを格納する素材データ格納部と、
動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたテキストデータであって、前記利用者端末装置における動画生成部が動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行させるための制御命令方式で前記素材データの格納場所に関する情報を含む表示制御情報を記述したテキスト形式のアニメーション動画データを格納するアニメーション動画格納部と、
前記アニメーション動画データに対する動画の編集テンプレート情報であって、所定の編集テンプレート画面に当該アニメーション動画データにおける編集が許可された素材及び/又は表示制御情報として表示されるための画面情報を格納する編集テンプレート格納部と、
利用者からの要求に応答して、該当のアニメーション動画データ、前記編集テンプレート情報及び前記編集テンプレート画面を前記利用者端末装置に伝送する動画サービス制御部と、を有し、
前記編集テンプレート画面又は前記編集テンプレート情報は、前記アニメーション動画データに対する各フレームの素材及び/又は表示制御情報の編集内容を、前記アニメーション動画データにテキスト形式で反映して当該利用者のアニメーション動画データを生成する編集処理を、前記利用者端末装置に実行させるための制御命令を含み、
前記動画サービス制御部は、前記編集処理を通じて作成されたアニメーション動画データを、前記ネットワークを通じて前記利用者端末装置から受信して利用者毎に当該利用者のアニメーション動画データとして前記アニメーション動画格納部に格納することを特徴とする動画作成サービス提供システム。
A video creation service providing system for providing a video creation service in which a user creates a video through a user terminal device equipped with a display device connectable via a network,
A material data storage unit for storing material data constituting the frame of the video,
The display control information of each frame constituting the moving image and the information on the storage location where the material data included in the frame is stored are text data described in a text format, and the moving image generation unit in the user terminal device generates the moving image. When reproducing, the material data is acquired from the storage location, each frame is generated, and the generated frame of the material data is controlled by a control command method for performing a moving image reproduction process for sequentially displaying the generated frame based on the display control information. An animation video storage unit for storing text-format animation video data describing display control information including information about the storage location;
Edit template information of a moving image with respect to the animation moving image data, the editing template storing screen information to be displayed as a material and / or display control information permitted to be edited in the animation moving image data on a predetermined editing template screen A storage unit;
In response to a request from a user, the video service control unit transmits the corresponding animation video data, the editing template information, and the editing template screen to the user terminal device,
The editing template screen or the editing template information reflects the animation moving image data of the user by reflecting the editing contents of the material and / or display control information of each frame with respect to the animated moving image data in the animation moving image data. Including a control command for causing the user terminal device to execute the editing process to be generated,
The video service control unit receives the animation video data created through the editing process from the user terminal device through the network and stores the animation video data for each user in the animation video storage unit as the animation video data of the user. A video creation service providing system characterized by
ディスプレイ装置を備えたコンピュータに動画の再生処理を実行させるための動画再生プログラムであって、前記コンピュータに、
前記動画を構成する複数のフレーム順に各フレームの表示制御情報を読み込み、前記表示制御情報に含まれる当該フレームを構成する素材データの格納場所に関する情報に基づいて、前記格納場所から素材データを取得する機能と、
前記取得した素材データを用いて、前記表示制御情報に基づくフレームを各々生成する機能と、
前記生成した各フレームの前記表示制御情報に基づく表示制御を遂行しつつ、前記フレーム順に生成した各フレームを前記ディスプレイ装置に順次表示する機能と、
を実現させるための動画再生プログラム。
A video playback program for causing a computer equipped with a display device to execute a video playback process,
The display control information of each frame is read in the order of a plurality of frames constituting the moving image, and the material data is acquired from the storage location based on the information related to the storage location of the material data constituting the frame included in the display control information. Function and
A function of generating each frame based on the display control information using the acquired material data;
A function of sequentially displaying each frame generated in the order of the frames on the display device while performing display control based on the display control information of the generated frames;
A video playback program to achieve this.
再生される動画の再生位置を表示する再生スライダを前記ディスプレイ装置に表示する機能と、
前記フレーム順に各フレームの表示制御情報に含まれるフレーム再生時間を用いて、前記再生スライダを通じて指定された任意の再生位置に対応するフレームを特定する機能と、
前記特定されたフレームを再生開始位置として、当該特定されたフレームを含むフレーム順序で前記生成した各フレームの前記表示制御情報に基づく表示制御を遂行しつつ、前記フレーム順に生成した各フレームを前記ディスプレイ装置に順次表示する機能と、
をさらに前記コンピュータに実現させることを特徴とする請求項19に記載の動画再生プログラム。
A function of displaying a playback slider on the display device for displaying a playback position of a video to be played back;
A function for specifying a frame corresponding to an arbitrary reproduction position designated through the reproduction slider using a frame reproduction time included in the display control information of each frame in the frame order;
Using the identified frame as a playback start position, performing display control based on the display control information of the generated frame in a frame order including the identified frame, and displaying each frame generated in the frame order on the display The ability to display sequentially on the device;
The moving picture reproduction program according to claim 19, further comprising:
動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたアニメーション動画データに基づいて、動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行する動画再生部を備えたコンピュータに、前記アニメーション動画データの編集処理を実行させるための動画編集プログラムであって、前記コンピュータに、
前記アニメーション動画データの各フレームを構成する素材データにおいて予めその編集が許可された素材が表示される所定の編集テンプレート画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート画面において前記編集が許可された素材に対して他の候補素材を選択可能に制御する機能と、
前記他の候補素材が選択された場合に、該当のアニメーション動画データにおける前記編集が許可された素材データの格納場所に関する情報を、前記選択された他の候補素材の格納場所に関する情報にテキスト形式で書き換える機能と、
を実現させるための動画編集プログラム。
Based on the animation video data in which the display control information of each frame constituting the video and the storage location where the material data included in the frame is stored are described in text format, the material from the storage location is reproduced when the video is played back. Each frame is generated by acquiring data, and a computer having a moving image reproducing unit for performing a moving image reproducing process for sequentially displaying the generated frames based on the display control information is caused to execute the editing process of the animation moving image data. A video editing program for the computer,
A function for displaying on the display device a predetermined editing template screen on which a material whose editing is permitted in advance in material data constituting each frame of the animation video data;
A function for controlling other candidate materials to be selectable with respect to the materials permitted to be edited on the editing template screen;
When the other candidate material is selected, the information on the storage location of the material data permitted to be edited in the animation video data is converted into the information on the storage location of the selected other candidate material in text format. Rewrite function,
A video editing program to achieve the above.
動画を構成する各フレームの表示制御情報及びフレームに含まれる素材データが格納される格納場所に関する情報がテキスト形式で記述されたアニメーション動画データに基づいて、動画を再生する際に前記格納場所から素材データを取得して各フレームを生成し、生成したフレームを前記表示制御情報に基づいて順次表示する動画再生処理を遂行する動画再生部を備えたコンピュータに、前記アニメーション動画データの編集処理を実行させるための動画編集プログラムであって、前記コンピュータに、
前記アニメーション動画データの各フレームの前記表示制御情報において予めその編集が許可された表示制御情報が表示される所定の編集テンプレート画面を前記ディスプレイ装置に表示する機能と、
前記編集テンプレート画面において前記編集が許可された表示制御情報を編集可能に制御する機能と、
前記編集が許可された表示制御情報が編集された場合に、該当のアニメーション動画データにおける前記編集が許可された表示制御情報を、編集後の表示制御情報にテキスト形式で書き換える機能と、
を実現させるための動画編集プログラム。
Based on the animation video data in which the display control information of each frame constituting the video and the storage location where the material data included in the frame is stored are described in text format, the material from the storage location is reproduced when the video is played back. Each frame is generated by acquiring data, and a computer having a moving image reproducing unit for performing a moving image reproducing process for sequentially displaying the generated frames based on the display control information is caused to execute the editing process of the animation moving image data. A video editing program for the computer,
A function for displaying on the display device a predetermined editing template screen on which display control information whose editing is permitted in advance in the display control information of each frame of the animation video data;
A function of controlling the display control information permitted to be edited on the editing template screen to be editable;
When the display control information permitted to be edited is edited, the function of rewriting the display control information permitted to be edited in the corresponding animation video data to the display control information after editing in a text format;
A video editing program to achieve the above.
JP2009034556A 2009-02-17 2009-02-17 Moving image creation program, moving image creation service provision system, and moving image reproduction program Pending JP2010191634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009034556A JP2010191634A (en) 2009-02-17 2009-02-17 Moving image creation program, moving image creation service provision system, and moving image reproduction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009034556A JP2010191634A (en) 2009-02-17 2009-02-17 Moving image creation program, moving image creation service provision system, and moving image reproduction program

Publications (1)

Publication Number Publication Date
JP2010191634A true JP2010191634A (en) 2010-09-02

Family

ID=42817624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009034556A Pending JP2010191634A (en) 2009-02-17 2009-02-17 Moving image creation program, moving image creation service provision system, and moving image reproduction program

Country Status (1)

Country Link
JP (1) JP2010191634A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007561A (en) * 2012-06-25 2014-01-16 Toshiaki Ueno Content browsing device and content providing system
KR101352737B1 (en) 2013-08-09 2014-01-27 넥스트리밍(주) Method of setting up effect on mobile movie authoring tool using effect configuring data and computer-readable meduim carring effect configuring data
WO2015020494A1 (en) * 2013-08-09 2015-02-12 넥스트리밍(주) Method of distributing plug-in for setting effect in mobile video editing tool

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101492A (en) * 2001-09-19 2003-04-04 Digital Cast International:Kk Method and system for updating data broadcasting contents
JP2007041861A (en) * 2005-08-03 2007-02-15 Sharp Corp Content editing device, computer-readable program, and recording medium with the same recorded
JP2008165768A (en) * 2006-12-18 2008-07-17 Samsung Electronics Co Ltd Apparatus and method for editing template for generating dynamic video object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101492A (en) * 2001-09-19 2003-04-04 Digital Cast International:Kk Method and system for updating data broadcasting contents
JP2007041861A (en) * 2005-08-03 2007-02-15 Sharp Corp Content editing device, computer-readable program, and recording medium with the same recorded
JP2008165768A (en) * 2006-12-18 2008-07-17 Samsung Electronics Co Ltd Apparatus and method for editing template for generating dynamic video object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014007561A (en) * 2012-06-25 2014-01-16 Toshiaki Ueno Content browsing device and content providing system
KR101352737B1 (en) 2013-08-09 2014-01-27 넥스트리밍(주) Method of setting up effect on mobile movie authoring tool using effect configuring data and computer-readable meduim carring effect configuring data
WO2015020494A1 (en) * 2013-08-09 2015-02-12 넥스트리밍(주) Method of distributing plug-in for setting effect in mobile video editing tool
WO2015020495A1 (en) * 2013-08-09 2015-02-12 넥스트리밍(주) Method for setting effect using effect setting data of video editing tool and computer-readable recording medium

Similar Documents

Publication Publication Date Title
US9277198B2 (en) Systems and methods for media personalization using templates
US9270927B2 (en) System and method for distributed media personalization
US9445016B2 (en) Features such as titles, transitions, and/or effects which vary according to positions
US20100110082A1 (en) Web-Based Real-Time Animation Visualization, Creation, And Distribution
US20100153520A1 (en) Methods, systems, and media for creating, producing, and distributing video templates and video clips
US9516369B2 (en) Systems and methods for variable video production, distribution and presentation
US20150026573A1 (en) Media Editing and Playing System and Method Thereof
CN100461157C (en) Multimedia template file storage medium, setting up editing device, distributing server and system
JP4514671B2 (en) CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
KR20100059646A (en) Method and apparatus for providing advertising moving picture
JP2010191634A (en) Moving image creation program, moving image creation service provision system, and moving image reproduction program
KR101352203B1 (en) Method of distributing plug-in for configuring effect on mobile movie authoring tool
US11551724B2 (en) System and method for performance-based instant assembling of video clips
JP5162164B2 (en) Moving image distribution system and moving image distribution method
JP4658128B2 (en) Data generating apparatus, data generating method, and system
CN110262716A (en) A kind of data manipulation method, device and computer readable storage medium
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP5518309B2 (en) Moving image distribution apparatus, moving image distribution method and program thereof
JP6250610B2 (en) Information display device, information display method, information display program, and distribution device
KR20200022995A (en) Content production system
JP5198807B2 (en) Moving image distribution system and moving image distribution method
WO2001018655A1 (en) Method and system for music video generation
Golan Online video presentation editor
Li et al. A Taste of Multimedia

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130523

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131029

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20131118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140129