JP2007041861A - Content editing device, computer-readable program, and recording medium with the same recorded - Google Patents

Content editing device, computer-readable program, and recording medium with the same recorded Download PDF

Info

Publication number
JP2007041861A
JP2007041861A JP2005225494A JP2005225494A JP2007041861A JP 2007041861 A JP2007041861 A JP 2007041861A JP 2005225494 A JP2005225494 A JP 2005225494A JP 2005225494 A JP2005225494 A JP 2005225494A JP 2007041861 A JP2007041861 A JP 2007041861A
Authority
JP
Japan
Prior art keywords
content
editing
editable
control unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005225494A
Other languages
Japanese (ja)
Other versions
JP4514671B2 (en
Inventor
Hikaru Kuki
輝 九鬼
Norihiro Kumagai
典大 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005225494A priority Critical patent/JP4514671B2/en
Publication of JP2007041861A publication Critical patent/JP2007041861A/en
Application granted granted Critical
Publication of JP4514671B2 publication Critical patent/JP4514671B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable the creation and display of new multimedia content by easily changing materials of multimedia content on the Web. <P>SOLUTION: If an editable area is set in an object specified by a user, a reproduction control part 601 first suspends reproduction, and an input area display part 611 then displays an input area in the position of the specified object to wait for the user's input. The input area is displayed over the content object. The user then enters input, completing the process. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、インターネットなどからのデータの取得、加工、表示の技術に関し、特に、データを加工編集して新たなマルチメディアコンテンツデータを生成するコンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体に関する。   The present invention relates to technology for acquiring, processing, and displaying data from the Internet and the like, and in particular, a content editing apparatus that processes and edits data to generate new multimedia content data, a computer-readable program, and a program recorded therein The present invention relates to a recording medium.

近年、コンピュータネットワークシステムの大容量化に伴い、一般家庭においても、様々なネットワーク端末向けのマルチメディアコンテンツを使ったサービスを利用する機会が増加してきている。ここでいうマルチメディアコンテンツとは、時間に伴って変化する、画像や動画、テキスト、サウンド、アニメーションなどが複合された、動くコンテンツを指し、現在インターネットでホームページの表示に主に用いられているHTML(Hyper Text Markup Language)のみで書かれたページのような静的な文書ベースのコンテンツとは異なるものである。これまでのマルチメディアコンテンツは、TVの例にも見られるように、一部の専門的な制作会社が、多数の視聴者向けに巨額費用をかけて制作し、配信するモデルで収益を得ている。   In recent years, with the increase in capacity of computer network systems, opportunities for using services using multimedia contents for various network terminals are increasing in general households. Multimedia content here refers to moving content that is a composite of images, moving images, text, sound, animation, etc. that changes over time, and is currently used mainly for displaying websites on the Internet. This is different from static document-based content such as pages written only in (Hyper Text Markup Language). As seen in the example of TV, conventional multimedia contents are profitable by a model in which some professional production companies produce and distribute large amounts of money for a large number of viewers. Yes.

マルチメディアコンテンツを制作して提供するための、PC(パーソナルコンピュータ)等における制作アプリケーションソフト類、専用の機器類もすでに多数提供されており、コンテンツ作成者は、上記のツール類を駆使して制作を行い、マルチメディアコンテンツを提供している。   A large number of production application software and dedicated devices for PCs (personal computers) etc. have already been provided to create and provide multimedia content, and content creators can make full use of the above tools. To provide multimedia content.

今後、ネットワークを介して、各個人向けにマルチメディアコンテンツを配信する際、既存の放送コンテンツ等との差別化をするためには、各個人の嗜好やプロファイルに対応した多様なコンテンツを提供していくことが必要となる。また、一部の専門の制作会社のみでなく、一般の情報提供者がコンテンツを配信することにより、より多様なコンテンツを、より多様な個人に提供することができる。ここで必要となるのは、多様な各個人向けのコンテンツを、安価に制作できるツールであり、また、専門の知識を習熟しなくても、紙の内容を書き換えるように、簡単に使えるツールである。   In the future, when distributing multimedia content to each individual via the network, in order to differentiate it from existing broadcast content, etc., we will provide various contents corresponding to individual preferences and profiles. It is necessary to go. Further, not only some specialized production companies but also general information providers can distribute contents, so that more diverse contents can be provided to more diverse individuals. What is needed here is a tool that can produce a variety of individual content at a low cost, and a tool that can be easily used to rewrite the contents of paper without having to master specialized knowledge. is there.

既存のマルチメディアコンテンツ制作ツールの多くは、いわゆる専門のコンテンツ作成者、デザイナーの専門家が利用するためのものであり、このツールを利用するためには、基本概念の学習、さらに、使いこなすためには熟練を要し、制作にも時間がかかる。   Many of the existing multimedia content creation tools are intended for use by so-called professional content creators and designer specialists. To use these tools, learn basic concepts and use them. Requires skill and takes time to produce.

そこで、後述する特許文献1には、Web上において、HTMLページを使い、テキスト、画像挿入等を予め決められた独自のフォーム編集画面上でおこない、雛形のマルチメディアコンテンツの情報変更を行う方法が開示されている。図32に示すように、予め設定されたフォーム編集画面上で編集可能な部分に文字や画像を入力することによってコンテンツの編集が可能となっている。これは、Webに慣れ親しんだユーザにとっては、専門のツールを使用するより、操作方法の理解は容易である。
特開2003−101492号公報
Therefore, in Patent Document 1 described later, there is a method for changing information on a template multimedia content by using an HTML page on the Web, performing text, image insertion, etc. on a predetermined original form editing screen. It is disclosed. As shown in FIG. 32, contents can be edited by inputting characters and images in a portion that can be edited on a preset form editing screen. This makes it easier for users familiar with the Web to understand the operation method than to use a specialized tool.
JP 2003-101492 A

しかし、特許文献1の技術では、テキスト、画像挿入等は予め決められた独自のフォーム編集画面上で行うため、編集画面は実際に掲載されるレイアウトとはかけ離れており、編集者がレイアウトの雰囲気を把握するためには、その都度生成したプレビュー画面を呼び出し、確認後、再度編集画面へ戻るという行為を繰り返す必要がある。従って、コンテンツの編集者にとっては、編集作業が極めて煩雑で使い勝手が悪いという問題があった。   However, in the technique of Patent Document 1, since the text, image insertion, and the like are performed on a predetermined original form editing screen, the editing screen is far from the layout that is actually posted, and the editor feels the layout atmosphere. In order to grasp this, it is necessary to repeat the act of calling the preview screen generated each time, returning to the editing screen again after confirmation. Therefore, there is a problem that the editing work is extremely complicated and unusable for the content editor.

本発明は、上述の課題を解決するためになされたものであって、Web上においてマルチメディアコンテンツの素材を簡単に変更して、新たなマルチメディアコンテンツを制作、表示することができるコンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体を提供することである。   The present invention has been made to solve the above-described problem, and is a content editing apparatus that can easily change the material of multimedia content on the Web to produce and display new multimedia content. It is another object of the present invention to provide a computer-readable program and a recording medium on which the program is recorded.

本発明は、時間軸上に配置されたマルチメディアコンテンツを再生中に任意の時間で再生を停止させ、停止時点のコンテンツ画像を表示させる再生制御手段と、前記コンテンツに設けられたオブジェクトを画像表示上で選択させ、選択されたオブジェクトを編集可能とする編集制御手段とを備え、前記オブジェクトが編集されると、編集されたマルチメディアコンテンツにより再生を行うことを特徴とするコンテンツ編集装置である。   The present invention provides a playback control means for stopping playback at an arbitrary time during playback of multimedia content arranged on a time axis, and displaying a content image at the time of stop, and displaying an object provided in the content The content editing apparatus includes an editing control unit that allows the selected object to be edited and edits the selected object, and reproduces the edited multimedia content when the object is edited.

また、選択されたオブジェクトの位置が編集可能領域であるかを監視する監視手段を備え、前記編集制御手段は、前記監視手段により選択されたオブジェクトの位置に前記編集可能領域が存在すると検出された場合に、選択されたオブジェクトを編集可能とすることを特徴とする。   And a monitoring unit that monitors whether the position of the selected object is an editable region, wherein the editing control unit is detected that the editable region exists at the position of the object selected by the monitoring unit. In this case, the selected object can be edited.

また、前記編集制御手段は、時間軸上におけるオブジェクトの移動に合わせて移動することを特徴とする。   Further, the editing control means moves according to the movement of the object on the time axis.

また、前記編集制御手段は、編集可能領域を透明とし、該編集可能領域が前記編集制御手段によって編集可能となったときに入力領域として可視化することを特徴とする。   Further, the edit control means makes the editable area transparent, and visualizes it as an input area when the editable area becomes editable by the edit control means.

また、前記編集可能領域は、画面上に複数存在し、且つそれぞれが時間軸上に独立で存在していることを特徴とする。   The editable area includes a plurality of editable areas, and each of the editable areas exists independently on the time axis.

また、前記編集制御手段は、前記編集可能領域に、複数の編集オブジェクト候補が含まれる編集リストを表示させ、その中から任意のオブジェクトを選択することを特徴とする。   The editing control means may display an editing list including a plurality of editing object candidates in the editable area, and select an arbitrary object from the list.

また、前記編集制御手段は、前記編集可能領域に、順に編集オブジェクト候補を表示させ、その中から任意のオブジェクトを選択することを特徴とする。   Further, the edit control means displays edit object candidates in order in the editable area, and selects an arbitrary object from them.

また、前記編集制御手段は、前記編集可能領域を入れ替え編集の領域とし、任意のオブジェクトに入れ替えることを特徴とする。   Further, the editing control means replaces the editable area as an editing area and replaces it with an arbitrary object.

また、前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトに関連するオブジェクトも編集することを特徴とする。   The editing control means also edits an object related to the object when an arbitrary object is edited.

また、前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトのシーンに関連するシーンを追加・削除することを特徴とする。   The editing control means adds or deletes a scene related to the scene of the object when an arbitrary object is edited.

また、前記再生制御手段は、任意のオブジェクトを編集した場合、この編集画面と同様の画面をネットワークを介して他の編集装置に表示できることを特徴とする。   The reproduction control means can display a screen similar to the editing screen on another editing apparatus via a network when an arbitrary object is edited.

また、本発明は、コンピュータに、上記手段を機能させるためのプログラムであってもよいし、このプログラムを記録した記録媒体であってもよい。   Further, the present invention may be a program for causing a computer to function the above means, or a recording medium on which this program is recorded.

本発明によれば、編集画面とプレビュー画面を同一に扱うので、マルチメディアコンテンツが掲載されるレイアウト画面のまま、思いのままにコンテンツ内の画像やテキストを変更でき、作業効率が上がる。簡単な操作性により、より多くの情報をリアルタイムに編集することで、常に新しい情報発信ができる。編集とプレーヤーを融合させることにより、一般の利用者が苦手なオーサリングツールを利用する必要がなくなる。   According to the present invention, since the editing screen and the preview screen are handled in the same manner, the image and text in the content can be changed as desired without changing the layout screen on which the multimedia content is posted, and the work efficiency is improved. With simple operability, new information can always be transmitted by editing more information in real time. By fusing editing and players, it is no longer necessary for ordinary users to use authoring tools that are not good at using them.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るコンテンツ編集/生成システムの全体構成を示すブロック図である。本システムは、ノートパソコンや携帯電話等からなるコンテンツ編集端末101、コンテンツ生成サーバ102及びパソコンやテレビ等からなるコンテンツ受信端末103が、インターネット等の通信回線であるネットワーク104を介してそれぞれ接続されている。なお、コンテンツ編集端末101、コンテンツ生成サーバ102及びコンテンツ受信端末103は、同様の構成のものがネットワーク104に複数接続されていてもよい。また、これらの端末/サーバが物理的に同一の端末内に位置してもよい。   FIG. 1 is a block diagram showing an overall configuration of a content editing / generation system according to an embodiment of the present invention. In this system, a content editing terminal 101 such as a notebook computer or a mobile phone, a content generation server 102, and a content receiving terminal 103 such as a personal computer or a television are connected via a network 104 which is a communication line such as the Internet. Yes. Note that the content editing terminal 101, the content generation server 102, and the content receiving terminal 103 may be connected to the network 104 in a plurality having the same configuration. Also, these terminals / servers may be physically located in the same terminal.

ここでいうコンテンツとは、動画、静止画、楽音、文字列、アニメーション等の各種種類のメディアが混合されたデータをさし、時間の進行に合わせて、各メディアがあらかじめ定められたスケジュール、および指定された位置にて画面上で表示できるものをさす。ここで、コンテンツには、位置や形状を時間の進行に沿って動的に変化させて画面上で表示が可能なものを含む。   The content here refers to data in which various types of media such as moving images, still images, musical sounds, character strings, animations, etc. are mixed, and each media has a predetermined schedule as time progresses, and The one that can be displayed on the screen at the specified position. Here, the content includes content that can be displayed on the screen by dynamically changing the position and shape with the progress of time.

図2は、コンテンツ生成サーバ102の一実施例を示すブロック図である。このコンテンツ生成サーバ102は、ソフトウェアモジュールの形で実装されており、テンプレート登録部201、素材/変更データ入力部202、コンテンツ生成部203、コンテンツ素材テンプレート保存部204、編集情報送信部205からなる構成である。ここで、コンテンツ/素材/テンプレート保存部204には、コンテンツ、素材、テンプレート、コンテンツ表示編集モジュール等が保存されている。   FIG. 2 is a block diagram illustrating an embodiment of the content generation server 102. The content generation server 102 is implemented in the form of a software module, and includes a template registration unit 201, a material / change data input unit 202, a content generation unit 203, a content material template storage unit 204, and an editing information transmission unit 205. It is. Here, the content / material / template storage unit 204 stores content, material, template, content display editing module, and the like.

まず、あらかじめ、テンプレート作成者が、テンプレート206を製作して、テンプレート登録部201を通じてコンテンツ/素材/テンプレート保存部204に登録しておく。ここでテンプレートとは、コンテンツのシナリオの進行や画面デザインを示す雛形である。   First, a template creator creates a template 206 and registers it in the content / material / template storage unit 204 through the template registration unit 201 in advance. Here, the template is a template showing the progress of the content scenario and the screen design.

コンテンツの編集や生成をするコンテンツ作成者は、コンテンツ編集端末101から、コンテンツ生成サーバ102にアクセスし、素材/変更データ入力部202を通じて、コンテンツ/素材/テンプレート保存部204に登録されている中から使いたいテンプレートを選択する。このとき、選択したテンプレートデータ206は、編集情報送信部205を通じてコンテンツ編集端末101へ出力される。コンテンツ作成者は、コンテンツ編集端末101にテンプレートを表示させ、テンプレートに合わせて、素材(画像、サウンド、動画、テキスト)を入力する。この素材データは、素材/変更データ入力部202を通じて、コンテンツ/素材/テンプレート保存部204に登録され、編集情報送信部205を通じてコンテンツ編集端末101へ出力され、コンテンツ編集端末101にて表示されてコンテンツ作成者が確認できる。   A content creator who edits or generates content accesses the content generation server 102 from the content editing terminal 101 and is registered in the content / material / template storage unit 204 through the material / change data input unit 202. Select the template you want to use. At this time, the selected template data 206 is output to the content editing terminal 101 through the editing information transmission unit 205. The content creator displays a template on the content editing terminal 101 and inputs a material (image, sound, video, text) according to the template. This material data is registered in the content / material / template storage unit 204 through the material / change data input unit 202, output to the content editing terminal 101 through the editing information transmission unit 205, displayed on the content editing terminal 101, and content. The creator can confirm.

コンテンツ作成者が、上記コンテンツ編集を完了した時点で、コンテンツ生成をコンテンツ編集端末101から指示した場合、素材/変更データ入力部202が、最終的にコンテンツ/素材/テンプレート保存部204に登録したテンプレートデータ206と素材データとをコンテンツ生成部203に出力する。コンテンツ生成部203は、素材データをテンプレートデータ206に埋め込むことによって、コンテンツ207を生成し、このコンテンツが各受信端末103に配信される。   When the content creator has instructed content generation from the content editing terminal 101 when the content editing is completed, the material / change data input unit 202 finally registers the content / material / template storage unit 204 in the template The data 206 and the material data are output to the content generation unit 203. The content generation unit 203 generates content 207 by embedding material data in the template data 206, and this content is distributed to each receiving terminal 103.

(データ構成)
次に、コンテンツ生成サーバ102により生成されるコンテンツのデータ構造について説明する。
上述したように、テンプレート作成者がコンテンツ生成サーバ102に登録するテンプレート206を制作する場合、図3に示すように、ある言語で記述されたコンテンツファイル301をもとに、テンプレートファイル302を作成する。
ここでコンテンツファイル301は、例えばSMIL(Synchronized Multimedia Integrated Language)等の言語にて記述される。この言語で記述すると、各メディアが定められたタイミングで同期されて画面上に定められたレイアウトで表示される。
(Data structure)
Next, the data structure of content generated by the content generation server 102 will be described.
As described above, when the template creator creates the template 206 to be registered in the content generation server 102, the template file 302 is created based on the content file 301 described in a certain language as shown in FIG. .
Here, the content file 301 is described in a language such as SMIL (Synchronized Multimedia Integrated Language). When written in this language, the media are displayed in a predetermined layout on the screen in synchronization with the determined timing.

図4〜図6にSMILによって記述されたマルチメディアコンテンツの記述例を示す。図4〜図6に示されるように、文書は<smil>と</smil>で開始と終了を表す。文書内には大きく分けると<head>と<body>の2つの要素がある。<head>〜</head>はオプションとして記述され、レイアウトやタイトルの定義など、SMIL文書全体に関する詳細情報がこの中に記述される。   FIGS. 4 to 6 show examples of description of multimedia contents described by SMIL. As shown in FIGS. 4 to 6, the document indicates the start and end with <smil> and </ smil>. There are two elements in the document: <head> and <body>. <Head> to </ head> are described as options, and detailed information about the entire SMIL document, such as layout and title definitions, is described therein.

レイアウトの設定は、<head>タグの中で<layout>タグを用いて行われる。<root−layout>タグで全体の表示領域のサイズを設定し、<region>タグで各部のサイズを指定する。それぞれの領域に識別子をつけることができ、後で参照することができる。   The layout is set using the <layout> tag in the <head> tag. The size of the entire display area is set with the <root-layout> tag, and the size of each part is specified with the <region> tag. Each region can be given an identifier and can be referenced later.

<root−layout>で全体の表示領域の幅と高さを指定するには、width,height属性などを用い、背景色設定のためには、backgroundColor属性を用いる。<region>タグでは同様にwidth,height属性にて各部のサイズを指定し、さらに、全体の表示領域に対してどの部分に位置するかを、top属性にて全体画面の上端からの位置,left属性にて全体画面の左端からの位置を指定して示す。背景色設定のためには、backgroundColor属性を用い、各部メディアのお互いの重なり合いの順番をz−index属性(値が大きいほど最上面)にて表す。   In order to specify the width and height of the entire display area in <root-layout>, the width and height attributes are used, and the backgroundColor attribute is used for setting the background color. Similarly, in the <region> tag, the size of each part is specified by the width and height attributes, and the part to be positioned with respect to the entire display area is determined by the top attribute, the position from the upper end of the entire screen, and the left Specify the position from the left edge of the entire screen in the attribute. In order to set the background color, the backgroundColor attribute is used, and the overlapping order of the media in each part is represented by the z-index attribute (the higher the value, the uppermost surface).

id属性で、表示領域に識別子を付けることができる。
fit属性を用いて、「<region/>タグにより指定された再生領域」と、「関連付けられるメディアの表示サイズ」が異なる場合に、再生領域内でどのように表示させるか指定することができる。fit属性の値をhiddenとした場合、メディアの元のサイズのまま領域の上部左端に配置し、メディアが領域よりも小さい場合、残りの部分は領域の背景カラーになり、逆に、メディアが領域よりも大きい場合は、入りきらない領域は切り取られる。その他fit属性が取りうる値は、fill、meet、sliceなどがある。
An identifier can be attached to the display area with the id attribute.
The fit attribute can be used to specify how to display within the playback area when the “playback area specified by the <region /> tag” differs from the “display size of the associated media”. If the value of the fit attribute is hidden, it is placed at the upper left corner of the area with the original size of the medium, and if the medium is smaller than the area, the rest will be the background color of the area, conversely, the medium will be the area If it is larger than that, the area that cannot be fully inserted is cut off. Other values that can be taken by the fit attribute include fill, meet, and slice.

なお、<head>タグ内には、<layout>タグによる各領域の指定のほかに、
<transition>タグにて、トランジションを指定することができる。トランジションとは、メディアが再生されたり、終了したり、次のメディアに切り替わったりする際の画面上の遷移効果のことで、領域の4方向から四角形が出てきて覆いかぶさるように次のメディアが出てくるfourBoxWipeや、メディアが薄くなって消えていき、次のメディアが濃くなってきて表示が切り替わるcrossfadeなどがある。
In the <head> tag, in addition to specifying each area with the <layout> tag,
A transition can be specified by a <transition> tag. A transition is a transition effect on the screen when the media is played, finished, or switched to the next media. The next media is covered so that a square appears from the four directions of the area. There are fourBox Wipe that comes out, crossfades that the media becomes thinner and disappears, and the next media becomes darker and the display is switched.

ここでも、id属性で、指定したトランジションに識別子を付けることができる。
<body>〜</body>は必須であり、この中に、再生対象となるメディアデータの指定や、時間の進行に伴った動作の指定が記述される。
一つのメディアを指定して再生するためのタグとして、静止画、音声、動画、アニメーション、テキストストリーム、テキストなど、メディアの種類別に、<img>、<audio>、<video>、<animation>、<textstream>、<text>などのタグ名が用意されているが、再生環境により再生できるメディアの種類や、サポートしているタグ名は変わる。
Again, an identifier can be attached to the specified transition with the id attribute.
<Body> to </ body> are indispensable, and in this, specification of media data to be reproduced and specification of operation along with the progress of time are described.
As tags for specifying and playing back a single media, <img>, <audio>, <video>, <animation>, by type of media such as still image, audio, video, animation, text stream, text, etc. Although tag names such as <textstream> and <text> are prepared, the type of media that can be played back and the supported tag names vary depending on the playback environment.

複数のメディアをひとまとめにグルーピングして再生させるためのタグには、<par>タグと<seq>タグがある。この2つのグループは必要に応じて組み合わせて使われる。<par>で指定された複数メディアは並列に再生され、<seq>で指定された複数メディアは順番に再生される。各メディア、またはグルーピングされた複数のメディアに対して、開始時間、継続時間、終了時間をそれぞれbegin、dur、end属性にて指定することができる。   Tags for grouping and reproducing a plurality of media collectively include a <par> tag and a <seq> tag. These two groups are used in combination as necessary. A plurality of media designated by <par> are reproduced in parallel, and a plurality of media designated by <seq> are reproduced in order. For each medium or a plurality of grouped media, the start time, duration time, and end time can be specified by the begin, dur, and end attributes, respectively.

また、各メディアは、前出の<region>タグ内のid属性に指定した識別子を、そのメディアにおけるregion属性に指定することによって、メディアを表示する領域を表すことができる。
また、各メディアは、前出の<transition>タグ内のid属性に指定した識別子を、そのメディアにおけるtransIn属性等に指定することによって、メディアを表示する際のトランジション効果を表すことができる。
Each medium can represent an area for displaying the media by designating the identifier designated in the id attribute in the above <region> tag in the region attribute of the media.
Each media can represent the transition effect when displaying the media by designating the identifier designated in the id attribute in the <transition> tag described above in the transIn attribute of the media.

また、メディアのデータ実体は、src属性を使って、URL(Unified Resource Locator)を使って指定することができる。
例えば、外部ネットワークに存在する画像のデータの参照は、<img src=”http://xxx.yyy.zzz.com/grapefruits.jpg” />のように指定する。 静止画、音声、動画、アニメーション、テキストなどのメディアのデータ実体は URL内で、*.jpg, *.mpg, *.svg, *.txtなどファイル名の指定にて行うのが通常であるが、そのほかの指定方法も可能である。例えばテキスト表示の指定は、src=hogehoge.txt、の形で行われる場合もあるし、src=data;(実テキスト)....の形でテキストの内容を直接指定することも可能である。今回の実施例のテキスト表示は、後者を用いている。
Further, the data entity of the media can be specified using a URL (Unified Resource Locator) using the src attribute.
For example, the reference of the image data existing in the external network is specified as <img src = “http://xxx.yyy.zzz.com/graphefrits.jpg” //. Normally, media data entities such as still images, audio, video, animation, and text are specified in the URL by specifying file names such as * .jpg, * .mpg, * .svg, * .txt. Other designation methods are also possible. For example, text display may be specified in the form of src = hogehoge.txt, or the text content can be specified directly in the form of src = data; (actual text) .... . The text display of the present embodiment uses the latter.

図7及び図8は、SMILテンプレートを記述する仕様の例を示す図である。SMILテンプレートは、既存のSMILコンテンツの記述を拡張して行われる。SMILで記述されたコンテンツ内で、別の素材で置き換え可能な箇所に記載を追加する。図7、図8の例では、拡張のためのタグ名として<SmilElement>を用いるが、拡張子名及び拡張のための文法は任意である。   7 and 8 are diagrams showing examples of specifications describing the SMIL template. The SMIL template is performed by extending the description of the existing SMIL content. A description is added to a place that can be replaced with another material in the content described in SMIL. In the examples of FIGS. 7 and 8, <SmilElement> is used as the tag name for extension, but the extension name and the grammar for extension are arbitrary.

例えば、図7(a)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を他の画像に置き換えてもよいなら、ここに記述を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)” inputtype=”userinput” region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像の箇所が置き換え可能となる。この記述内のcomment属性で示された部分は、コンテンツ作成者に伝えたいメッセージを記入しておく(置き換えるべき画像の種類など)。
この表記を用いると、この画像を選んだときに、画像の箇所に、編集しているブラウザの外部に、OSにおけるファイル選択のボックスが用意されている場合はそれが現れ、置き換える画像のファイル名を入力または選択することによって画像を変更する操作が行うことができる。ファイル選択のボックスがない場合は、同じ箇所に、テキストボックスのみがあらわれ、置き換える画像ファイル名を入力することによって画像を変更する操作が行うことができる。
For example, as shown in FIG. 7A, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “cross 3” fill = “hold” /> If this image can be replaced with another image, a description is added here, and <SmilElement type = “image” name = “syohin1” comment = “product image (400 × 300)” inputtype = “userinput” region = “pic” “Src =“ graffitits.jpg ”dur =“ 3 s ”transIn =“ cross3 ”fill =“ hold ”/>, this image can be replaced. In the part indicated by the comment attribute in this description, a message to be transmitted to the content creator is entered (such as the type of image to be replaced).
Using this notation, when this image is selected, if there is a file selection box in the OS outside the editing browser, it will appear and it will be displayed, and the file name of the image to be replaced An operation for changing an image can be performed by inputting or selecting. When there is no file selection box, only a text box appears at the same location, and an operation for changing an image can be performed by inputting an image file name to be replaced.

また、図7(b)に示すように、テキストを配置する記述<text region=“specialprice” src=“data;248円
” dur=“2s” fill=“hold”/>において、このテキストを他のテキストに置き換えてもよいなら、ここに記述を追加し、<SmilElement type=“text” name=“specialprice1” comment=“値下げ後価格、10文字以内(例:97円)” inputtype=”userinput” region=“specialprice” src=“data;248円” dur=“2s” fill=“hold”/> とすると、このテキストの箇所が置き換え可能となる。この記述内のcomment属性で示された部分は、コンテンツ作成者に伝えたいメッセージを記入しておく(置き換えるべきテキストの種類など)。
この表記を用いると、このテキストを選んだときに、同じ箇所に、テキストボックスがあらわれ、置き換えるテキストを入力することによってテキストを変更する操作が行うことができる。
In addition, as shown in FIG. 7B, in the description <text region = “specialprices” src = “data; 248 yen”, dur = “2s” fill = “hold” /> If you want to replace it with the text below, add a description here, <SmilElement type = “text” name = “specialprice1” comment = “Price after price cut, within 10 characters (eg 97 yen)” inputtype = “userinput” If region = “special price” src = “data; 248 yen” dur = “2 s” fill = “hold” />, this text can be replaced. In the part indicated by the comment attribute in this description, a message to be transmitted to the content creator is entered (such as the type of text to be replaced).
When this notation is used, when this text is selected, a text box appears at the same place, and the operation of changing the text can be performed by inputting the replacement text.

また、図8(a)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、マウス操作にて他の画像に置き換える方法を指定する場合は、図7(a)の場合にさらにinputtype=”draganddrop" の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)” inputtype=”draganddrop" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像の箇所がマウスのドラッグ&ドロップ操作で置き換え可能となり、編集しているブラウザの外部から、画像アイコンをドラッグ&ドロップして画像を変更する操作が行うことができる。   Further, as shown in FIG. 8A, in the description <img region = “pic” src = “graffruits.jpg” dur = “3 s” transIn = “cross 3” fill = “hold” /> for arranging the images, When designating a method of replacing this image with another image by mouse operation, an element of inputtype = “dragondrop” is further added in the case of FIG. 7A, and <SmilElement type = “image” name = “ syohin1 ”comment =“ product image (400 × 300) ”inputtype =“ dragondrop ”region =“ pic ”src =“ graffruits.jpg ”dur =“ 3s ”transIn =“ cross3 ”fill = “Hold” />, the location of this image can be replaced by dragging and dropping the mouse, and the image can be changed by dragging and dropping the image icon from outside the editing browser. Can do.

また、図8(b)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、複数の候補から一つを選んで他の画像に置き換える方法を指定する場合は、図7(a)の場合にさらにinputtype=”listbox" option=”grapefruits.jpg, kabocha.jpg, rice.jpg"の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)”inputtype=”listbox" option=”grapefruits.jpg, kabocha.jpg, rice.jpg" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像を選んだときに、複数の候補が列挙されているリストボックスが表示され、その中から一つを選んで他の画像に置き換える方法を指定する操作を行うことができる。   Further, as shown in FIG. 8B, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “cross 3” fill = “hold” /> for arranging the images, In the case of designating a method for selecting one of a plurality of candidates and replacing it with another image, inputtype = “listbox” option = “graffitruits.jpg”, kabocha.jpg, <smilElement type = “image” name = “syohin1” comment = “product image (400 × 300)” inputtype = “listbox” option = “graffruits.jpg” abocha.jpg, rice.jpg "region =“ pic ”src =“ graffruits.jpg ”dur =“ 3s ”transIn =“ cross3 ”fill =“ hold ”/> A list box in which candidates are enumerated is displayed, and an operation for selecting one of them and replacing it with another image can be performed.

また、図8(c)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、複数の候補から一つを選んで他の画像に置き換える(オンクリック切り替え)方法を指定する場合は、図7(a)の場合にさらにinputtype=” onclickchange" option=”grapefruits.jpg, kabocha.jpg, rice.jpg"の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)”inputtype=”onclickchange" option=”grapefruits.jpg, kabocha.jpg, rice.jpg" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、マウスクリックでこの画像を選んだときに、さらに同じ箇所でマウスクリックを行うと、複数の候補が次々に置き換わり、その後の決定操作(そのまま一定時間たつ、あるいはダブルクリック、または別キーを押すなど)により、その中から一つを選んで他の画像に置き換える方法を指定する操作を行うことができる。   In addition, as shown in FIG. 8C, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “cross 3” fill = “hold” /> for arranging the images, When this image is selected from a plurality of candidates and replaced with another image (on-click switching), the inputtype = “onclickchange” option = “grafpefrits.jpg” is further added in the case of FIG. , Kabocha.jpg, rice.jpg ", and <SmilElement type =“ image ”name =“ syohin1 ”comment =“ product image (400 × 300) ”inputtype =“ onclickchange ”opti n = “grapefrits.jpg, kabocha.jpg, rice.jpg” region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “cross3” fill = “hold” / mouse = “hold” When this image is selected and the mouse is clicked at the same location, multiple candidates are replaced one after another, and the subsequent decision operations (such as after a certain period of time, double-clicking, or pressing another key) You can select one of them and specify how to replace it with another image.

なお、inputtype属性の表記は省略することができ、その際の挙動はinputtype=”userinput”を指定したときと同様となるが、省略した際にdraganddrop指定時などの挙動を行わせるようにしてもよい。   Note that the description of the inputtype attribute can be omitted, and the behavior at that time is the same as when inputtype = “userinput” is specified, but when omitted, the behavior such as when draganddrop is specified may be performed. Good.

図4〜図6のSMILコンテンツをこのルールで置き換えテンプレート化したものが図9〜図12である。このように、既存のコンテンツに記述を追加したテンプレート化することが可能である。   FIGS. 9 to 12 show templates obtained by replacing the SMIL contents shown in FIGS. 4 to 6 with this rule. In this way, it is possible to create a template by adding a description to existing content.

また、今回、素材の置き換えのみではなく、シーンという概念を扱えるように、コンテンツ内のある範囲を、<SmilElement type=“scene_info” name=“scene3” tag_type=“par”></SmilElement>のように括ることができる。このようにすると、この括られた部分はまとまってシーンとして扱われ、シーンとして削除したり、このシーンを別の箇所に挿入したりすることが可能となる。   Also, this time, in order to handle not only material replacement but also the concept of scenes, a certain range in the content is expressed as <SmilElement type = “scene_info” name = “scene3” tag_type = “par”> </ SmilElement> It can be bundled. In this way, the bundled portion is collectively treated as a scene, and can be deleted as a scene or inserted into another location.

また、複数のオブジェクトをまとめて置換するグループという単位を導入することも可能である。この際は、図13に示すように、コンテンツ内に、<SmilElement type=“group_info” id=“1” >と記載して、グループであることを設定しておく。このなかで、group_element要素にて、グループを構成するオブジェクトの組を指定している。図13の例では、画像オブジェクト2つとテキストオブジェクト2つが、id番号がimg1、txt1b、txt1cとして、グループとして指定されている。
次のgroup_set要素にて、これらのオブジェクトがとりうる値が指定される。
group_set要素は複数存在してもよい。
group_element要素にて、グループとして扱われた要素は、表示画面中のこれらの要素の一箇所がユーザにより変更されたときに、group_element要素にて同じグループに登録されている他の部分も、group_set要素にて自動的に変更される。例えば、ユーザにより、txt1bオブジェクトの値が”グレープフルーツ”に変更されたとき、txt1cオブジェクトの値は”128円”となる。
It is also possible to introduce a unit called a group for replacing a plurality of objects together. In this case, as shown in FIG. 13, <SmilElement type = “group_info” id = “1”> is described in the content to set the group. In this group, a group of objects constituting a group is specified by a group_element element. In the example of FIG. 13, two image objects and two text objects are designated as groups with id numbers img1, txt1b, and txt1c.
In the next group_set element, values that these objects can take are specified.
There may be a plurality of group_set elements.
The element treated as a group in the group_element element is the group_set element when other parts registered in the same group in the group_element element when one place of these elements in the display screen is changed by the user. Will be changed automatically. For example, when the value of the txt1b object is changed to “grapefruit” by the user, the value of the txt1c object is “128 yen”.

図14はコンテンツ編集端末101のハード構成を示すブロック図である。このコンテンツ編集端末101は、例えばパーソナルコンピュータであり、画像を表示するUI(User Interface)出力装置401、ハードディスク等のストレージ(蓄積記憶装置)402、ネットワーク104に接続するためのネットワークI/F403、マウスやキーボードやリモコン等のUI入力装置404、プロセッサ405、メモリ(ROM/RAM)406からなる。   FIG. 14 is a block diagram showing a hardware configuration of the content editing terminal 101. The content editing terminal 101 is a personal computer, for example, a UI (User Interface) output device 401 for displaying images, a storage (storage storage device) 402 such as a hard disk, a network I / F 403 for connecting to the network 104, a mouse And a UI input device 404 such as a keyboard and a remote controller, a processor 405, and a memory (ROM / RAM) 406.

図15は、コンテンツ編集端末101で動作するプロセッサ405の機能ブロック図である。このプロセッサ405は、ソフトウエアにより次のような機能ブロックとして動作する。すなわち、Windows(登録商標)、Linux、itron等のOS(Operating System)501、入出力管理部502、ストレージ管理部503、通信管理部504、ネットワークコンテンツ閲覧部505、マルチメディアコンテンツ表示編集部506として機能する。   FIG. 15 is a functional block diagram of the processor 405 operating on the content editing terminal 101. The processor 405 operates as the following functional blocks by software. That is, as an OS (Operating System) 501 such as Windows (registered trademark), Linux, ortron, an input / output management unit 502, a storage management unit 503, a communication management unit 504, a network content browsing unit 505, and a multimedia content display editing unit 506 Function.

マルチメディアコンテンツ表示編集部506は、UI出力装置(ディスプレイ)401にコンテンツを表示させて編集するためのものであり、初期の状態でコンテンツ編集端末101にない場合、外部サーバなどからダウンロードして取得される。ネットワークコンテンツ閲覧部505は、一般にPC上などで実行されるHTMLブラウザであり、マルチメディアコンテンツ表示編集部506は、このHTMLブラウザで実行可能な外部モジュールの形式(プラグイン)として実行されてもよいし、このHTMLブラウザがない場合は、独立して実行されてもよい。   The multimedia content display / editing unit 506 is for displaying and editing content on the UI output device (display) 401. If the content is not in the content editing terminal 101 in the initial state, it is downloaded from an external server or the like. Is done. The network content browsing unit 505 is an HTML browser generally executed on a PC or the like, and the multimedia content display editing unit 506 may be executed as a format (plug-in) of an external module executable by the HTML browser. However, if there is no HTML browser, it may be executed independently.

図16は、マルチメディアコンテンツ表示編集部506の構成を示すブロック図である。このマルチメディアコンテンツ表示編集部506は、再生制御部601、編集制御部602、レイアウト/スケジュール解析部603、構造解析部604、メディア蓄積部605、タイマー606、ファイル取得部/送信部607、メディア再生部608、音声再生部(重ね合わせ制御)609、描画部(重ね合わせ制御)610、入力領域表示部611、編集可能領域監視部612、入力部613、コンテンツ生成/編集部614、更新情報送受信部615からなる構成である。   FIG. 16 is a block diagram illustrating a configuration of the multimedia content display editing unit 506. The multimedia content display editing unit 506 includes a playback control unit 601, an editing control unit 602, a layout / schedule analysis unit 603, a structure analysis unit 604, a media storage unit 605, a timer 606, a file acquisition unit / transmission unit 607, and media playback. Unit 608, audio reproduction unit (superimposition control) 609, drawing unit (superimposition control) 610, input region display unit 611, editable region monitoring unit 612, input unit 613, content generation / editing unit 614, update information transmission / reception unit 615.

SMILで記述されたコンテンツ206がファイル取得部/送信部607から入力され、構造解析部604で解析されて、DOMツリー/SAXイベント616が出力される。ここで、DOMツリー/SAXイベント616とは、W3C(World Wide Web Consortium)で規定されるファイルの内部表現(DOM:Document Object Model、SAX:Simple API for XML)をいう。実施形態によっては、この形式でなく、独自の形式で行ってもよい。また、このデータの生成自体が省略される場合もある。   The content 206 described in SMIL is input from the file acquisition / transmission unit 607, analyzed by the structure analysis unit 604, and a DOM tree / SAX event 616 is output. Here, the DOM tree / SAX event 616 refers to an internal representation (DOM: Document Object Model, SAX: Simple API for XML) defined by W3C (World Wide Web Consortium). Depending on the embodiment, this format may be used instead of this format. In addition, the generation of this data itself may be omitted.

図17にDOMツリーの例を示す。DOMツリーの場合は、各要素の構造がツリー上に展開され、レイアウト/スケジュール解析部603から利用可能になる。図18にSAXイベントの例を示す。SAXイベントの場合は、解析された内容がイベントとして処理順に時系列に並べられて、レイアウト/スケジュール解析部603に送信される。   FIG. 17 shows an example of a DOM tree. In the case of a DOM tree, the structure of each element is expanded on the tree and can be used from the layout / schedule analysis unit 603. FIG. 18 shows an example of the SAX event. In the case of a SAX event, the analyzed contents are arranged as an event in time series in the order of processing, and transmitted to the layout / schedule analysis unit 603.

こうして、レイアウト/スケジュール解析部603では、DOMツリー/SAXイベント616を解析して、レイアウトテーブル617とスケジュールテーブル618を出力する。図19にレイアウトテーブル617の例を示す。レイアウトテーブル617は、各メディアオブジェクトが表示されるべき位置および領域などを記憶している。スケジュールテーブル618は、各メディアオブジェクトが表示されるべきタイミングを記憶している。図20に例を示すように、各メディアオブジェクトにおける再生開始時間、再生終了時間のほか、再生時間、繰り返し属性、効果属性が記憶されている。ここで、SMIL自体の記載が、<par>や<seq>ノードから構成される入れ子上の表現になっているため、開始時間や終了時間は、その親ノードや子ノードの再生時間に影響されるため、表の中の開始時間、終了時間、再生時間は、それらの再生時間を加算したもの、という意味合いをさす。   In this way, the layout / schedule analysis unit 603 analyzes the DOM tree / SAX event 616 and outputs the layout table 617 and the schedule table 618. FIG. 19 shows an example of the layout table 617. The layout table 617 stores the position and area where each media object is to be displayed. The schedule table 618 stores the timing at which each media object is to be displayed. As shown in FIG. 20, in addition to the reproduction start time and reproduction end time for each media object, reproduction time, repetition attribute, and effect attribute are stored. Here, since the description of SMIL itself is a nested expression composed of <par> and <seq> nodes, the start time and end time are affected by the playback time of the parent node and child node. Therefore, the start time, end time, and playback time in the table mean the sum of those playback times.

図20に編集可能領域テーブル619の例を示す。これは、同様にレイアウト/スケジュール解析部603によって生成されるものであり、オブジェクトのid、変更可か不可のフラグ、変更受付位置、変更受付領域のサイズ、編集領域の形態(テキストボックス、リストボックス、ドラッグ&ドロップ、オンクリック切り替え、etc)、オブジェクトの入れ替えを、いくつかの候補から選択する場合の選択候補情報、変数の初期値、が記憶される。このテーブルは、レイアウトテーブル617およびスケジュールテーブル618の中に含まれてもよい。   FIG. 20 shows an example of the editable area table 619. This is similarly generated by the layout / schedule analysis unit 603, and includes an object id, a changeable / unchangeable flag, a change reception position, a change reception area size, and an edit area form (text box, list box) , Drag-and-drop, on-click switching, etc), selection candidate information when selecting object replacement from several candidates, and initial values of variables are stored. This table may be included in the layout table 617 and the schedule table 618.

図22は、一括変換等に使うためのグループを定義するテーブル620の例を示している。group_id、グループ要素、一括置換候補設定が記憶されている。これは、グループ要素に含まれているオブジェクトidのどれかひとつを変更した場合、このグループの残りのオブジェクトも合わせて変更されるように設定されるものである。例えば、オブジェクトidがimg1の画像が“grapefruits.jpg”に変わると、オブジェクトidがtxt1bのテキストが“グレープフルーツ”に変わり、オブジェクトidがtxt1cのテキストが“95円”となる。また、オブジェクトidがtxt1bのテキストが“カボチャ”に変わると、オブジェクトidがimg1の画像が“kabocha.jpg”に変わり、オブジェクトidがtxt1cのテキストが“120円”となる。   FIG. 22 shows an example of a table 620 that defines groups for use in batch conversion or the like. The group_id, group element, and batch replacement candidate setting are stored. This is set so that when any one of the object ids included in the group element is changed, the remaining objects of this group are also changed. For example, when the image with the object id “img1” changes to “graphfruits.jpg”, the text with the object id “txt1b” changes to “grapefruit”, and the text with the object id “txt1c” becomes “95 yen”. When the text with the object id txt1b changes to “pumpkin”, the image with the object id img1 changes to “kabocha.jpg”, and the text with the object id txt1c becomes “120 yen”.

図23は、シーンテーブル621の例を示す図である。シーンテーブル621では、あらかじめ定義された各シーンが削除可能か、追加可能か(このシーンの後ろに新しいシーンが追加される)、追加可能なシーンの種類が設定される。   FIG. 23 is a diagram illustrating an example of the scene table 621. In the scene table 621, whether or not each scene defined in advance can be deleted or added (a new scene is added after this scene) is set.

図24は、コンテンツ編集端末101で実行される編集可能なコンテンツの再生処理を示すフローチャートである。まず、コンテンツ作成者は、コンテンツ編集端末101を用い、ネットワーク104を介してコンテンツ生成サーバ102にアクセスし、編集を行うためのテンプレートの選択を行う(S11)。この際の方法として、HTMLブラウザ等を使うことなどが考えられる。テンプレートを選択する際には、コンテンツ生成サーバ102におけるコンテンツ/素材/テンプレート保存部204内のテンプレートに対する情報を閲覧したり、ジャンル分けされているテンプレートから選別したり、プレビューなどを行って便宜的に選べるようにする。コンテンツ作成者がテンプレートを決定した後、コンテンツ生成サーバ102から選択されたテンプレートデータ206がコンテンツ編集端末101に送られ、そのテンプレートデータ206を元にしてコンテンツ編集を開始する。開始の方法はHTML内で開始ボタンやリンクを押したりすることなどが考えられる。   FIG. 24 is a flowchart showing editable content reproduction processing executed by the content editing terminal 101. First, the content creator uses the content editing terminal 101 to access the content generation server 102 via the network 104 to select a template for editing (S11). As a method at this time, it is conceivable to use an HTML browser or the like. When selecting a template, the information on the template in the content / material / template storage unit 204 in the content generation server 102 is browsed, selected from templates classified by genre, previewed, etc. for convenience. Make it selectable. After the content creator determines the template, the template data 206 selected from the content generation server 102 is sent to the content editing terminal 101, and content editing is started based on the template data 206. The start method may be to press a start button or a link in HTML.

コンテンツ編集開始時には、コンテンツ編集端末101がコンテンツ生成サーバ102から、編集に必要なテンプレート(および雛形として使用されている素材データ)をファイル取得部607を通じて取得し、メディア蓄積部605に一時的に保存する(S12)。その後、テンプレートを読み取って編集開始を行うが、この際、端末101内にマルチメディアコンテンツ表示編集部506がない場合、外部サーバから該編集部506をダウンロードする(S13)。   When content editing starts, the content editing terminal 101 acquires a template (and material data used as a template) necessary for editing from the content generation server 102 through the file acquisition unit 607 and temporarily stores it in the media storage unit 605. (S12). Thereafter, the template is read to start editing. At this time, if the multimedia content display editing unit 506 is not present in the terminal 101, the editing unit 506 is downloaded from an external server (S13).

マルチメディアコンテンツ表示編集部506は、ダウンロードされたSMILテンプレート206を構文解析し、内部表現(DOMツリーやSAXイベントなど)616に変換する(S14)。このステップは実装の形態やテンプレートの形態によっては、省略されてもよい。   The multimedia content display editing unit 506 parses the downloaded SMIL template 206 and converts it into an internal representation (DOM tree, SAX event, etc.) 616 (S14). This step may be omitted depending on the implementation form and the template form.

この後、内部表現616は、レイアウト/スケジュール解析部603にて、内部表現616から、描画に必要なレイアウトテーブル617、スケジュールテーブル618を作成する(S15)。続いてレイアウト/スケジュール解析部603にて、内部表現616から、さらに、編集可能領域、変更可能内容、変数初期設定、グループ設定、選択候補設定を抽出して、編集可能領域テーブル619の作成を行う(S16)。このステップは、編集可能領域テーブル619が、レイアウトテーブル617およびスケジュールテーブル618の中に含まれる場合は、S15と共通で行われる。その後、上記レイアウトテーブル617、スケジュールテーブル618の内容を元に、再生制御部601が、再生に必要な各メディア再生部608を起動し、再生を行う(S17)。なお、再生処理は、前のステップ(S14〜S16)による処理の終了を待たず、再生可能な情報が揃った時点で再生開始してもよい。   Thereafter, the internal representation 616 creates a layout table 617 and a schedule table 618 necessary for drawing from the internal representation 616 in the layout / schedule analysis unit 603 (S15). Subsequently, the layout / schedule analysis unit 603 further extracts editable areas, changeable contents, variable initial settings, group settings, and selection candidate settings from the internal representation 616 to create an editable area table 619. (S16). This step is performed in common with S15 when the editable area table 619 is included in the layout table 617 and the schedule table 618. Thereafter, based on the contents of the layout table 617 and schedule table 618, the playback control unit 601 activates each media playback unit 608 required for playback and plays back (S17). Note that the reproduction process may be started when the reproducible information is prepared without waiting for the end of the process in the previous steps (S14 to S16).

次に、上記編集可能領域テーブル619の内容を元に、編集制御部602が編集可能領域監視部612を起動する(S18)。この処理は、S17の処理が行われると同時に、または並行して行われてもよい。そして、コンテンツ作成者が編集したいオブジェクトを指定したか否かを確認し(S19)、オブジェクトを指定した場合はコンテンツ編集処理を行う(S20)。オブジェクトを指定する方法として具体的には、コンテンツが表示されている画面上で、編集したいオブジェクトが表示されている位置をマウスでクリックする方法が一般的であるが、マウスがない場合、例えばTVのリモコンを使いたい場合、リモコンの上下左右キーを押すと、画面内に表示われているオブジェクトがフォーカスされ(オブジェクトの周りが矩形で囲われるなどの表示)、キーの押下により次々に移り変わる方法がある。
オブジェクト指定が行なわれない場合は、スケジュールテーブル618の内容から再生処理が完了していれば(S21)、再生処理を終了し、再生処理が完了していなければ、S17に戻る。
Next, based on the contents of the editable area table 619, the edit control unit 602 activates the editable area monitoring unit 612 (S18). This process may be performed simultaneously with the process of S17 or in parallel. Then, it is checked whether or not the content creator has designated an object to be edited (S19). If an object is designated, content editing processing is performed (S20). Specifically, as a method of specifying an object, a method of clicking with a mouse on a position where an object to be edited is displayed on a screen on which content is displayed is generally used. If you want to use the remote control, press the up / down / left / right keys on the remote control to focus the object displayed on the screen (displays a rectangle around the object, etc.) is there.
If no object is specified, the reproduction process is completed from the contents of the schedule table 618 (S21), and the reproduction process is terminated. If the reproduction process is not completed, the process returns to S17.

図25は、S20におけるコンテンツ編集端末101で実行される編集可能なコンテンツの編集処理を示すフローチャートである。S19において、コンテンツ作成者(ユーザ)が編集したいオブジェクトを指定したとき、ユコンテンツ作成者が指定した位置に、編集可能領域が設定されているかどうかを編集可能領域監視部612によって判断し(S31)、もし編集可能領域が設定されていない場合は、再生制御部601は再生をそのまま続行する。編集可能領域が設定されている場合、まず再生制御部601は、再生を一時停止し(S32)、入力領域表示部611により、指定したオブジェクトがある位置に、入力領域が表示され、コンテンツ作成者の入力待ちとなる(S33)。この際の入力領域は、コンテンツ内のオブジェクトの上に重なる形で表示され、入力領域の形式は、オブジェクトのメディアの種類(画像、テキスト、サウンド等)や、編集可能内容の種類(あらかじめ設定された、候補の選択肢があるか、新規入力が必要か、マウスのドラッグ&ドロップが必要か...)によって異なる。   FIG. 25 is a flowchart showing editable content editing processing executed by the content editing terminal 101 in S20. In S19, when the content creator (user) designates an object to be edited, the editable area monitoring unit 612 determines whether an editable area is set at the position designated by the content creator (S31). If the editable area is not set, the playback control unit 601 continues playback as it is. When the editable area is set, the playback control unit 601 first pauses playback (S32), and the input area display unit 611 displays the input area at the position where the specified object is located, and the content creator (S33). The input area at this time is displayed on top of the object in the content, and the format of the input area is the type of media (image, text, sound, etc.) of the object and the type of editable content (pre-set It depends on whether there is a choice of candidates, whether new input is required, whether mouse drag and drop is required ...).

その後、ユーザが入力処理を行って完了の処理を行う(S34)。このときの入力操作として、画像の置き換えの場合は、リストボックスによる選択、外部からドラッグ&ドロップ、マウスをクリックした際に次々に候補画像が置き換わる方法がある。テキスト入力の場合は、テキストを一文字づつ打ち込む方法のほか、テキストエリアをクリックすると、順次変わるようにできる。例えば、(7月−>8月−>9月....)などである。また、下に、スライダーバーを設け、進行中または一時停止状態を示すことができ、かつ、少し戻ったりもできる。また、これら置き換え操作を行っているとき、置き換えられるオブジェクトに、グループ設定がされている場合、編集制御部602は、そのオブジェクトの内容のみでなく、そのオブジェクトに関連されている別オブジェクトの内容も、あらかじめ設定されている選択候補にて置き換えることができる。   Thereafter, the user performs input processing and completes processing (S34). As an input operation at this time, in the case of image replacement, there are methods of selecting candidate images one after another by selecting from a list box, dragging and dropping from the outside, or clicking a mouse. In the case of text input, in addition to typing text one character at a time, clicking on the text area can change the text sequentially. For example, (July-> August-> September ...). In addition, a slider bar can be provided below to indicate an ongoing or paused state, and to return slightly. In addition, when performing these replacement operations, if group settings are made for the object to be replaced, the editing control unit 602 displays not only the content of the object but also the content of another object related to the object. , And can be replaced with preset selection candidates.

編集制御部602は、入力領域表示部611を通じて、編集の際の入力領域にドラッグ&ドロップすることにより、オブジェクトの位置を変えることができる。また、領域の大きさは、自動的にテキストの長さによって調整されるように可変の設定もできる。入力完了の際、完了の操作は、テキスト入力の場合は改行押下など、規定の操作をもって入力完了となる。   The edit control unit 602 can change the position of the object by dragging and dropping it to the input area at the time of editing through the input area display unit 611. In addition, the size of the area can be variably set so as to be automatically adjusted according to the text length. When the input is completed, the completion operation is completed with a prescribed operation such as pressing a line feed in the case of text input.

編集制御部602は、指定した編集可能領域に一致するオブジェクトの情報を、入力部613を通じて入力された値で置換(テーブル等の更新)し(S35)、かつ、指定した位置で、入力領域表示部を通じて入力領域の消去(透明化)を行い(S36)、古いオブジェクトを消去(S37)が行われる。その後、再生制御部601が新しい内容のオブジェクトを登録(必要に応じて、新規メディアデータを取得)して表示する(S38)。このとき、コンテンツ表示画面は変更されているが、元のコンテンツ(SMILコンテンツ)はまだ変更されていないため、この変更が必要となる。そのための方法として、更新された新しい情報が(必要に応じて、メディアデータを付加)をサーバに送信する方法と、更新情報を、ローカルのコンテンツ生成/編集部614に渡してSMILコンテンツを生成する方法(S39)がある。このステップは機能的には独立しているので、S37の直後に行ってもよい。   The edit control unit 602 replaces the information of the object that matches the specified editable area with the value input through the input unit 613 (updates the table or the like) (S35), and displays the input area at the specified position. The input area is erased (transparent) through the part (S36), and the old object is erased (S37). Thereafter, the playback control unit 601 registers an object with new contents (acquires new media data as necessary) and displays it (S38). At this time, the content display screen has been changed, but the original content (SMIL content) has not been changed yet, so this change is necessary. As a method for this, a method in which updated new information (adding media data as necessary) is transmitted to the server, and the update information is passed to the local content generation / editing unit 614 to generate SMIL content. There is a method (S39). Since this step is functionally independent, it may be performed immediately after S37.

その後、編集制御部602が、指定した編集可能領域がグループ設定されているかどうかを判断し(S40)、編集可能領域がグループ設定されている場合、グループに相当する全てのオブジェクトの箇所が変更されているかを判断する(S41)。グループに相当する全てのオブジェクトの箇所が変更されるまで、S35〜S39の処理を繰り返して、あらかじめ設定されていた値で置き換える。書き換え処理が終了すれば、S17に戻って再生処理を行う。
S40において、編集可能領域がグループ設定されていない場合は、S17に戻って再生制御部601が再生処理を行う。
Thereafter, the edit control unit 602 determines whether or not the designated editable area is set as a group (S40), and when the editable area is set as a group, the locations of all objects corresponding to the group are changed. (S41). Until the positions of all the objects corresponding to the group are changed, the processes of S35 to S39 are repeated and replaced with values set in advance. When the rewriting process is completed, the process returns to S17 to perform the reproduction process.
If the editable area is not set as a group in S40, the process returns to S17 and the playback control unit 601 performs playback processing.

図26は、コンテンツ編集時の画面表示の一例を示す説明図である。画面上には、画像オブジェクト701や文字のオブジェクト702が表示されており、編集可能領域703が、変更可能なオブジェクトに重なって位置している。ユーザからは透明状態に見える。ユーザがマウスカーソル704を編集可能領域に合わせてルクリックすると、入力領域705が現れる。図の例ではテキストボックスが現れている。これをユーザがキーボードを使って編集する。一番下の段に、編集バー706があるが、これは、一時停止状態のときのみ表示するようにしてもよい。編集バー706にはBGM設定ボタン707、スライダ708、シーン追加ボタン709、シーン削除ボタン710がある。   FIG. 26 is an explanatory diagram showing an example of a screen display during content editing. An image object 701 and a character object 702 are displayed on the screen, and the editable area 703 is positioned so as to overlap the changeable object. It looks transparent to the user. When the user places the mouse cursor 704 on the editable area and clicks on it, an input area 705 appears. In the example shown, a text box appears. The user edits this using the keyboard. There is an edit bar 706 at the bottom row, but this may be displayed only in the pause state. The edit bar 706 includes a BGM setting button 707, a slider 708, a scene addition button 709, and a scene deletion button 710.

BGM設定ボタン707を押すと、あらかじめ設定していた入力領域が現れBGM変更可能となる。このボタンを押し続けてBGMが次々変わるように構成してもよい。スライダ708は、コンテンツの進行の経過を表し、真ん中のポインタを左右に動かすと、再生中の画面をさかのぼって表示、または先送りして表示することができる。シーン追加ボタン709を押すと、このシーンの後にシーン追加可能であれば、シーンが追加される。シーン削除ボタン710を押すと、現在表示中のシーンが削除可能であれば、シーンが削除される。   When the BGM setting button 707 is pressed, an input area set in advance appears and the BGM can be changed. The BGM may be changed one after another by continuously pressing this button. The slider 708 indicates the progress of the content, and when the middle pointer is moved to the left or right, the screen being played back can be displayed backward or forwarded. When a scene addition button 709 is pressed, a scene is added if a scene can be added after this scene. When a scene deletion button 710 is pressed, if the currently displayed scene can be deleted, the scene is deleted.

ユーザ操作の面から見た編集時のスクリーンショット例を図27に示す。図27(a)に示すように、コンテンツの編集を開始すると、コンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。このとき、編集したい箇所が現れたら、その箇所をクリックする。すると、図27(b)に示すように、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。図の例では、価格のところをクリックしたので、価格の変更を行うためのテキストボックスが入力フォーム705である。   FIG. 27 shows an example of a screen shot during editing as viewed from the user operation side. As shown in FIG. 27A, when the editing of the content is started, the reproduction of the content starts, and the content dynamically changes with the passage of time. At this time, if a location that you want to edit appears, click that location. Then, as shown in FIG. 27B, the content is paused at that time, and an input form appears at a position where editing is desired. In the example of the figure, since the price is clicked, the text box for changing the price is the input form 705.

図27(c)に示すように、ここに、更新したい内容を文字入力し、完了の指示を行う(エンターキーまたはマウスクリック)。すると、図27(d)に示すように、内容が変更され、再生が再開される。   As shown in FIG. 27 (c), the contents to be updated are input here and a completion instruction is given (enter key or mouse click). Then, as shown in FIG. 27 (d), the contents are changed and the reproduction is resumed.

本システムを用いて電子チラシ作成システムを構成したときの例を記載する。
ここでいう電子チラシとは、通常の新聞の折込チラシのような情報がテレビ、PCなどの媒体で表示される際の形式を指す。画像、楽音、文字列等の各種種類のメディアが混合されたマルチメディアコンテンツの形で提供される。そのため、紙媒体のように静止した情報表示ではなく、時間の経過に合わせて動的に変化する表現を取り入れることができる。主に、販売する商品の広告や、購買者に通知したい内容が含まれている。
An example when an electronic leaflet creation system is configured using this system will be described.
The electronic leaflet here refers to a format in which information such as an ordinary leaflet inserted in a newspaper is displayed on a medium such as a television or a PC. It is provided in the form of multimedia content in which various types of media such as images, musical sounds, and character strings are mixed. Therefore, it is possible to incorporate an expression that dynamically changes with the passage of time, rather than a stationary information display like a paper medium. It mainly contains advertisements for products to be sold and contents to be notified to buyers.

図28は電子チラシの一例を示す概略説明図である。商品チラシの場合は、情報として、商品名721、商品説明722、価格723が含まれ、商品の画像724、販売単位725、店の名前、店のロゴ、セール期間、等がある。これらは本発明における実施例では、それぞれ文字オブジェクトや画像オブジェクトとして定義される。   FIG. 28 is a schematic explanatory view showing an example of an electronic leaflet. In the case of a product flyer, information includes a product name 721, a product description 722, and a price 723, and includes a product image 724, a sales unit 725, a store name, a store logo, a sale period, and the like. In the embodiment of the present invention, these are defined as character objects and image objects, respectively.

図28の例では、時間の経過に伴ってオブジェクトが画面上を動くことにより、きめ細かい感情表現を含むユーザへのインプレッションを高める効果が可能となる。また、図28の例では、さらに時間が経過すると、商品情報が更新され次の商品の紹介に移るという表現になっており、シーンという概念=一つの商品の紹介、という定義となっている。この場合、紹介する商品の追加したいときは、シーンの追加をすればよいことになる。   In the example of FIG. 28, the object moves on the screen as time passes, so that it is possible to increase the impression to the user including detailed emotional expressions. In the example of FIG. 28, the product information is updated and the next product is introduced as time elapses, and the concept of scene = introduction of one product is defined. In this case, when it is desired to add a product to be introduced, a scene should be added.

ユーザ操作の面から見た編集時のスクリーンショット例を図29に示す。図29(a)に示すように、電子チラシの編集を開始すると、コンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。このとき、編集したい箇所が現れたら、その箇所をクリックする。すると、図29(b)に示すように、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。図の例では、価格のところをクリックしたので、価格の変更を行うためのテキストボックスが入力フォームである。   FIG. 29 shows an example of a screen shot during editing as viewed from the user operation. As shown in FIG. 29 (a), when the electronic leaflet editing is started, the reproduction of the content starts, and the content dynamically changes with the passage of time. At this time, if a location that you want to edit appears, click that location. Then, as shown in FIG. 29B, the content is paused at that time, and an input form appears at a position where editing is desired. In the example in the figure, since the price was clicked, the text box for changing the price is the input form.

図29(c)に示すように、ここに、更新したい内容を文字入力し、完了の指示を行う(エンターキーまたはマウスクリック)。すると、図29(d)に示すように、内容が変更され、再生が再開される。   As shown in FIG. 29 (c), the contents to be updated are input here and a completion instruction is given (enter key or mouse click). Then, as shown in FIG. 29 (d), the contents are changed and the reproduction is resumed.

ここで、内容の変更方法として、上記のように一つ一つのオブジェクトごとに変更する方法もあるが、一つの商品について商品名、商品画像、商品の説明など対応関係にあるものについては、そのどれかを変更すると、他のものを自動的に変更されるようにする方法もある。後者の場合、一つの商品の、商品名、商品の説明、商品の画像等、商品ごとに設定できる項目を、前出のグループとして、グループ設定テーブルとして事前に登録しておく。グループ設定はコンテンツ内に記述しておくことができる。   Here, as a method of changing the contents, there is also a method of changing for each object as described above, but for a product with a corresponding relationship such as a product name, product image, product description, etc. There is also a way to change one automatically so that the others are automatically changed. In the latter case, items that can be set for each product, such as a product name, a description of the product, and an image of the product, are registered in advance as a group setting table as a group. Group settings can be described in the content.

このグループ設定により、例えばコンテンツ内で商品の画像のオブジェクトを変更すると、それに応じてそれに関連する商品名や商品説明などの他のオブジェクトも自動的に変更される。
また、ひとつの商品、またはあるまとまった単位の商品群を表示している時間間隔を、一つのシーンとして定義することができる。このシーンの定義は、テンプレート記述ファイル内に、シーンの区切りを入れることによって行われる。商品単位でシーンを区切れば、コンテンツ内で広告する商品(または商品群)の数を増減させたいときに、シーンの追加や削除という操作で容易に対応することができる。
With this group setting, for example, when an object of an image of a product is changed in the content, other objects such as a product name and product description related thereto are automatically changed accordingly.
Further, a time interval for displaying one product or a group of product groups can be defined as one scene. The definition of the scene is performed by putting a scene break in the template description file. If scenes are divided in units of products, when the number of products (or product groups) to be advertised in the content is increased or decreased, it is possible to easily cope with an operation of adding or deleting scenes.

次に、本システムを用いて電子アルバム生成/編集システムを構成したときの例を記載する。ここで、電子アルバムとは、個人のデジタルカメラ等で撮影した画像等を、整理、編集して、時系列又は画面上に配置したものがテレビ、PCなどの媒体で表示される際の形式を指す。電子チラシと同様、画像、楽音、文字列等の各種種類のメディアが混合されたマルチメディアコンテンツの形で提供される。そのため、紙媒体のように静止した情報表示ではなく、時間の経過に合わせて動的に変化する表現を取り入れることができる。表現方法は個人の嗜好に合わせて作られたり、カスタマイズされたりすることができる。   Next, an example when an electronic album generation / editing system is configured using this system will be described. Here, the electronic album is a format in which images taken with a personal digital camera or the like are arranged and edited, and arranged in time series or on a screen are displayed on a medium such as a television or a PC. Point to. Like an electronic flyer, it is provided in the form of multimedia content in which various types of media such as images, musical sounds, and character strings are mixed. Therefore, it is possible to incorporate an expression that dynamically changes with the passage of time, rather than a stationary information display like a paper medium. Expression methods can be tailored to individual preferences or customized.

図30は、電子アルバムの一実施例を示す画面表示図である。電子アルバムの場合は、情報として、撮影した写真(または動画像)801、写真の説明802、撮影日803、撮影場所などが含まれてもよい。これらは本発明における実施例では、それぞれ文字オブジェクトや画像オブジェクトとして定義される。画像の並べ方、閲覧の仕方もさまざまが見せ方があり、図30(a)の例1のように、2x3で画像が表示され、表示画面が左へスクロールしていき次々に別の写真が現れる見せ方もあれば、図30(b)の例2のように、紙媒体のアルバムのように写真を配置でき、見開きのページのようにめくれて次のページが現れる見せ方、図30(c)の例3のように、掲示板に似せた背景に、写真が次々に揺れたり回転しながら画面前方方向から画面の奥方法に降っていって積もっていくような見せ方も考えられる。   FIG. 30 is a screen display diagram showing an embodiment of an electronic album. In the case of an electronic album, information may include a photographed (or moving image) 801, a photograph description 802, a photographing date 803, a photographing location, and the like. In the embodiment of the present invention, these are defined as character objects and image objects, respectively. There are various ways to arrange and view the images. As shown in Example 1 of FIG. 30A, the images are displayed in 2 × 3, and the display screen scrolls to the left, and different pictures appear one after another. If there is a way to show, as shown in Example 2 in FIG. 30B, a photo can be arranged like a paper album, and the next page appears by turning over like a spread page, FIG. 30C As in Example 3), the background may be similar to that of a bulletin board, and it may be viewed as if the photos are falling from the front of the screen toward the back of the screen while accumulating and rotating.

これらの例のように、時間の経過に伴ってオブジェクトが画面上を動くことにより、きめ細かい感情表現を含むユーザへのインプレッションを高める効果が可能となる。また、図30(b)の例2の場合、一つの見開きページ=シーンと定義すれば、シーンの追加=ページの追加ということになる。   As in these examples, when the object moves on the screen as time passes, it is possible to increase the impression to the user including detailed emotional expressions. In the case of Example 2 in FIG. 30B, if one spread page is defined as a scene, scene addition = page addition.

このアルバム編集は、一人のユーザで行えば、前出の電子チラシの編集方法と同様となるが、2人以上の場所が離れた家族が、お互いの機器で通信し,会話しながら、共同でアルバムを作る、といった用途で使うことも考えられる。   This album editing is the same as the electronic flyer editing method described above when performed by a single user, but two or more families who are separated from each other communicate with each other's devices and talk together. It can also be used for making albums.

この際の、ユーザ操作の面から見た編集時のスクリーンショット例を図31に示す。電子アルバムの編集を開始すると、双方でコンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。図31(a)に示すように、この際のコンテンツ表示はお互い同期している。このとき、編集したい箇所が現れたら、その箇所をクリックする。図31(e)に示すように、クリックした側では、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。   FIG. 31 shows an example of a screen shot at the time of editing from the viewpoint of user operation. When the editing of the electronic album is started, the playback of the content starts on both sides, and the content changes dynamically with the passage of time. As shown in FIG. 31A, the content displays at this time are synchronized with each other. At this time, if a location that you want to edit appears, click that location. As shown in FIG. 31 (e), on the clicked side, the content is paused at that point, and an input form appears at a position where editing is desired.

図31(b)の例では、画像のところをクリックしたので、画像の変更を行うためのドラッグ&ドロップ用アイコンである。図31(f)に示すように、相手側でも、同じ位置でコンテンツが一時停止され、相手側で選択された箇所が色などが変化して点滅する。 In the example of FIG. 31B, since the place where the image is clicked, it is a drag and drop icon for changing the image. As shown in FIG. 31 (f), the content is also paused at the same position on the other party, and the part selected on the other party changes its color and blinks.

次に、編集している側で、更新したい画像を指定する。図31(c)に示すように、ここでは、編集しているブラウザの外部から、画像アイコンをドラッグ&ドロップして画像を指定する例である。図31(g)に示すように、この作業中、相手側では、選択された箇所が点滅している等の状態が保たれる。   Next, the image to be updated is designated on the editing side. As shown in FIG. 31C, here is an example in which an image is designated by dragging and dropping an image icon from outside the browser being edited. As shown in FIG. 31 (g), during this work, the other side is kept in a state where the selected location is blinking.

図31(d)に示すように、編集側で、ドラッグ&ドロップ編集が完了すると、内容が変更され、再生が再開される。図31(h)に示すように、このとき、相手側の表示も変更され、同期した形で再生が再開される。   As shown in FIG. 31D, when the drag-and-drop editing is completed on the editing side, the contents are changed and the reproduction is resumed. As shown in FIG. 31 (h), the other party's display is also changed at this time, and reproduction is resumed in a synchronized manner.

以上説明したように、本実施の形態に係るシステムでは、コンテンツ編集装置は、編集画面とプレビュー画面を同一に扱うので、マルチメディアコンテンツが掲載されるレイアウト画面のまま、思いのままにコンテンツ内の画像やテキストを変更でき、作業効率が上がる。簡単な操作性により、より多くの情報をリアルタイムに編集することで、常に新しい情報発信ができる。編集とプレーヤーを融合させることにより、一般の利用者が苦手なオーサリングツールを利用する必要がなくなる。   As described above, in the system according to the present embodiment, the content editing apparatus handles the editing screen and the preview screen in the same way, so that the layout screen on which the multimedia content is posted remains as desired. You can change the image and text, and work efficiency will increase. With simple operability, new information can always be transmitted by editing more information in real time. By fusing editing and players, it is no longer necessary for ordinary users to use authoring tools that are not good at using them.

前述の実施形態では、XML言語の一種であるSMIL言語を使用した例を記載したが、マルチメディア表現が行える他のコンテンツ形態でも同様の機能を実現することができる。2004年現在でインターネットで多く用いられているマルチメディアコンテンツのフォーマット形態として、Macromedia社のFlash(swf)やShockwave、W3C標準のSVG(Scarable Vector Graphics)、EVAアニメータなどがある。また、一からオブジェクト指向言語Java(登録商標)等を使って、コンテンツを1から作成することも考えられる。   In the above-described embodiment, an example using the SMIL language, which is a kind of XML language, has been described. However, the same function can be realized in other content forms capable of performing multimedia expression. As formats of multimedia contents that are widely used on the Internet as of 2004, there are Flash (swf) and Shockwave of Macromedia, SVG (Scalable Vector Graphics) of the W3C standard, EVA animator, and the like. It is also conceivable to create content from scratch using an object-oriented language such as Java (registered trademark).

ここでは、Macromedia社のFlashを使用した例を述べる。このフォーマットでは、アニメーションが座標単位のベクターの集合として表され、時系列上で変化する記述が可能である。また、アニメーション描画以外の、画像、音声、動画、入出力等も扱うことができるが、さらに、W3Cにて標準化されているECMAスクリプトに準拠したActionScriptというプログラム言語により、画面上のアニメーションや画像、音声、入出力制御、通信制御などをコントロールするプログラミングが可能である。これらを組み合わせてボタンやフォームなどもつくることができ、標準形のコンポーネントとしてオーサリングツールにおいても用意されている。SMIL言語とは構造が異なるため、図16における、コンテンツ表示/生成部におけるDOMツリー、SAXイベント、スケジュールテーブル、レイアウトテーブル等は存在しないが、コンテンツフォーマットを解釈し、レイアウトやスケジュールを解釈する部分、再生を制御する部分は別の実装形態で存在する。今回の実施例における、入力領域表示、非表示、編集可能領域の監視、変更情報入力、入力領域制御、更新情報の送受信は、Flashコンテンツ内において、このActionScriptによってプログラミングし実行させることによって実現可能である。変更するオブジェクトごとに、編集可能領域(マウスクリックを検出する領域)を設定し、そこが押されると、コンテンツ再生の時間を停止させ、入力のためのフォームを動的に生成し、ユーザに入力させる。ユーザ入力完了指示(エンターキーやマウスクリック)を定義しておき、ユーザの入力完了を検知すると、フォームを消し、指定されているオブジェクトを削除し、変更される新しいオブジェクトを生成し、同じ場所に貼り付ける。この際の更新情報は、通信回線を介して、サーバや別端末に送信することが可能である。変更処理が終わったら、最後に再生を再開する。   Here, an example using Flash of Macromedia is described. In this format, an animation is represented as a set of vectors in coordinate units, and a description that changes in time series is possible. It can also handle images, audio, moving images, input / output, etc., other than animation drawing. Furthermore, with a program language called ActionScript that conforms to the ECMA script standardized by W3C, animations and images on the screen, Programming that controls voice, input / output control, communication control, etc. is possible. These can be combined to create buttons, forms, etc., and are also available in authoring tools as standard components. Since the structure is different from the SMIL language, there is no DOM tree, SAX event, schedule table, layout table, etc. in the content display / generation unit in FIG. 16, but the part that interprets the content format and interprets the layout and schedule, The part that controls playback exists in another implementation. In this embodiment, input area display, non-display, editable area monitoring, change information input, input area control, and transmission / reception of update information can be realized by programming and executing this action script in the flash content. is there. For each object to be changed, an editable area (area for detecting mouse clicks) is set, and when it is pressed, the content playback time is stopped and a form for input is dynamically generated and input to the user. Let User input completion instructions (enter key and mouse click) are defined, and when user input completion is detected, the form is deleted, the specified object is deleted, a new object to be changed is generated, and the same place is created. paste. The update information at this time can be transmitted to a server or another terminal via a communication line. When the change process is finished, playback is resumed at the end.

本発明は、ソフトウエア、すなわちプログラム上でプロセッサが動作して実現することを前提にしており、さらにこのプログラムをCDやメモリ等の記録媒体に記録してそれを読み出し実行することが可能である。   The present invention is based on the premise that the processor operates on software, that is, a program, and further, this program can be recorded on a recording medium such as a CD or a memory, read out and executed. .

以上のように、本発明の実施の形態および実施例について説明を行ったが、今回開示した実施の形態および実施例は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれる。   As described above, the embodiments and examples of the present invention have been described. However, the embodiments and examples disclosed this time should be considered as illustrative in all points and not restrictive. is there. The scope of the present invention is defined by the terms of the claims, and includes meanings equivalent to the terms of the claims and all modifications within the scope.

本発明の実施の形態に係るコンテンツ編集/生成システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the content edit / generation system which concerns on embodiment of this invention. コンテンツ生成サーバ102の一実施例を示すブロック図である。3 is a block diagram illustrating an example of a content generation server 102. FIG. SMILテンプレート用の言語仕様を示す図である。It is a figure which shows the language specification for a SMIL template. SMILによって記述されたマルチメディアコンテンツの記述例を示す図である。It is a figure which shows the example of description of the multimedia content described by SMIL. 図4に続くSMILによって記述されたマルチメディアコンテンツの記述例を示す図である。It is a figure which shows the example of description of the multimedia content described by SMIL following FIG. 図5に続くSMILによって記述されたマルチメディアコンテンツの記述例を示す図である。It is a figure which shows the example of description of the multimedia content described by SMIL following FIG. SMILテンプレートを記述する仕様の例を示す図である。It is a figure which shows the example of the specification which describes a SMIL template. SMILテンプレートを記述する仕様の他の例を示す図である。It is a figure which shows the other example of the specification which describes a SMIL template. SMILよって記述されたマルチメディアコンテンツのテンプレートの記述例を示す図である。It is a figure which shows the example of a description of the template of the multimedia content described by SMIL. 図8に続くSMILよって記述されたマルチメディアコンテンツのテンプレートの記述例を示す図である。It is a figure which shows the example of a description of the template of the multimedia content described by SMIL following FIG. 図9に続くSMILよって記述されたマルチメディアコンテンツのテンプレートの記述例を示す図である。FIG. 10 is a diagram illustrating a description example of a multimedia content template described by SMIL following FIG. 9. 図10に続くSMILよって記述されたマルチメディアコンテンツのテンプレートの記述例を示す図である。It is a figure which shows the example of a description of the template of the multimedia content described by SMIL following FIG. 一括変換等に使うためのグループを定義するテーブルを示す図である。It is a figure which shows the table which defines the group for using for batch conversion etc. コンテンツ編集端末のハード構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a content editing terminal. コンテンツ編集端末で動作するプロセッサの機能ブロック図である。It is a functional block diagram of the processor which operate | moves with a content editing terminal. マルチメディアコンテンツ表示編集部の構成を示すブロック図である。It is a block diagram which shows the structure of a multimedia content display edit part. DOMツリーの例を示す図である。It is a figure which shows the example of a DOM tree. SAXイベントの例を示す図である。It is a figure which shows the example of a SAX event. レイアウトテーブルの例を示す図である。It is a figure which shows the example of a layout table. スケジュールテーブルの例を示す図である。It is a figure which shows the example of a schedule table. 編集可能領域テーブルの例を示す図である。It is a figure which shows the example of an editable area | region table. 一括変換等に使うためのグループを定義するテーブルの例を示す図である。It is a figure which shows the example of the table which defines the group for using for batch conversion etc. シーンテーブルの例を示す図である。It is a figure which shows the example of a scene table. コンテンツ編集端末で実行される編集可能なコンテンツの再生処理を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration processing of the editable content performed with a content editing terminal. S20におけるコンテンツ編集端末で実行される編集可能なコンテンツの編集処理を示すフローチャートである。It is a flowchart which shows the edit process of the editable content performed with the content edit terminal in S20. コンテンツ編集時における画面表示の一例を示す説明図である。It is explanatory drawing which shows an example of the screen display at the time of content editing. ユーザ操作の面から見たコンテンツ編集時のスクリーンショット例を示す図である。It is a figure which shows the example of a screenshot at the time of the content edit seen from the surface of user operation. 電子チラシの編集時における画面表示の一例を示す説明図である。It is explanatory drawing which shows an example of the screen display at the time of editing of an electronic leaflet. ユーザ操作の面から見た電子チラシ編集時のスクリーンショット例を示す図である。It is a figure which shows the example of a screenshot at the time of electronic leaflet editing seen from the surface of user operation. 電子アルバムの一実施例を示す画面表示図である。It is a screen display figure which shows one Example of an electronic album. ユーザ操作の面から見た電子アルバム編集時のスクリーンショット例を示す図である。It is a figure which shows the example of a screenshot at the time of electronic album editing seen from the surface of user operation. 従来のコンテンツ編集画面の一例を示す説明図である。It is explanatory drawing which shows an example of the conventional content edit screen.

符号の説明Explanation of symbols

101 コンテンツ編集端末
102 コンテンツ生成サーバ
103 コンテンツ受信端末
104 ネットワーク
201 テンプレート登録部
202 変更データ入力部
203 コンテンツ生成部
204 コンテンツ素材テンプレート保存部
205 編集情報送信部
206 コンテンツテンプレート
207 コンテンツ
301 コンテンツファイル
302 テンプレートファイル
401 出力装置
404 入力装置
405 プロセッサ
502 入出力管理部
503 ストレージ管理部
504 通信管理部
505 ネットワークコンテンツ閲覧部
506 マルチメディアコンテンツ表示編集部
601 再生制御部
602 編集制御部
603 スケジュール解析部
604 構造解析部
605 メディア蓄積部
606 タイマー
607 ファイル取得部/送信部
608 メディア再生部
611 入力領域表示部
612 編集可能領域監視部
613 入力部
614 編集部
615 更新情報送受信部
616 内部表現
617 レイアウトテーブル
618 スケジュールテーブル
619 編集可能領域テーブル
620 グループ設定テーブル
621 シーンテーブル
701 画像オブジェクト
702 オブジェクト
703 編集可能領域
704 マウスカーソル
705 入力領域
706 編集バー
707 設定ボタン
708 スライダ
709 シーン追加ボタン
710 シーン削除ボタン
721 商品名
722 商品説明
723 価格
724 画像
725 販売単位
802 説明
803 撮影日
101 content editing terminal 102 content generation server 103 content reception terminal 104 network 201 template registration unit 202 changed data input unit 203 content generation unit 204 content material template storage unit 205 editing information transmission unit 206 content template 207 content 301 content file 302 template file 401 Output device 404 Input device 405 Processor 502 Input / output management unit 503 Storage management unit 504 Communication management unit 505 Network content browsing unit 506 Multimedia content display editing unit 601 Playback control unit 602 Edit control unit 603 Schedule analysis unit 604 Structure analysis unit 605 Media Storage unit 606 Timer 607 File acquisition unit / transmission unit 608 Media playback unit 611 Force region display unit 612 Editable region monitoring unit 613 Input unit 614 Editing unit 615 Update information transmission / reception unit 616 Internal representation 617 Layout table 618 Schedule table 619 Editable region table 620 Group setting table 621 Scene table 701 Image object 702 Object 703 Editable Area 704 Mouse cursor 705 Input area 706 Edit bar 707 Setting button 708 Slider 709 Add scene button 710 Delete scene button 721 Product name 722 Product description 723 Price 724 Image 725 Sales unit 802 Description 803 Shooting date

Claims (13)

時間軸上に配置されたマルチメディアコンテンツを再生中に任意の時間で再生を停止させ、停止時点のコンテンツ画像を表示させる再生制御手段と、
前記コンテンツに設けられたオブジェクトを画像表示上で選択させ、選択されたオブジェクトを編集可能とする編集制御手段とを備え、
前記オブジェクトが編集されると、編集されたマルチメディアコンテンツにより再生を行うことを特徴とするコンテンツ編集装置。
Playback control means for stopping playback at an arbitrary time during playback of multimedia content arranged on the time axis, and displaying a content image at the time of stop;
Editing control means for allowing an object provided in the content to be selected on an image display and editing the selected object;
A content editing apparatus, wherein, when the object is edited, reproduction is performed using the edited multimedia content.
選択されたオブジェクトの位置が編集可能領域であるかを監視する監視手段を備え、
前記編集制御手段は、前記監視手段により選択されたオブジェクトの位置に前記編集可能領域が存在すると検出された場合に、選択されたオブジェクトを編集可能とすることを特徴とする請求項1に記載のコンテンツ編集装置。
Comprising monitoring means for monitoring whether the position of the selected object is an editable area;
2. The edit control unit according to claim 1, wherein the edit control unit enables editing of the selected object when it is detected that the editable region exists at the position of the object selected by the monitoring unit. Content editing device.
前記編集制御手段は、時間軸上におけるオブジェクトの移動に合わせて移動することを特徴とする請求項1又は2に記載のコンテンツ編集装置。   The content editing apparatus according to claim 1, wherein the editing control unit moves in accordance with the movement of the object on the time axis. 前記編集制御手段は、編集可能領域を透明とし、該編集可能領域が編集可能となったときに入力領域として可視化することを特徴とする請求項1乃至3のいずれかに記載のコンテンツ編集装置。   4. The content editing apparatus according to claim 1, wherein the editing control unit makes the editable area transparent, and visualizes the editable area as an input area when the editable area becomes editable. 前記編集可能領域は画面上に複数存在し、且つそれぞれが時間軸上に独立で存在していることを特徴とする請求項1乃至4のいずれかに記載のコンテンツ編集装置。   5. The content editing apparatus according to claim 1, wherein there are a plurality of editable areas on the screen, and each of them is independently present on a time axis. 前記編集制御手段は、前記編集可能領域に、複数の編集オブジェクト候補が含まれる編集リストを表示させ、その中から任意のオブジェクトを選択することを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   6. The edit control unit according to claim 1, wherein an edit list including a plurality of edit object candidates is displayed in the editable area, and an arbitrary object is selected from the edit list. Content editing device. 前記編集制御手段は、前記編集可能領域に、順に編集オブジェクト候補を表示させ、その中から任意のオブジェクトを選択することを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   6. The content editing apparatus according to claim 1, wherein the editing control means displays editing object candidates in order in the editable area, and selects an arbitrary object from them. 前記編集制御手段は、前記編集可能領域を入れ替え編集の領域とし、任意のオブジェクトに入れ替えることを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   The content editing apparatus according to claim 1, wherein the editing control unit replaces the editable region with a region for editing and replaces the region with an arbitrary object. 前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトに関連するオブジェクトも編集することを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   6. The content editing apparatus according to claim 1, wherein when an arbitrary object is edited, the editing control unit also edits an object related to the object. 前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトのシーンに関連するシーンを追加・削除することを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   6. The content editing apparatus according to claim 1, wherein when an arbitrary object is edited, the editing control unit adds / deletes a scene related to the scene of the object. 前記再生制御手段は、任意のオブジェクトを編集した場合、この編集画面と同様の画面をネットワークを介して他の編集装置に表示できることを特徴とする請求項1乃至5のいずれかに記載のコンテンツ編集装置。   6. The content editing according to claim 1, wherein, when an arbitrary object is edited, the playback control means can display a screen similar to the editing screen on another editing device via a network. apparatus. コンピュータに、請求項1〜11のいずれかに記載の手段を機能させるためのプログラム。   The program for making a computer function the means in any one of Claims 1-11. 請求項12に記載のプログラムを記録した記録媒体。

A recording medium on which the program according to claim 12 is recorded.

JP2005225494A 2005-08-03 2005-08-03 CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME Expired - Fee Related JP4514671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005225494A JP4514671B2 (en) 2005-08-03 2005-08-03 CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005225494A JP4514671B2 (en) 2005-08-03 2005-08-03 CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME

Publications (2)

Publication Number Publication Date
JP2007041861A true JP2007041861A (en) 2007-02-15
JP4514671B2 JP4514671B2 (en) 2010-07-28

Family

ID=37799782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005225494A Expired - Fee Related JP4514671B2 (en) 2005-08-03 2005-08-03 CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME

Country Status (1)

Country Link
JP (1) JP4514671B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211595A (en) * 2007-02-27 2008-09-11 Nippon Telegr & Teleph Corp <Ntt> Media-editing server device, media editing system, and media-editing program
WO2009034718A1 (en) * 2007-09-12 2009-03-19 Hubase-I.Inc Flash file generation system and original image information generation system
JP2010039991A (en) * 2008-08-08 2010-02-18 Kawai Musical Instr Mfg Co Ltd Image display method, computer program for image display, and recording medium
JP2010191634A (en) * 2009-02-17 2010-09-02 Nhn Corp Moving image creation program, moving image creation service provision system, and moving image reproduction program
JP2010244206A (en) * 2009-04-02 2010-10-28 Nhn Corp Server device, moving image distribution system, and server program
JP2015084205A (en) * 2013-09-18 2015-04-30 パナソニックIpマネジメント株式会社 Signage data input device, server, and signage data input program
CN110956486A (en) * 2019-10-11 2020-04-03 京东数字科技控股有限公司 AI advertisement editing method, device, electronic equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123972A (en) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd Object document editing device
WO2003088665A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
JP2004007407A (en) * 2002-03-25 2004-01-08 Yamaha Corp Template file editing apparatus and editor program
JP2004128724A (en) * 2002-09-30 2004-04-22 Ntt Comware Corp Media editor, media editing method, media editing program, and recording medium
JP2005173897A (en) * 2003-12-10 2005-06-30 Canon Inc Image processor, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123972A (en) * 1994-10-28 1996-05-17 Matsushita Electric Ind Co Ltd Object document editing device
JP2004007407A (en) * 2002-03-25 2004-01-08 Yamaha Corp Template file editing apparatus and editor program
WO2003088665A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
JP2004128724A (en) * 2002-09-30 2004-04-22 Ntt Comware Corp Media editor, media editing method, media editing program, and recording medium
JP2005173897A (en) * 2003-12-10 2005-06-30 Canon Inc Image processor, image processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211595A (en) * 2007-02-27 2008-09-11 Nippon Telegr & Teleph Corp <Ntt> Media-editing server device, media editing system, and media-editing program
JP4652357B2 (en) * 2007-02-27 2011-03-16 日本電信電話株式会社 Media editing server device, media editing system, and media editing program
WO2009034718A1 (en) * 2007-09-12 2009-03-19 Hubase-I.Inc Flash file generation system and original image information generation system
JP2010039991A (en) * 2008-08-08 2010-02-18 Kawai Musical Instr Mfg Co Ltd Image display method, computer program for image display, and recording medium
JP2010191634A (en) * 2009-02-17 2010-09-02 Nhn Corp Moving image creation program, moving image creation service provision system, and moving image reproduction program
JP2010244206A (en) * 2009-04-02 2010-10-28 Nhn Corp Server device, moving image distribution system, and server program
JP2015084205A (en) * 2013-09-18 2015-04-30 パナソニックIpマネジメント株式会社 Signage data input device, server, and signage data input program
CN110956486A (en) * 2019-10-11 2020-04-03 京东数字科技控股有限公司 AI advertisement editing method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4514671B2 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
US20220229536A1 (en) Information processing apparatus display control method and program
US8270815B2 (en) Online video and audio editing
US20110191684A1 (en) Method of Internet Video Access and Management
WO2017051793A1 (en) System for automatically generating video content
JP4514671B2 (en) CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JPH10124483A (en) Device for editing scenario
TWI457768B (en) A content generation apparatus, a system for providing a web-based service to permit integration of user generated content with sponsored media and a computer-implemented method
CN107644019A (en) A kind of hypermedia eBook content manufacturing system
CN114185465A (en) Information processing method, information processing apparatus, storage medium, and electronic device
JP4142382B2 (en) Content creation system and content creation method
JP2010141371A (en) System for assisting creation/playback of animation content
CN101491089A (en) Embedded metadata in a media presentation
JP5552987B2 (en) Search result output device, search result output method, and search result output program
CN111523069B (en) Method and system for realizing electronic book playing 3D effect based on 3D engine
JP2009267655A (en) Program management system, program management server, program viewing terminal, program management program, and program viewing program
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
JP4271681B2 (en) Content processing apparatus and computer program
WO2002023350A1 (en) Technique for superimposingly display additional information on display screen
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JP2010191634A (en) Moving image creation program, moving image creation service provision system, and moving image reproduction program
JP2006048465A (en) Content generation system, program, and recording medium
JP4238662B2 (en) Presentation support device and presentation support method
JP2009025940A (en) Web page display system and display method therefor
JP4292902B2 (en) Content editing apparatus and content editing method
JP2004015748A (en) Moving image editing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Effective date: 20091130

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Written amendment

Effective date: 20100215

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100511

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 3

Free format text: PAYMENT UNTIL: 20130521

LAPS Cancellation because of no payment of annual fees