JP2007041861A - Content editing device, computer-readable program, and recording medium with the same recorded - Google Patents
Content editing device, computer-readable program, and recording medium with the same recorded Download PDFInfo
- Publication number
- JP2007041861A JP2007041861A JP2005225494A JP2005225494A JP2007041861A JP 2007041861 A JP2007041861 A JP 2007041861A JP 2005225494 A JP2005225494 A JP 2005225494A JP 2005225494 A JP2005225494 A JP 2005225494A JP 2007041861 A JP2007041861 A JP 2007041861A
- Authority
- JP
- Japan
- Prior art keywords
- content
- editing
- editable
- control unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、インターネットなどからのデータの取得、加工、表示の技術に関し、特に、データを加工編集して新たなマルチメディアコンテンツデータを生成するコンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体に関する。 The present invention relates to technology for acquiring, processing, and displaying data from the Internet and the like, and in particular, a content editing apparatus that processes and edits data to generate new multimedia content data, a computer-readable program, and a program recorded therein The present invention relates to a recording medium.
近年、コンピュータネットワークシステムの大容量化に伴い、一般家庭においても、様々なネットワーク端末向けのマルチメディアコンテンツを使ったサービスを利用する機会が増加してきている。ここでいうマルチメディアコンテンツとは、時間に伴って変化する、画像や動画、テキスト、サウンド、アニメーションなどが複合された、動くコンテンツを指し、現在インターネットでホームページの表示に主に用いられているHTML(Hyper Text Markup Language)のみで書かれたページのような静的な文書ベースのコンテンツとは異なるものである。これまでのマルチメディアコンテンツは、TVの例にも見られるように、一部の専門的な制作会社が、多数の視聴者向けに巨額費用をかけて制作し、配信するモデルで収益を得ている。 In recent years, with the increase in capacity of computer network systems, opportunities for using services using multimedia contents for various network terminals are increasing in general households. Multimedia content here refers to moving content that is a composite of images, moving images, text, sound, animation, etc. that changes over time, and is currently used mainly for displaying websites on the Internet. This is different from static document-based content such as pages written only in (Hyper Text Markup Language). As seen in the example of TV, conventional multimedia contents are profitable by a model in which some professional production companies produce and distribute large amounts of money for a large number of viewers. Yes.
マルチメディアコンテンツを制作して提供するための、PC(パーソナルコンピュータ)等における制作アプリケーションソフト類、専用の機器類もすでに多数提供されており、コンテンツ作成者は、上記のツール類を駆使して制作を行い、マルチメディアコンテンツを提供している。 A large number of production application software and dedicated devices for PCs (personal computers) etc. have already been provided to create and provide multimedia content, and content creators can make full use of the above tools. To provide multimedia content.
今後、ネットワークを介して、各個人向けにマルチメディアコンテンツを配信する際、既存の放送コンテンツ等との差別化をするためには、各個人の嗜好やプロファイルに対応した多様なコンテンツを提供していくことが必要となる。また、一部の専門の制作会社のみでなく、一般の情報提供者がコンテンツを配信することにより、より多様なコンテンツを、より多様な個人に提供することができる。ここで必要となるのは、多様な各個人向けのコンテンツを、安価に制作できるツールであり、また、専門の知識を習熟しなくても、紙の内容を書き換えるように、簡単に使えるツールである。 In the future, when distributing multimedia content to each individual via the network, in order to differentiate it from existing broadcast content, etc., we will provide various contents corresponding to individual preferences and profiles. It is necessary to go. Further, not only some specialized production companies but also general information providers can distribute contents, so that more diverse contents can be provided to more diverse individuals. What is needed here is a tool that can produce a variety of individual content at a low cost, and a tool that can be easily used to rewrite the contents of paper without having to master specialized knowledge. is there.
既存のマルチメディアコンテンツ制作ツールの多くは、いわゆる専門のコンテンツ作成者、デザイナーの専門家が利用するためのものであり、このツールを利用するためには、基本概念の学習、さらに、使いこなすためには熟練を要し、制作にも時間がかかる。 Many of the existing multimedia content creation tools are intended for use by so-called professional content creators and designer specialists. To use these tools, learn basic concepts and use them. Requires skill and takes time to produce.
そこで、後述する特許文献1には、Web上において、HTMLページを使い、テキスト、画像挿入等を予め決められた独自のフォーム編集画面上でおこない、雛形のマルチメディアコンテンツの情報変更を行う方法が開示されている。図32に示すように、予め設定されたフォーム編集画面上で編集可能な部分に文字や画像を入力することによってコンテンツの編集が可能となっている。これは、Webに慣れ親しんだユーザにとっては、専門のツールを使用するより、操作方法の理解は容易である。
しかし、特許文献1の技術では、テキスト、画像挿入等は予め決められた独自のフォーム編集画面上で行うため、編集画面は実際に掲載されるレイアウトとはかけ離れており、編集者がレイアウトの雰囲気を把握するためには、その都度生成したプレビュー画面を呼び出し、確認後、再度編集画面へ戻るという行為を繰り返す必要がある。従って、コンテンツの編集者にとっては、編集作業が極めて煩雑で使い勝手が悪いという問題があった。
However, in the technique of
本発明は、上述の課題を解決するためになされたものであって、Web上においてマルチメディアコンテンツの素材を簡単に変更して、新たなマルチメディアコンテンツを制作、表示することができるコンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体を提供することである。 The present invention has been made to solve the above-described problem, and is a content editing apparatus that can easily change the material of multimedia content on the Web to produce and display new multimedia content. It is another object of the present invention to provide a computer-readable program and a recording medium on which the program is recorded.
本発明は、時間軸上に配置されたマルチメディアコンテンツを再生中に任意の時間で再生を停止させ、停止時点のコンテンツ画像を表示させる再生制御手段と、前記コンテンツに設けられたオブジェクトを画像表示上で選択させ、選択されたオブジェクトを編集可能とする編集制御手段とを備え、前記オブジェクトが編集されると、編集されたマルチメディアコンテンツにより再生を行うことを特徴とするコンテンツ編集装置である。 The present invention provides a playback control means for stopping playback at an arbitrary time during playback of multimedia content arranged on a time axis, and displaying a content image at the time of stop, and displaying an object provided in the content The content editing apparatus includes an editing control unit that allows the selected object to be edited and edits the selected object, and reproduces the edited multimedia content when the object is edited.
また、選択されたオブジェクトの位置が編集可能領域であるかを監視する監視手段を備え、前記編集制御手段は、前記監視手段により選択されたオブジェクトの位置に前記編集可能領域が存在すると検出された場合に、選択されたオブジェクトを編集可能とすることを特徴とする。 And a monitoring unit that monitors whether the position of the selected object is an editable region, wherein the editing control unit is detected that the editable region exists at the position of the object selected by the monitoring unit. In this case, the selected object can be edited.
また、前記編集制御手段は、時間軸上におけるオブジェクトの移動に合わせて移動することを特徴とする。 Further, the editing control means moves according to the movement of the object on the time axis.
また、前記編集制御手段は、編集可能領域を透明とし、該編集可能領域が前記編集制御手段によって編集可能となったときに入力領域として可視化することを特徴とする。 Further, the edit control means makes the editable area transparent, and visualizes it as an input area when the editable area becomes editable by the edit control means.
また、前記編集可能領域は、画面上に複数存在し、且つそれぞれが時間軸上に独立で存在していることを特徴とする。 The editable area includes a plurality of editable areas, and each of the editable areas exists independently on the time axis.
また、前記編集制御手段は、前記編集可能領域に、複数の編集オブジェクト候補が含まれる編集リストを表示させ、その中から任意のオブジェクトを選択することを特徴とする。 The editing control means may display an editing list including a plurality of editing object candidates in the editable area, and select an arbitrary object from the list.
また、前記編集制御手段は、前記編集可能領域に、順に編集オブジェクト候補を表示させ、その中から任意のオブジェクトを選択することを特徴とする。 Further, the edit control means displays edit object candidates in order in the editable area, and selects an arbitrary object from them.
また、前記編集制御手段は、前記編集可能領域を入れ替え編集の領域とし、任意のオブジェクトに入れ替えることを特徴とする。 Further, the editing control means replaces the editable area as an editing area and replaces it with an arbitrary object.
また、前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトに関連するオブジェクトも編集することを特徴とする。 The editing control means also edits an object related to the object when an arbitrary object is edited.
また、前記編集制御手段は、任意のオブジェクトを編集した場合、該オブジェクトのシーンに関連するシーンを追加・削除することを特徴とする。 The editing control means adds or deletes a scene related to the scene of the object when an arbitrary object is edited.
また、前記再生制御手段は、任意のオブジェクトを編集した場合、この編集画面と同様の画面をネットワークを介して他の編集装置に表示できることを特徴とする。 The reproduction control means can display a screen similar to the editing screen on another editing apparatus via a network when an arbitrary object is edited.
また、本発明は、コンピュータに、上記手段を機能させるためのプログラムであってもよいし、このプログラムを記録した記録媒体であってもよい。 Further, the present invention may be a program for causing a computer to function the above means, or a recording medium on which this program is recorded.
本発明によれば、編集画面とプレビュー画面を同一に扱うので、マルチメディアコンテンツが掲載されるレイアウト画面のまま、思いのままにコンテンツ内の画像やテキストを変更でき、作業効率が上がる。簡単な操作性により、より多くの情報をリアルタイムに編集することで、常に新しい情報発信ができる。編集とプレーヤーを融合させることにより、一般の利用者が苦手なオーサリングツールを利用する必要がなくなる。 According to the present invention, since the editing screen and the preview screen are handled in the same manner, the image and text in the content can be changed as desired without changing the layout screen on which the multimedia content is posted, and the work efficiency is improved. With simple operability, new information can always be transmitted by editing more information in real time. By fusing editing and players, it is no longer necessary for ordinary users to use authoring tools that are not good at using them.
以下、本発明の実施の形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態に係るコンテンツ編集/生成システムの全体構成を示すブロック図である。本システムは、ノートパソコンや携帯電話等からなるコンテンツ編集端末101、コンテンツ生成サーバ102及びパソコンやテレビ等からなるコンテンツ受信端末103が、インターネット等の通信回線であるネットワーク104を介してそれぞれ接続されている。なお、コンテンツ編集端末101、コンテンツ生成サーバ102及びコンテンツ受信端末103は、同様の構成のものがネットワーク104に複数接続されていてもよい。また、これらの端末/サーバが物理的に同一の端末内に位置してもよい。
FIG. 1 is a block diagram showing an overall configuration of a content editing / generation system according to an embodiment of the present invention. In this system, a
ここでいうコンテンツとは、動画、静止画、楽音、文字列、アニメーション等の各種種類のメディアが混合されたデータをさし、時間の進行に合わせて、各メディアがあらかじめ定められたスケジュール、および指定された位置にて画面上で表示できるものをさす。ここで、コンテンツには、位置や形状を時間の進行に沿って動的に変化させて画面上で表示が可能なものを含む。 The content here refers to data in which various types of media such as moving images, still images, musical sounds, character strings, animations, etc. are mixed, and each media has a predetermined schedule as time progresses, and The one that can be displayed on the screen at the specified position. Here, the content includes content that can be displayed on the screen by dynamically changing the position and shape with the progress of time.
図2は、コンテンツ生成サーバ102の一実施例を示すブロック図である。このコンテンツ生成サーバ102は、ソフトウェアモジュールの形で実装されており、テンプレート登録部201、素材/変更データ入力部202、コンテンツ生成部203、コンテンツ素材テンプレート保存部204、編集情報送信部205からなる構成である。ここで、コンテンツ/素材/テンプレート保存部204には、コンテンツ、素材、テンプレート、コンテンツ表示編集モジュール等が保存されている。
FIG. 2 is a block diagram illustrating an embodiment of the
まず、あらかじめ、テンプレート作成者が、テンプレート206を製作して、テンプレート登録部201を通じてコンテンツ/素材/テンプレート保存部204に登録しておく。ここでテンプレートとは、コンテンツのシナリオの進行や画面デザインを示す雛形である。
First, a template creator creates a
コンテンツの編集や生成をするコンテンツ作成者は、コンテンツ編集端末101から、コンテンツ生成サーバ102にアクセスし、素材/変更データ入力部202を通じて、コンテンツ/素材/テンプレート保存部204に登録されている中から使いたいテンプレートを選択する。このとき、選択したテンプレートデータ206は、編集情報送信部205を通じてコンテンツ編集端末101へ出力される。コンテンツ作成者は、コンテンツ編集端末101にテンプレートを表示させ、テンプレートに合わせて、素材(画像、サウンド、動画、テキスト)を入力する。この素材データは、素材/変更データ入力部202を通じて、コンテンツ/素材/テンプレート保存部204に登録され、編集情報送信部205を通じてコンテンツ編集端末101へ出力され、コンテンツ編集端末101にて表示されてコンテンツ作成者が確認できる。
A content creator who edits or generates content accesses the
コンテンツ作成者が、上記コンテンツ編集を完了した時点で、コンテンツ生成をコンテンツ編集端末101から指示した場合、素材/変更データ入力部202が、最終的にコンテンツ/素材/テンプレート保存部204に登録したテンプレートデータ206と素材データとをコンテンツ生成部203に出力する。コンテンツ生成部203は、素材データをテンプレートデータ206に埋め込むことによって、コンテンツ207を生成し、このコンテンツが各受信端末103に配信される。
When the content creator has instructed content generation from the
(データ構成)
次に、コンテンツ生成サーバ102により生成されるコンテンツのデータ構造について説明する。
上述したように、テンプレート作成者がコンテンツ生成サーバ102に登録するテンプレート206を制作する場合、図3に示すように、ある言語で記述されたコンテンツファイル301をもとに、テンプレートファイル302を作成する。
ここでコンテンツファイル301は、例えばSMIL(Synchronized Multimedia Integrated Language)等の言語にて記述される。この言語で記述すると、各メディアが定められたタイミングで同期されて画面上に定められたレイアウトで表示される。
(Data structure)
Next, the data structure of content generated by the
As described above, when the template creator creates the
Here, the
図4〜図6にSMILによって記述されたマルチメディアコンテンツの記述例を示す。図4〜図6に示されるように、文書は<smil>と</smil>で開始と終了を表す。文書内には大きく分けると<head>と<body>の2つの要素がある。<head>〜</head>はオプションとして記述され、レイアウトやタイトルの定義など、SMIL文書全体に関する詳細情報がこの中に記述される。 FIGS. 4 to 6 show examples of description of multimedia contents described by SMIL. As shown in FIGS. 4 to 6, the document indicates the start and end with <smil> and </ smil>. There are two elements in the document: <head> and <body>. <Head> to </ head> are described as options, and detailed information about the entire SMIL document, such as layout and title definitions, is described therein.
レイアウトの設定は、<head>タグの中で<layout>タグを用いて行われる。<root−layout>タグで全体の表示領域のサイズを設定し、<region>タグで各部のサイズを指定する。それぞれの領域に識別子をつけることができ、後で参照することができる。 The layout is set using the <layout> tag in the <head> tag. The size of the entire display area is set with the <root-layout> tag, and the size of each part is specified with the <region> tag. Each region can be given an identifier and can be referenced later.
<root−layout>で全体の表示領域の幅と高さを指定するには、width,height属性などを用い、背景色設定のためには、backgroundColor属性を用いる。<region>タグでは同様にwidth,height属性にて各部のサイズを指定し、さらに、全体の表示領域に対してどの部分に位置するかを、top属性にて全体画面の上端からの位置,left属性にて全体画面の左端からの位置を指定して示す。背景色設定のためには、backgroundColor属性を用い、各部メディアのお互いの重なり合いの順番をz−index属性(値が大きいほど最上面)にて表す。 In order to specify the width and height of the entire display area in <root-layout>, the width and height attributes are used, and the backgroundColor attribute is used for setting the background color. Similarly, in the <region> tag, the size of each part is specified by the width and height attributes, and the part to be positioned with respect to the entire display area is determined by the top attribute, the position from the upper end of the entire screen, and the left Specify the position from the left edge of the entire screen in the attribute. In order to set the background color, the backgroundColor attribute is used, and the overlapping order of the media in each part is represented by the z-index attribute (the higher the value, the uppermost surface).
id属性で、表示領域に識別子を付けることができる。
fit属性を用いて、「<region/>タグにより指定された再生領域」と、「関連付けられるメディアの表示サイズ」が異なる場合に、再生領域内でどのように表示させるか指定することができる。fit属性の値をhiddenとした場合、メディアの元のサイズのまま領域の上部左端に配置し、メディアが領域よりも小さい場合、残りの部分は領域の背景カラーになり、逆に、メディアが領域よりも大きい場合は、入りきらない領域は切り取られる。その他fit属性が取りうる値は、fill、meet、sliceなどがある。
An identifier can be attached to the display area with the id attribute.
The fit attribute can be used to specify how to display within the playback area when the “playback area specified by the <region /> tag” differs from the “display size of the associated media”. If the value of the fit attribute is hidden, it is placed at the upper left corner of the area with the original size of the medium, and if the medium is smaller than the area, the rest will be the background color of the area, conversely, the medium will be the area If it is larger than that, the area that cannot be fully inserted is cut off. Other values that can be taken by the fit attribute include fill, meet, and slice.
なお、<head>タグ内には、<layout>タグによる各領域の指定のほかに、
<transition>タグにて、トランジションを指定することができる。トランジションとは、メディアが再生されたり、終了したり、次のメディアに切り替わったりする際の画面上の遷移効果のことで、領域の4方向から四角形が出てきて覆いかぶさるように次のメディアが出てくるfourBoxWipeや、メディアが薄くなって消えていき、次のメディアが濃くなってきて表示が切り替わるcrossfadeなどがある。
In the <head> tag, in addition to specifying each area with the <layout> tag,
A transition can be specified by a <transition> tag. A transition is a transition effect on the screen when the media is played, finished, or switched to the next media. The next media is covered so that a square appears from the four directions of the area. There are fourBox Wipe that comes out, crossfades that the media becomes thinner and disappears, and the next media becomes darker and the display is switched.
ここでも、id属性で、指定したトランジションに識別子を付けることができる。
<body>〜</body>は必須であり、この中に、再生対象となるメディアデータの指定や、時間の進行に伴った動作の指定が記述される。
一つのメディアを指定して再生するためのタグとして、静止画、音声、動画、アニメーション、テキストストリーム、テキストなど、メディアの種類別に、<img>、<audio>、<video>、<animation>、<textstream>、<text>などのタグ名が用意されているが、再生環境により再生できるメディアの種類や、サポートしているタグ名は変わる。
Again, an identifier can be attached to the specified transition with the id attribute.
<Body> to </ body> are indispensable, and in this, specification of media data to be reproduced and specification of operation along with the progress of time are described.
As tags for specifying and playing back a single media, <img>, <audio>, <video>, <animation>, by type of media such as still image, audio, video, animation, text stream, text, etc. Although tag names such as <textstream> and <text> are prepared, the type of media that can be played back and the supported tag names vary depending on the playback environment.
複数のメディアをひとまとめにグルーピングして再生させるためのタグには、<par>タグと<seq>タグがある。この2つのグループは必要に応じて組み合わせて使われる。<par>で指定された複数メディアは並列に再生され、<seq>で指定された複数メディアは順番に再生される。各メディア、またはグルーピングされた複数のメディアに対して、開始時間、継続時間、終了時間をそれぞれbegin、dur、end属性にて指定することができる。 Tags for grouping and reproducing a plurality of media collectively include a <par> tag and a <seq> tag. These two groups are used in combination as necessary. A plurality of media designated by <par> are reproduced in parallel, and a plurality of media designated by <seq> are reproduced in order. For each medium or a plurality of grouped media, the start time, duration time, and end time can be specified by the begin, dur, and end attributes, respectively.
また、各メディアは、前出の<region>タグ内のid属性に指定した識別子を、そのメディアにおけるregion属性に指定することによって、メディアを表示する領域を表すことができる。
また、各メディアは、前出の<transition>タグ内のid属性に指定した識別子を、そのメディアにおけるtransIn属性等に指定することによって、メディアを表示する際のトランジション効果を表すことができる。
Each medium can represent an area for displaying the media by designating the identifier designated in the id attribute in the above <region> tag in the region attribute of the media.
Each media can represent the transition effect when displaying the media by designating the identifier designated in the id attribute in the <transition> tag described above in the transIn attribute of the media.
また、メディアのデータ実体は、src属性を使って、URL(Unified Resource Locator)を使って指定することができる。
例えば、外部ネットワークに存在する画像のデータの参照は、<img src=”http://xxx.yyy.zzz.com/grapefruits.jpg” />のように指定する。 静止画、音声、動画、アニメーション、テキストなどのメディアのデータ実体は URL内で、*.jpg, *.mpg, *.svg, *.txtなどファイル名の指定にて行うのが通常であるが、そのほかの指定方法も可能である。例えばテキスト表示の指定は、src=hogehoge.txt、の形で行われる場合もあるし、src=data;(実テキスト)....の形でテキストの内容を直接指定することも可能である。今回の実施例のテキスト表示は、後者を用いている。
Further, the data entity of the media can be specified using a URL (Unified Resource Locator) using the src attribute.
For example, the reference of the image data existing in the external network is specified as <img src = “http://xxx.yyy.zzz.com/graphefrits.jpg” //. Normally, media data entities such as still images, audio, video, animation, and text are specified in the URL by specifying file names such as * .jpg, * .mpg, * .svg, * .txt. Other designation methods are also possible. For example, text display may be specified in the form of src = hogehoge.txt, or the text content can be specified directly in the form of src = data; (actual text) .... . The text display of the present embodiment uses the latter.
図7及び図8は、SMILテンプレートを記述する仕様の例を示す図である。SMILテンプレートは、既存のSMILコンテンツの記述を拡張して行われる。SMILで記述されたコンテンツ内で、別の素材で置き換え可能な箇所に記載を追加する。図7、図8の例では、拡張のためのタグ名として<SmilElement>を用いるが、拡張子名及び拡張のための文法は任意である。 7 and 8 are diagrams showing examples of specifications describing the SMIL template. The SMIL template is performed by extending the description of the existing SMIL content. A description is added to a place that can be replaced with another material in the content described in SMIL. In the examples of FIGS. 7 and 8, <SmilElement> is used as the tag name for extension, but the extension name and the grammar for extension are arbitrary.
例えば、図7(a)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を他の画像に置き換えてもよいなら、ここに記述を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)” inputtype=”userinput” region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像の箇所が置き換え可能となる。この記述内のcomment属性で示された部分は、コンテンツ作成者に伝えたいメッセージを記入しておく(置き換えるべき画像の種類など)。
この表記を用いると、この画像を選んだときに、画像の箇所に、編集しているブラウザの外部に、OSにおけるファイル選択のボックスが用意されている場合はそれが現れ、置き換える画像のファイル名を入力または選択することによって画像を変更する操作が行うことができる。ファイル選択のボックスがない場合は、同じ箇所に、テキストボックスのみがあらわれ、置き換える画像ファイル名を入力することによって画像を変更する操作が行うことができる。
For example, as shown in FIG. 7A, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “
Using this notation, when this image is selected, if there is a file selection box in the OS outside the editing browser, it will appear and it will be displayed, and the file name of the image to be replaced An operation for changing an image can be performed by inputting or selecting. When there is no file selection box, only a text box appears at the same location, and an operation for changing an image can be performed by inputting an image file name to be replaced.
また、図7(b)に示すように、テキストを配置する記述<text region=“specialprice” src=“data;248円
” dur=“2s” fill=“hold”/>において、このテキストを他のテキストに置き換えてもよいなら、ここに記述を追加し、<SmilElement type=“text” name=“specialprice1” comment=“値下げ後価格、10文字以内(例:97円)” inputtype=”userinput” region=“specialprice” src=“data;248円” dur=“2s” fill=“hold”/> とすると、このテキストの箇所が置き換え可能となる。この記述内のcomment属性で示された部分は、コンテンツ作成者に伝えたいメッセージを記入しておく(置き換えるべきテキストの種類など)。
この表記を用いると、このテキストを選んだときに、同じ箇所に、テキストボックスがあらわれ、置き換えるテキストを入力することによってテキストを変更する操作が行うことができる。
In addition, as shown in FIG. 7B, in the description <text region = “specialprices” src = “data; 248 yen”, dur = “2s” fill = “hold” /> If you want to replace it with the text below, add a description here, <SmilElement type = “text” name = “specialprice1” comment = “Price after price cut, within 10 characters (eg 97 yen)” inputtype = “userinput” If region = “special price” src = “data; 248 yen” dur = “2 s” fill = “hold” />, this text can be replaced. In the part indicated by the comment attribute in this description, a message to be transmitted to the content creator is entered (such as the type of text to be replaced).
When this notation is used, when this text is selected, a text box appears at the same place, and the operation of changing the text can be performed by inputting the replacement text.
また、図8(a)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、マウス操作にて他の画像に置き換える方法を指定する場合は、図7(a)の場合にさらにinputtype=”draganddrop" の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)” inputtype=”draganddrop" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像の箇所がマウスのドラッグ&ドロップ操作で置き換え可能となり、編集しているブラウザの外部から、画像アイコンをドラッグ&ドロップして画像を変更する操作が行うことができる。
Further, as shown in FIG. 8A, in the description <img region = “pic” src = “graffruits.jpg” dur = “3 s” transIn = “
また、図8(b)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、複数の候補から一つを選んで他の画像に置き換える方法を指定する場合は、図7(a)の場合にさらにinputtype=”listbox" option=”grapefruits.jpg, kabocha.jpg, rice.jpg"の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)”inputtype=”listbox" option=”grapefruits.jpg, kabocha.jpg, rice.jpg" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、この画像を選んだときに、複数の候補が列挙されているリストボックスが表示され、その中から一つを選んで他の画像に置き換える方法を指定する操作を行うことができる。
Further, as shown in FIG. 8B, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “
また、図8(c)に示すように、画像を配置する記述<img region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>において、この画像を、複数の候補から一つを選んで他の画像に置き換える(オンクリック切り替え)方法を指定する場合は、図7(a)の場合にさらにinputtype=” onclickchange" option=”grapefruits.jpg, kabocha.jpg, rice.jpg"の要素を追加し、<SmilElement type=“image” name=“syohin1” comment=“製品画像(400x300)”inputtype=”onclickchange" option=”grapefruits.jpg, kabocha.jpg, rice.jpg" region=“pic” src=“grapefruits.jpg” dur=“3s” transIn=“cross3” fill=“hold”/>とすると、マウスクリックでこの画像を選んだときに、さらに同じ箇所でマウスクリックを行うと、複数の候補が次々に置き換わり、その後の決定操作(そのまま一定時間たつ、あるいはダブルクリック、または別キーを押すなど)により、その中から一つを選んで他の画像に置き換える方法を指定する操作を行うことができる。
In addition, as shown in FIG. 8C, in the description <img region = “pic” src = “graphfruits.jpg” dur = “3 s” transIn = “
なお、inputtype属性の表記は省略することができ、その際の挙動はinputtype=”userinput”を指定したときと同様となるが、省略した際にdraganddrop指定時などの挙動を行わせるようにしてもよい。 Note that the description of the inputtype attribute can be omitted, and the behavior at that time is the same as when inputtype = “userinput” is specified, but when omitted, the behavior such as when draganddrop is specified may be performed. Good.
図4〜図6のSMILコンテンツをこのルールで置き換えテンプレート化したものが図9〜図12である。このように、既存のコンテンツに記述を追加したテンプレート化することが可能である。 FIGS. 9 to 12 show templates obtained by replacing the SMIL contents shown in FIGS. 4 to 6 with this rule. In this way, it is possible to create a template by adding a description to existing content.
また、今回、素材の置き換えのみではなく、シーンという概念を扱えるように、コンテンツ内のある範囲を、<SmilElement type=“scene_info” name=“scene3” tag_type=“par”></SmilElement>のように括ることができる。このようにすると、この括られた部分はまとまってシーンとして扱われ、シーンとして削除したり、このシーンを別の箇所に挿入したりすることが可能となる。 Also, this time, in order to handle not only material replacement but also the concept of scenes, a certain range in the content is expressed as <SmilElement type = “scene_info” name = “scene3” tag_type = “par”> </ SmilElement> It can be bundled. In this way, the bundled portion is collectively treated as a scene, and can be deleted as a scene or inserted into another location.
また、複数のオブジェクトをまとめて置換するグループという単位を導入することも可能である。この際は、図13に示すように、コンテンツ内に、<SmilElement type=“group_info” id=“1” >と記載して、グループであることを設定しておく。このなかで、group_element要素にて、グループを構成するオブジェクトの組を指定している。図13の例では、画像オブジェクト2つとテキストオブジェクト2つが、id番号がimg1、txt1b、txt1cとして、グループとして指定されている。
次のgroup_set要素にて、これらのオブジェクトがとりうる値が指定される。
group_set要素は複数存在してもよい。
group_element要素にて、グループとして扱われた要素は、表示画面中のこれらの要素の一箇所がユーザにより変更されたときに、group_element要素にて同じグループに登録されている他の部分も、group_set要素にて自動的に変更される。例えば、ユーザにより、txt1bオブジェクトの値が”グレープフルーツ”に変更されたとき、txt1cオブジェクトの値は”128円”となる。
It is also possible to introduce a unit called a group for replacing a plurality of objects together. In this case, as shown in FIG. 13, <SmilElement type = “group_info” id = “1”> is described in the content to set the group. In this group, a group of objects constituting a group is specified by a group_element element. In the example of FIG. 13, two image objects and two text objects are designated as groups with id numbers img1, txt1b, and txt1c.
In the next group_set element, values that these objects can take are specified.
There may be a plurality of group_set elements.
The element treated as a group in the group_element element is the group_set element when other parts registered in the same group in the group_element element when one place of these elements in the display screen is changed by the user. Will be changed automatically. For example, when the value of the txt1b object is changed to “grapefruit” by the user, the value of the txt1c object is “128 yen”.
図14はコンテンツ編集端末101のハード構成を示すブロック図である。このコンテンツ編集端末101は、例えばパーソナルコンピュータであり、画像を表示するUI(User Interface)出力装置401、ハードディスク等のストレージ(蓄積記憶装置)402、ネットワーク104に接続するためのネットワークI/F403、マウスやキーボードやリモコン等のUI入力装置404、プロセッサ405、メモリ(ROM/RAM)406からなる。
FIG. 14 is a block diagram showing a hardware configuration of the
図15は、コンテンツ編集端末101で動作するプロセッサ405の機能ブロック図である。このプロセッサ405は、ソフトウエアにより次のような機能ブロックとして動作する。すなわち、Windows(登録商標)、Linux、itron等のOS(Operating System)501、入出力管理部502、ストレージ管理部503、通信管理部504、ネットワークコンテンツ閲覧部505、マルチメディアコンテンツ表示編集部506として機能する。
FIG. 15 is a functional block diagram of the
マルチメディアコンテンツ表示編集部506は、UI出力装置(ディスプレイ)401にコンテンツを表示させて編集するためのものであり、初期の状態でコンテンツ編集端末101にない場合、外部サーバなどからダウンロードして取得される。ネットワークコンテンツ閲覧部505は、一般にPC上などで実行されるHTMLブラウザであり、マルチメディアコンテンツ表示編集部506は、このHTMLブラウザで実行可能な外部モジュールの形式(プラグイン)として実行されてもよいし、このHTMLブラウザがない場合は、独立して実行されてもよい。
The multimedia content display /
図16は、マルチメディアコンテンツ表示編集部506の構成を示すブロック図である。このマルチメディアコンテンツ表示編集部506は、再生制御部601、編集制御部602、レイアウト/スケジュール解析部603、構造解析部604、メディア蓄積部605、タイマー606、ファイル取得部/送信部607、メディア再生部608、音声再生部(重ね合わせ制御)609、描画部(重ね合わせ制御)610、入力領域表示部611、編集可能領域監視部612、入力部613、コンテンツ生成/編集部614、更新情報送受信部615からなる構成である。
FIG. 16 is a block diagram illustrating a configuration of the multimedia content
SMILで記述されたコンテンツ206がファイル取得部/送信部607から入力され、構造解析部604で解析されて、DOMツリー/SAXイベント616が出力される。ここで、DOMツリー/SAXイベント616とは、W3C(World Wide Web Consortium)で規定されるファイルの内部表現(DOM:Document Object Model、SAX:Simple API for XML)をいう。実施形態によっては、この形式でなく、独自の形式で行ってもよい。また、このデータの生成自体が省略される場合もある。
The
図17にDOMツリーの例を示す。DOMツリーの場合は、各要素の構造がツリー上に展開され、レイアウト/スケジュール解析部603から利用可能になる。図18にSAXイベントの例を示す。SAXイベントの場合は、解析された内容がイベントとして処理順に時系列に並べられて、レイアウト/スケジュール解析部603に送信される。
FIG. 17 shows an example of a DOM tree. In the case of a DOM tree, the structure of each element is expanded on the tree and can be used from the layout /
こうして、レイアウト/スケジュール解析部603では、DOMツリー/SAXイベント616を解析して、レイアウトテーブル617とスケジュールテーブル618を出力する。図19にレイアウトテーブル617の例を示す。レイアウトテーブル617は、各メディアオブジェクトが表示されるべき位置および領域などを記憶している。スケジュールテーブル618は、各メディアオブジェクトが表示されるべきタイミングを記憶している。図20に例を示すように、各メディアオブジェクトにおける再生開始時間、再生終了時間のほか、再生時間、繰り返し属性、効果属性が記憶されている。ここで、SMIL自体の記載が、<par>や<seq>ノードから構成される入れ子上の表現になっているため、開始時間や終了時間は、その親ノードや子ノードの再生時間に影響されるため、表の中の開始時間、終了時間、再生時間は、それらの再生時間を加算したもの、という意味合いをさす。
In this way, the layout /
図20に編集可能領域テーブル619の例を示す。これは、同様にレイアウト/スケジュール解析部603によって生成されるものであり、オブジェクトのid、変更可か不可のフラグ、変更受付位置、変更受付領域のサイズ、編集領域の形態(テキストボックス、リストボックス、ドラッグ&ドロップ、オンクリック切り替え、etc)、オブジェクトの入れ替えを、いくつかの候補から選択する場合の選択候補情報、変数の初期値、が記憶される。このテーブルは、レイアウトテーブル617およびスケジュールテーブル618の中に含まれてもよい。
FIG. 20 shows an example of the editable area table 619. This is similarly generated by the layout /
図22は、一括変換等に使うためのグループを定義するテーブル620の例を示している。group_id、グループ要素、一括置換候補設定が記憶されている。これは、グループ要素に含まれているオブジェクトidのどれかひとつを変更した場合、このグループの残りのオブジェクトも合わせて変更されるように設定されるものである。例えば、オブジェクトidがimg1の画像が“grapefruits.jpg”に変わると、オブジェクトidがtxt1bのテキストが“グレープフルーツ”に変わり、オブジェクトidがtxt1cのテキストが“95円”となる。また、オブジェクトidがtxt1bのテキストが“カボチャ”に変わると、オブジェクトidがimg1の画像が“kabocha.jpg”に変わり、オブジェクトidがtxt1cのテキストが“120円”となる。 FIG. 22 shows an example of a table 620 that defines groups for use in batch conversion or the like. The group_id, group element, and batch replacement candidate setting are stored. This is set so that when any one of the object ids included in the group element is changed, the remaining objects of this group are also changed. For example, when the image with the object id “img1” changes to “graphfruits.jpg”, the text with the object id “txt1b” changes to “grapefruit”, and the text with the object id “txt1c” becomes “95 yen”. When the text with the object id txt1b changes to “pumpkin”, the image with the object id img1 changes to “kabocha.jpg”, and the text with the object id txt1c becomes “120 yen”.
図23は、シーンテーブル621の例を示す図である。シーンテーブル621では、あらかじめ定義された各シーンが削除可能か、追加可能か(このシーンの後ろに新しいシーンが追加される)、追加可能なシーンの種類が設定される。 FIG. 23 is a diagram illustrating an example of the scene table 621. In the scene table 621, whether or not each scene defined in advance can be deleted or added (a new scene is added after this scene) is set.
図24は、コンテンツ編集端末101で実行される編集可能なコンテンツの再生処理を示すフローチャートである。まず、コンテンツ作成者は、コンテンツ編集端末101を用い、ネットワーク104を介してコンテンツ生成サーバ102にアクセスし、編集を行うためのテンプレートの選択を行う(S11)。この際の方法として、HTMLブラウザ等を使うことなどが考えられる。テンプレートを選択する際には、コンテンツ生成サーバ102におけるコンテンツ/素材/テンプレート保存部204内のテンプレートに対する情報を閲覧したり、ジャンル分けされているテンプレートから選別したり、プレビューなどを行って便宜的に選べるようにする。コンテンツ作成者がテンプレートを決定した後、コンテンツ生成サーバ102から選択されたテンプレートデータ206がコンテンツ編集端末101に送られ、そのテンプレートデータ206を元にしてコンテンツ編集を開始する。開始の方法はHTML内で開始ボタンやリンクを押したりすることなどが考えられる。
FIG. 24 is a flowchart showing editable content reproduction processing executed by the
コンテンツ編集開始時には、コンテンツ編集端末101がコンテンツ生成サーバ102から、編集に必要なテンプレート(および雛形として使用されている素材データ)をファイル取得部607を通じて取得し、メディア蓄積部605に一時的に保存する(S12)。その後、テンプレートを読み取って編集開始を行うが、この際、端末101内にマルチメディアコンテンツ表示編集部506がない場合、外部サーバから該編集部506をダウンロードする(S13)。
When content editing starts, the
マルチメディアコンテンツ表示編集部506は、ダウンロードされたSMILテンプレート206を構文解析し、内部表現(DOMツリーやSAXイベントなど)616に変換する(S14)。このステップは実装の形態やテンプレートの形態によっては、省略されてもよい。
The multimedia content
この後、内部表現616は、レイアウト/スケジュール解析部603にて、内部表現616から、描画に必要なレイアウトテーブル617、スケジュールテーブル618を作成する(S15)。続いてレイアウト/スケジュール解析部603にて、内部表現616から、さらに、編集可能領域、変更可能内容、変数初期設定、グループ設定、選択候補設定を抽出して、編集可能領域テーブル619の作成を行う(S16)。このステップは、編集可能領域テーブル619が、レイアウトテーブル617およびスケジュールテーブル618の中に含まれる場合は、S15と共通で行われる。その後、上記レイアウトテーブル617、スケジュールテーブル618の内容を元に、再生制御部601が、再生に必要な各メディア再生部608を起動し、再生を行う(S17)。なお、再生処理は、前のステップ(S14〜S16)による処理の終了を待たず、再生可能な情報が揃った時点で再生開始してもよい。
Thereafter, the internal representation 616 creates a layout table 617 and a schedule table 618 necessary for drawing from the internal representation 616 in the layout / schedule analysis unit 603 (S15). Subsequently, the layout /
次に、上記編集可能領域テーブル619の内容を元に、編集制御部602が編集可能領域監視部612を起動する(S18)。この処理は、S17の処理が行われると同時に、または並行して行われてもよい。そして、コンテンツ作成者が編集したいオブジェクトを指定したか否かを確認し(S19)、オブジェクトを指定した場合はコンテンツ編集処理を行う(S20)。オブジェクトを指定する方法として具体的には、コンテンツが表示されている画面上で、編集したいオブジェクトが表示されている位置をマウスでクリックする方法が一般的であるが、マウスがない場合、例えばTVのリモコンを使いたい場合、リモコンの上下左右キーを押すと、画面内に表示われているオブジェクトがフォーカスされ(オブジェクトの周りが矩形で囲われるなどの表示)、キーの押下により次々に移り変わる方法がある。
オブジェクト指定が行なわれない場合は、スケジュールテーブル618の内容から再生処理が完了していれば(S21)、再生処理を終了し、再生処理が完了していなければ、S17に戻る。
Next, based on the contents of the editable area table 619, the
If no object is specified, the reproduction process is completed from the contents of the schedule table 618 (S21), and the reproduction process is terminated. If the reproduction process is not completed, the process returns to S17.
図25は、S20におけるコンテンツ編集端末101で実行される編集可能なコンテンツの編集処理を示すフローチャートである。S19において、コンテンツ作成者(ユーザ)が編集したいオブジェクトを指定したとき、ユコンテンツ作成者が指定した位置に、編集可能領域が設定されているかどうかを編集可能領域監視部612によって判断し(S31)、もし編集可能領域が設定されていない場合は、再生制御部601は再生をそのまま続行する。編集可能領域が設定されている場合、まず再生制御部601は、再生を一時停止し(S32)、入力領域表示部611により、指定したオブジェクトがある位置に、入力領域が表示され、コンテンツ作成者の入力待ちとなる(S33)。この際の入力領域は、コンテンツ内のオブジェクトの上に重なる形で表示され、入力領域の形式は、オブジェクトのメディアの種類(画像、テキスト、サウンド等)や、編集可能内容の種類(あらかじめ設定された、候補の選択肢があるか、新規入力が必要か、マウスのドラッグ&ドロップが必要か...)によって異なる。
FIG. 25 is a flowchart showing editable content editing processing executed by the
その後、ユーザが入力処理を行って完了の処理を行う(S34)。このときの入力操作として、画像の置き換えの場合は、リストボックスによる選択、外部からドラッグ&ドロップ、マウスをクリックした際に次々に候補画像が置き換わる方法がある。テキスト入力の場合は、テキストを一文字づつ打ち込む方法のほか、テキストエリアをクリックすると、順次変わるようにできる。例えば、(7月−>8月−>9月....)などである。また、下に、スライダーバーを設け、進行中または一時停止状態を示すことができ、かつ、少し戻ったりもできる。また、これら置き換え操作を行っているとき、置き換えられるオブジェクトに、グループ設定がされている場合、編集制御部602は、そのオブジェクトの内容のみでなく、そのオブジェクトに関連されている別オブジェクトの内容も、あらかじめ設定されている選択候補にて置き換えることができる。
Thereafter, the user performs input processing and completes processing (S34). As an input operation at this time, in the case of image replacement, there are methods of selecting candidate images one after another by selecting from a list box, dragging and dropping from the outside, or clicking a mouse. In the case of text input, in addition to typing text one character at a time, clicking on the text area can change the text sequentially. For example, (July-> August-> September ...). In addition, a slider bar can be provided below to indicate an ongoing or paused state, and to return slightly. In addition, when performing these replacement operations, if group settings are made for the object to be replaced, the
編集制御部602は、入力領域表示部611を通じて、編集の際の入力領域にドラッグ&ドロップすることにより、オブジェクトの位置を変えることができる。また、領域の大きさは、自動的にテキストの長さによって調整されるように可変の設定もできる。入力完了の際、完了の操作は、テキスト入力の場合は改行押下など、規定の操作をもって入力完了となる。
The
編集制御部602は、指定した編集可能領域に一致するオブジェクトの情報を、入力部613を通じて入力された値で置換(テーブル等の更新)し(S35)、かつ、指定した位置で、入力領域表示部を通じて入力領域の消去(透明化)を行い(S36)、古いオブジェクトを消去(S37)が行われる。その後、再生制御部601が新しい内容のオブジェクトを登録(必要に応じて、新規メディアデータを取得)して表示する(S38)。このとき、コンテンツ表示画面は変更されているが、元のコンテンツ(SMILコンテンツ)はまだ変更されていないため、この変更が必要となる。そのための方法として、更新された新しい情報が(必要に応じて、メディアデータを付加)をサーバに送信する方法と、更新情報を、ローカルのコンテンツ生成/編集部614に渡してSMILコンテンツを生成する方法(S39)がある。このステップは機能的には独立しているので、S37の直後に行ってもよい。
The
その後、編集制御部602が、指定した編集可能領域がグループ設定されているかどうかを判断し(S40)、編集可能領域がグループ設定されている場合、グループに相当する全てのオブジェクトの箇所が変更されているかを判断する(S41)。グループに相当する全てのオブジェクトの箇所が変更されるまで、S35〜S39の処理を繰り返して、あらかじめ設定されていた値で置き換える。書き換え処理が終了すれば、S17に戻って再生処理を行う。
S40において、編集可能領域がグループ設定されていない場合は、S17に戻って再生制御部601が再生処理を行う。
Thereafter, the
If the editable area is not set as a group in S40, the process returns to S17 and the
図26は、コンテンツ編集時の画面表示の一例を示す説明図である。画面上には、画像オブジェクト701や文字のオブジェクト702が表示されており、編集可能領域703が、変更可能なオブジェクトに重なって位置している。ユーザからは透明状態に見える。ユーザがマウスカーソル704を編集可能領域に合わせてルクリックすると、入力領域705が現れる。図の例ではテキストボックスが現れている。これをユーザがキーボードを使って編集する。一番下の段に、編集バー706があるが、これは、一時停止状態のときのみ表示するようにしてもよい。編集バー706にはBGM設定ボタン707、スライダ708、シーン追加ボタン709、シーン削除ボタン710がある。
FIG. 26 is an explanatory diagram showing an example of a screen display during content editing. An image object 701 and a
BGM設定ボタン707を押すと、あらかじめ設定していた入力領域が現れBGM変更可能となる。このボタンを押し続けてBGMが次々変わるように構成してもよい。スライダ708は、コンテンツの進行の経過を表し、真ん中のポインタを左右に動かすと、再生中の画面をさかのぼって表示、または先送りして表示することができる。シーン追加ボタン709を押すと、このシーンの後にシーン追加可能であれば、シーンが追加される。シーン削除ボタン710を押すと、現在表示中のシーンが削除可能であれば、シーンが削除される。 When the BGM setting button 707 is pressed, an input area set in advance appears and the BGM can be changed. The BGM may be changed one after another by continuously pressing this button. The slider 708 indicates the progress of the content, and when the middle pointer is moved to the left or right, the screen being played back can be displayed backward or forwarded. When a scene addition button 709 is pressed, a scene is added if a scene can be added after this scene. When a scene deletion button 710 is pressed, if the currently displayed scene can be deleted, the scene is deleted.
ユーザ操作の面から見た編集時のスクリーンショット例を図27に示す。図27(a)に示すように、コンテンツの編集を開始すると、コンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。このとき、編集したい箇所が現れたら、その箇所をクリックする。すると、図27(b)に示すように、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。図の例では、価格のところをクリックしたので、価格の変更を行うためのテキストボックスが入力フォーム705である。 FIG. 27 shows an example of a screen shot during editing as viewed from the user operation side. As shown in FIG. 27A, when the editing of the content is started, the reproduction of the content starts, and the content dynamically changes with the passage of time. At this time, if a location that you want to edit appears, click that location. Then, as shown in FIG. 27B, the content is paused at that time, and an input form appears at a position where editing is desired. In the example of the figure, since the price is clicked, the text box for changing the price is the input form 705.
図27(c)に示すように、ここに、更新したい内容を文字入力し、完了の指示を行う(エンターキーまたはマウスクリック)。すると、図27(d)に示すように、内容が変更され、再生が再開される。 As shown in FIG. 27 (c), the contents to be updated are input here and a completion instruction is given (enter key or mouse click). Then, as shown in FIG. 27 (d), the contents are changed and the reproduction is resumed.
本システムを用いて電子チラシ作成システムを構成したときの例を記載する。
ここでいう電子チラシとは、通常の新聞の折込チラシのような情報がテレビ、PCなどの媒体で表示される際の形式を指す。画像、楽音、文字列等の各種種類のメディアが混合されたマルチメディアコンテンツの形で提供される。そのため、紙媒体のように静止した情報表示ではなく、時間の経過に合わせて動的に変化する表現を取り入れることができる。主に、販売する商品の広告や、購買者に通知したい内容が含まれている。
An example when an electronic leaflet creation system is configured using this system will be described.
The electronic leaflet here refers to a format in which information such as an ordinary leaflet inserted in a newspaper is displayed on a medium such as a television or a PC. It is provided in the form of multimedia content in which various types of media such as images, musical sounds, and character strings are mixed. Therefore, it is possible to incorporate an expression that dynamically changes with the passage of time, rather than a stationary information display like a paper medium. It mainly contains advertisements for products to be sold and contents to be notified to buyers.
図28は電子チラシの一例を示す概略説明図である。商品チラシの場合は、情報として、商品名721、商品説明722、価格723が含まれ、商品の画像724、販売単位725、店の名前、店のロゴ、セール期間、等がある。これらは本発明における実施例では、それぞれ文字オブジェクトや画像オブジェクトとして定義される。 FIG. 28 is a schematic explanatory view showing an example of an electronic leaflet. In the case of a product flyer, information includes a product name 721, a product description 722, and a price 723, and includes a product image 724, a sales unit 725, a store name, a store logo, a sale period, and the like. In the embodiment of the present invention, these are defined as character objects and image objects, respectively.
図28の例では、時間の経過に伴ってオブジェクトが画面上を動くことにより、きめ細かい感情表現を含むユーザへのインプレッションを高める効果が可能となる。また、図28の例では、さらに時間が経過すると、商品情報が更新され次の商品の紹介に移るという表現になっており、シーンという概念=一つの商品の紹介、という定義となっている。この場合、紹介する商品の追加したいときは、シーンの追加をすればよいことになる。 In the example of FIG. 28, the object moves on the screen as time passes, so that it is possible to increase the impression to the user including detailed emotional expressions. In the example of FIG. 28, the product information is updated and the next product is introduced as time elapses, and the concept of scene = introduction of one product is defined. In this case, when it is desired to add a product to be introduced, a scene should be added.
ユーザ操作の面から見た編集時のスクリーンショット例を図29に示す。図29(a)に示すように、電子チラシの編集を開始すると、コンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。このとき、編集したい箇所が現れたら、その箇所をクリックする。すると、図29(b)に示すように、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。図の例では、価格のところをクリックしたので、価格の変更を行うためのテキストボックスが入力フォームである。 FIG. 29 shows an example of a screen shot during editing as viewed from the user operation. As shown in FIG. 29 (a), when the electronic leaflet editing is started, the reproduction of the content starts, and the content dynamically changes with the passage of time. At this time, if a location that you want to edit appears, click that location. Then, as shown in FIG. 29B, the content is paused at that time, and an input form appears at a position where editing is desired. In the example in the figure, since the price was clicked, the text box for changing the price is the input form.
図29(c)に示すように、ここに、更新したい内容を文字入力し、完了の指示を行う(エンターキーまたはマウスクリック)。すると、図29(d)に示すように、内容が変更され、再生が再開される。 As shown in FIG. 29 (c), the contents to be updated are input here and a completion instruction is given (enter key or mouse click). Then, as shown in FIG. 29 (d), the contents are changed and the reproduction is resumed.
ここで、内容の変更方法として、上記のように一つ一つのオブジェクトごとに変更する方法もあるが、一つの商品について商品名、商品画像、商品の説明など対応関係にあるものについては、そのどれかを変更すると、他のものを自動的に変更されるようにする方法もある。後者の場合、一つの商品の、商品名、商品の説明、商品の画像等、商品ごとに設定できる項目を、前出のグループとして、グループ設定テーブルとして事前に登録しておく。グループ設定はコンテンツ内に記述しておくことができる。 Here, as a method of changing the contents, there is also a method of changing for each object as described above, but for a product with a corresponding relationship such as a product name, product image, product description, etc. There is also a way to change one automatically so that the others are automatically changed. In the latter case, items that can be set for each product, such as a product name, a description of the product, and an image of the product, are registered in advance as a group setting table as a group. Group settings can be described in the content.
このグループ設定により、例えばコンテンツ内で商品の画像のオブジェクトを変更すると、それに応じてそれに関連する商品名や商品説明などの他のオブジェクトも自動的に変更される。
また、ひとつの商品、またはあるまとまった単位の商品群を表示している時間間隔を、一つのシーンとして定義することができる。このシーンの定義は、テンプレート記述ファイル内に、シーンの区切りを入れることによって行われる。商品単位でシーンを区切れば、コンテンツ内で広告する商品(または商品群)の数を増減させたいときに、シーンの追加や削除という操作で容易に対応することができる。
With this group setting, for example, when an object of an image of a product is changed in the content, other objects such as a product name and product description related thereto are automatically changed accordingly.
Further, a time interval for displaying one product or a group of product groups can be defined as one scene. The definition of the scene is performed by putting a scene break in the template description file. If scenes are divided in units of products, when the number of products (or product groups) to be advertised in the content is increased or decreased, it is possible to easily cope with an operation of adding or deleting scenes.
次に、本システムを用いて電子アルバム生成/編集システムを構成したときの例を記載する。ここで、電子アルバムとは、個人のデジタルカメラ等で撮影した画像等を、整理、編集して、時系列又は画面上に配置したものがテレビ、PCなどの媒体で表示される際の形式を指す。電子チラシと同様、画像、楽音、文字列等の各種種類のメディアが混合されたマルチメディアコンテンツの形で提供される。そのため、紙媒体のように静止した情報表示ではなく、時間の経過に合わせて動的に変化する表現を取り入れることができる。表現方法は個人の嗜好に合わせて作られたり、カスタマイズされたりすることができる。 Next, an example when an electronic album generation / editing system is configured using this system will be described. Here, the electronic album is a format in which images taken with a personal digital camera or the like are arranged and edited, and arranged in time series or on a screen are displayed on a medium such as a television or a PC. Point to. Like an electronic flyer, it is provided in the form of multimedia content in which various types of media such as images, musical sounds, and character strings are mixed. Therefore, it is possible to incorporate an expression that dynamically changes with the passage of time, rather than a stationary information display like a paper medium. Expression methods can be tailored to individual preferences or customized.
図30は、電子アルバムの一実施例を示す画面表示図である。電子アルバムの場合は、情報として、撮影した写真(または動画像)801、写真の説明802、撮影日803、撮影場所などが含まれてもよい。これらは本発明における実施例では、それぞれ文字オブジェクトや画像オブジェクトとして定義される。画像の並べ方、閲覧の仕方もさまざまが見せ方があり、図30(a)の例1のように、2x3で画像が表示され、表示画面が左へスクロールしていき次々に別の写真が現れる見せ方もあれば、図30(b)の例2のように、紙媒体のアルバムのように写真を配置でき、見開きのページのようにめくれて次のページが現れる見せ方、図30(c)の例3のように、掲示板に似せた背景に、写真が次々に揺れたり回転しながら画面前方方向から画面の奥方法に降っていって積もっていくような見せ方も考えられる。 FIG. 30 is a screen display diagram showing an embodiment of an electronic album. In the case of an electronic album, information may include a photographed (or moving image) 801, a photograph description 802, a photographing date 803, a photographing location, and the like. In the embodiment of the present invention, these are defined as character objects and image objects, respectively. There are various ways to arrange and view the images. As shown in Example 1 of FIG. 30A, the images are displayed in 2 × 3, and the display screen scrolls to the left, and different pictures appear one after another. If there is a way to show, as shown in Example 2 in FIG. 30B, a photo can be arranged like a paper album, and the next page appears by turning over like a spread page, FIG. 30C As in Example 3), the background may be similar to that of a bulletin board, and it may be viewed as if the photos are falling from the front of the screen toward the back of the screen while accumulating and rotating.
これらの例のように、時間の経過に伴ってオブジェクトが画面上を動くことにより、きめ細かい感情表現を含むユーザへのインプレッションを高める効果が可能となる。また、図30(b)の例2の場合、一つの見開きページ=シーンと定義すれば、シーンの追加=ページの追加ということになる。 As in these examples, when the object moves on the screen as time passes, it is possible to increase the impression to the user including detailed emotional expressions. In the case of Example 2 in FIG. 30B, if one spread page is defined as a scene, scene addition = page addition.
このアルバム編集は、一人のユーザで行えば、前出の電子チラシの編集方法と同様となるが、2人以上の場所が離れた家族が、お互いの機器で通信し,会話しながら、共同でアルバムを作る、といった用途で使うことも考えられる。 This album editing is the same as the electronic flyer editing method described above when performed by a single user, but two or more families who are separated from each other communicate with each other's devices and talk together. It can also be used for making albums.
この際の、ユーザ操作の面から見た編集時のスクリーンショット例を図31に示す。電子アルバムの編集を開始すると、双方でコンテンツの再生が始まり、時間の経過に伴いコンテンツが動的に変わっていく。図31(a)に示すように、この際のコンテンツ表示はお互い同期している。このとき、編集したい箇所が現れたら、その箇所をクリックする。図31(e)に示すように、クリックした側では、その時点でコンテンツが一時停止され、編集したい位置に入力フォームが現れる。 FIG. 31 shows an example of a screen shot at the time of editing from the viewpoint of user operation. When the editing of the electronic album is started, the playback of the content starts on both sides, and the content changes dynamically with the passage of time. As shown in FIG. 31A, the content displays at this time are synchronized with each other. At this time, if a location that you want to edit appears, click that location. As shown in FIG. 31 (e), on the clicked side, the content is paused at that point, and an input form appears at a position where editing is desired.
図31(b)の例では、画像のところをクリックしたので、画像の変更を行うためのドラッグ&ドロップ用アイコンである。図31(f)に示すように、相手側でも、同じ位置でコンテンツが一時停止され、相手側で選択された箇所が色などが変化して点滅する。 In the example of FIG. 31B, since the place where the image is clicked, it is a drag and drop icon for changing the image. As shown in FIG. 31 (f), the content is also paused at the same position on the other party, and the part selected on the other party changes its color and blinks.
次に、編集している側で、更新したい画像を指定する。図31(c)に示すように、ここでは、編集しているブラウザの外部から、画像アイコンをドラッグ&ドロップして画像を指定する例である。図31(g)に示すように、この作業中、相手側では、選択された箇所が点滅している等の状態が保たれる。 Next, the image to be updated is designated on the editing side. As shown in FIG. 31C, here is an example in which an image is designated by dragging and dropping an image icon from outside the browser being edited. As shown in FIG. 31 (g), during this work, the other side is kept in a state where the selected location is blinking.
図31(d)に示すように、編集側で、ドラッグ&ドロップ編集が完了すると、内容が変更され、再生が再開される。図31(h)に示すように、このとき、相手側の表示も変更され、同期した形で再生が再開される。 As shown in FIG. 31D, when the drag-and-drop editing is completed on the editing side, the contents are changed and the reproduction is resumed. As shown in FIG. 31 (h), the other party's display is also changed at this time, and reproduction is resumed in a synchronized manner.
以上説明したように、本実施の形態に係るシステムでは、コンテンツ編集装置は、編集画面とプレビュー画面を同一に扱うので、マルチメディアコンテンツが掲載されるレイアウト画面のまま、思いのままにコンテンツ内の画像やテキストを変更でき、作業効率が上がる。簡単な操作性により、より多くの情報をリアルタイムに編集することで、常に新しい情報発信ができる。編集とプレーヤーを融合させることにより、一般の利用者が苦手なオーサリングツールを利用する必要がなくなる。 As described above, in the system according to the present embodiment, the content editing apparatus handles the editing screen and the preview screen in the same way, so that the layout screen on which the multimedia content is posted remains as desired. You can change the image and text, and work efficiency will increase. With simple operability, new information can always be transmitted by editing more information in real time. By fusing editing and players, it is no longer necessary for ordinary users to use authoring tools that are not good at using them.
前述の実施形態では、XML言語の一種であるSMIL言語を使用した例を記載したが、マルチメディア表現が行える他のコンテンツ形態でも同様の機能を実現することができる。2004年現在でインターネットで多く用いられているマルチメディアコンテンツのフォーマット形態として、Macromedia社のFlash(swf)やShockwave、W3C標準のSVG(Scarable Vector Graphics)、EVAアニメータなどがある。また、一からオブジェクト指向言語Java(登録商標)等を使って、コンテンツを1から作成することも考えられる。 In the above-described embodiment, an example using the SMIL language, which is a kind of XML language, has been described. However, the same function can be realized in other content forms capable of performing multimedia expression. As formats of multimedia contents that are widely used on the Internet as of 2004, there are Flash (swf) and Shockwave of Macromedia, SVG (Scalable Vector Graphics) of the W3C standard, EVA animator, and the like. It is also conceivable to create content from scratch using an object-oriented language such as Java (registered trademark).
ここでは、Macromedia社のFlashを使用した例を述べる。このフォーマットでは、アニメーションが座標単位のベクターの集合として表され、時系列上で変化する記述が可能である。また、アニメーション描画以外の、画像、音声、動画、入出力等も扱うことができるが、さらに、W3Cにて標準化されているECMAスクリプトに準拠したActionScriptというプログラム言語により、画面上のアニメーションや画像、音声、入出力制御、通信制御などをコントロールするプログラミングが可能である。これらを組み合わせてボタンやフォームなどもつくることができ、標準形のコンポーネントとしてオーサリングツールにおいても用意されている。SMIL言語とは構造が異なるため、図16における、コンテンツ表示/生成部におけるDOMツリー、SAXイベント、スケジュールテーブル、レイアウトテーブル等は存在しないが、コンテンツフォーマットを解釈し、レイアウトやスケジュールを解釈する部分、再生を制御する部分は別の実装形態で存在する。今回の実施例における、入力領域表示、非表示、編集可能領域の監視、変更情報入力、入力領域制御、更新情報の送受信は、Flashコンテンツ内において、このActionScriptによってプログラミングし実行させることによって実現可能である。変更するオブジェクトごとに、編集可能領域(マウスクリックを検出する領域)を設定し、そこが押されると、コンテンツ再生の時間を停止させ、入力のためのフォームを動的に生成し、ユーザに入力させる。ユーザ入力完了指示(エンターキーやマウスクリック)を定義しておき、ユーザの入力完了を検知すると、フォームを消し、指定されているオブジェクトを削除し、変更される新しいオブジェクトを生成し、同じ場所に貼り付ける。この際の更新情報は、通信回線を介して、サーバや別端末に送信することが可能である。変更処理が終わったら、最後に再生を再開する。 Here, an example using Flash of Macromedia is described. In this format, an animation is represented as a set of vectors in coordinate units, and a description that changes in time series is possible. It can also handle images, audio, moving images, input / output, etc., other than animation drawing. Furthermore, with a program language called ActionScript that conforms to the ECMA script standardized by W3C, animations and images on the screen, Programming that controls voice, input / output control, communication control, etc. is possible. These can be combined to create buttons, forms, etc., and are also available in authoring tools as standard components. Since the structure is different from the SMIL language, there is no DOM tree, SAX event, schedule table, layout table, etc. in the content display / generation unit in FIG. 16, but the part that interprets the content format and interprets the layout and schedule, The part that controls playback exists in another implementation. In this embodiment, input area display, non-display, editable area monitoring, change information input, input area control, and transmission / reception of update information can be realized by programming and executing this action script in the flash content. is there. For each object to be changed, an editable area (area for detecting mouse clicks) is set, and when it is pressed, the content playback time is stopped and a form for input is dynamically generated and input to the user. Let User input completion instructions (enter key and mouse click) are defined, and when user input completion is detected, the form is deleted, the specified object is deleted, a new object to be changed is generated, and the same place is created. paste. The update information at this time can be transmitted to a server or another terminal via a communication line. When the change process is finished, playback is resumed at the end.
本発明は、ソフトウエア、すなわちプログラム上でプロセッサが動作して実現することを前提にしており、さらにこのプログラムをCDやメモリ等の記録媒体に記録してそれを読み出し実行することが可能である。 The present invention is based on the premise that the processor operates on software, that is, a program, and further, this program can be recorded on a recording medium such as a CD or a memory, read out and executed. .
以上のように、本発明の実施の形態および実施例について説明を行ったが、今回開示した実施の形態および実施例は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれる。 As described above, the embodiments and examples of the present invention have been described. However, the embodiments and examples disclosed this time should be considered as illustrative in all points and not restrictive. is there. The scope of the present invention is defined by the terms of the claims, and includes meanings equivalent to the terms of the claims and all modifications within the scope.
101 コンテンツ編集端末
102 コンテンツ生成サーバ
103 コンテンツ受信端末
104 ネットワーク
201 テンプレート登録部
202 変更データ入力部
203 コンテンツ生成部
204 コンテンツ素材テンプレート保存部
205 編集情報送信部
206 コンテンツテンプレート
207 コンテンツ
301 コンテンツファイル
302 テンプレートファイル
401 出力装置
404 入力装置
405 プロセッサ
502 入出力管理部
503 ストレージ管理部
504 通信管理部
505 ネットワークコンテンツ閲覧部
506 マルチメディアコンテンツ表示編集部
601 再生制御部
602 編集制御部
603 スケジュール解析部
604 構造解析部
605 メディア蓄積部
606 タイマー
607 ファイル取得部/送信部
608 メディア再生部
611 入力領域表示部
612 編集可能領域監視部
613 入力部
614 編集部
615 更新情報送受信部
616 内部表現
617 レイアウトテーブル
618 スケジュールテーブル
619 編集可能領域テーブル
620 グループ設定テーブル
621 シーンテーブル
701 画像オブジェクト
702 オブジェクト
703 編集可能領域
704 マウスカーソル
705 入力領域
706 編集バー
707 設定ボタン
708 スライダ
709 シーン追加ボタン
710 シーン削除ボタン
721 商品名
722 商品説明
723 価格
724 画像
725 販売単位
802 説明
803 撮影日
101
Claims (13)
前記コンテンツに設けられたオブジェクトを画像表示上で選択させ、選択されたオブジェクトを編集可能とする編集制御手段とを備え、
前記オブジェクトが編集されると、編集されたマルチメディアコンテンツにより再生を行うことを特徴とするコンテンツ編集装置。 Playback control means for stopping playback at an arbitrary time during playback of multimedia content arranged on the time axis, and displaying a content image at the time of stop;
Editing control means for allowing an object provided in the content to be selected on an image display and editing the selected object;
A content editing apparatus, wherein, when the object is edited, reproduction is performed using the edited multimedia content.
前記編集制御手段は、前記監視手段により選択されたオブジェクトの位置に前記編集可能領域が存在すると検出された場合に、選択されたオブジェクトを編集可能とすることを特徴とする請求項1に記載のコンテンツ編集装置。 Comprising monitoring means for monitoring whether the position of the selected object is an editable area;
2. The edit control unit according to claim 1, wherein the edit control unit enables editing of the selected object when it is detected that the editable region exists at the position of the object selected by the monitoring unit. Content editing device.
A recording medium on which the program according to claim 12 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005225494A JP4514671B2 (en) | 2005-08-03 | 2005-08-03 | CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005225494A JP4514671B2 (en) | 2005-08-03 | 2005-08-03 | CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007041861A true JP2007041861A (en) | 2007-02-15 |
JP4514671B2 JP4514671B2 (en) | 2010-07-28 |
Family
ID=37799782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005225494A Expired - Fee Related JP4514671B2 (en) | 2005-08-03 | 2005-08-03 | CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4514671B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008211595A (en) * | 2007-02-27 | 2008-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Media-editing server device, media editing system, and media-editing program |
WO2009034718A1 (en) * | 2007-09-12 | 2009-03-19 | Hubase-I.Inc | Flash file generation system and original image information generation system |
JP2010039991A (en) * | 2008-08-08 | 2010-02-18 | Kawai Musical Instr Mfg Co Ltd | Image display method, computer program for image display, and recording medium |
JP2010191634A (en) * | 2009-02-17 | 2010-09-02 | Nhn Corp | Moving image creation program, moving image creation service provision system, and moving image reproduction program |
JP2010244206A (en) * | 2009-04-02 | 2010-10-28 | Nhn Corp | Server device, moving image distribution system, and server program |
JP2015084205A (en) * | 2013-09-18 | 2015-04-30 | パナソニックIpマネジメント株式会社 | Signage data input device, server, and signage data input program |
CN110956486A (en) * | 2019-10-11 | 2020-04-03 | 京东数字科技控股有限公司 | AI advertisement editing method, device, electronic equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08123972A (en) * | 1994-10-28 | 1996-05-17 | Matsushita Electric Ind Co Ltd | Object document editing device |
WO2003088665A1 (en) * | 2002-04-12 | 2003-10-23 | Mitsubishi Denki Kabushiki Kaisha | Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method |
JP2004007407A (en) * | 2002-03-25 | 2004-01-08 | Yamaha Corp | Template file editing apparatus and editor program |
JP2004128724A (en) * | 2002-09-30 | 2004-04-22 | Ntt Comware Corp | Media editor, media editing method, media editing program, and recording medium |
JP2005173897A (en) * | 2003-12-10 | 2005-06-30 | Canon Inc | Image processor, image processing method, and program |
-
2005
- 2005-08-03 JP JP2005225494A patent/JP4514671B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08123972A (en) * | 1994-10-28 | 1996-05-17 | Matsushita Electric Ind Co Ltd | Object document editing device |
JP2004007407A (en) * | 2002-03-25 | 2004-01-08 | Yamaha Corp | Template file editing apparatus and editor program |
WO2003088665A1 (en) * | 2002-04-12 | 2003-10-23 | Mitsubishi Denki Kabushiki Kaisha | Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method |
JP2004128724A (en) * | 2002-09-30 | 2004-04-22 | Ntt Comware Corp | Media editor, media editing method, media editing program, and recording medium |
JP2005173897A (en) * | 2003-12-10 | 2005-06-30 | Canon Inc | Image processor, image processing method, and program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008211595A (en) * | 2007-02-27 | 2008-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Media-editing server device, media editing system, and media-editing program |
JP4652357B2 (en) * | 2007-02-27 | 2011-03-16 | 日本電信電話株式会社 | Media editing server device, media editing system, and media editing program |
WO2009034718A1 (en) * | 2007-09-12 | 2009-03-19 | Hubase-I.Inc | Flash file generation system and original image information generation system |
JP2010039991A (en) * | 2008-08-08 | 2010-02-18 | Kawai Musical Instr Mfg Co Ltd | Image display method, computer program for image display, and recording medium |
JP2010191634A (en) * | 2009-02-17 | 2010-09-02 | Nhn Corp | Moving image creation program, moving image creation service provision system, and moving image reproduction program |
JP2010244206A (en) * | 2009-04-02 | 2010-10-28 | Nhn Corp | Server device, moving image distribution system, and server program |
JP2015084205A (en) * | 2013-09-18 | 2015-04-30 | パナソニックIpマネジメント株式会社 | Signage data input device, server, and signage data input program |
CN110956486A (en) * | 2019-10-11 | 2020-04-03 | 京东数字科技控股有限公司 | AI advertisement editing method, device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4514671B2 (en) | 2010-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220229536A1 (en) | Information processing apparatus display control method and program | |
US8270815B2 (en) | Online video and audio editing | |
US20110191684A1 (en) | Method of Internet Video Access and Management | |
WO2017051793A1 (en) | System for automatically generating video content | |
JP4514671B2 (en) | CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME | |
JPH10124483A (en) | Device for editing scenario | |
TWI457768B (en) | A content generation apparatus, a system for providing a web-based service to permit integration of user generated content with sponsored media and a computer-implemented method | |
CN107644019A (en) | A kind of hypermedia eBook content manufacturing system | |
CN114185465A (en) | Information processing method, information processing apparatus, storage medium, and electronic device | |
JP4142382B2 (en) | Content creation system and content creation method | |
JP2010141371A (en) | System for assisting creation/playback of animation content | |
CN101491089A (en) | Embedded metadata in a media presentation | |
JP5552987B2 (en) | Search result output device, search result output method, and search result output program | |
CN111523069B (en) | Method and system for realizing electronic book playing 3D effect based on 3D engine | |
JP2009267655A (en) | Program management system, program management server, program viewing terminal, program management program, and program viewing program | |
JP4129162B2 (en) | Content creation demonstration system and content creation demonstration method | |
JP4271681B2 (en) | Content processing apparatus and computer program | |
WO2002023350A1 (en) | Technique for superimposingly display additional information on display screen | |
JP2005228297A (en) | Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium | |
JP2010191634A (en) | Moving image creation program, moving image creation service provision system, and moving image reproduction program | |
JP2006048465A (en) | Content generation system, program, and recording medium | |
JP4238662B2 (en) | Presentation support device and presentation support method | |
JP2009025940A (en) | Web page display system and display method therefor | |
JP4292902B2 (en) | Content editing apparatus and content editing method | |
JP2004015748A (en) | Moving image editing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070822 |
|
A977 | Report on retrieval |
Effective date: 20091130 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A521 | Written amendment |
Effective date: 20100215 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100511 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100511 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 3 Free format text: PAYMENT UNTIL: 20130521 |
|
LAPS | Cancellation because of no payment of annual fees |