JP2004015748A - Moving image editing apparatus - Google Patents

Moving image editing apparatus Download PDF

Info

Publication number
JP2004015748A
JP2004015748A JP2002170510A JP2002170510A JP2004015748A JP 2004015748 A JP2004015748 A JP 2004015748A JP 2002170510 A JP2002170510 A JP 2002170510A JP 2002170510 A JP2002170510 A JP 2002170510A JP 2004015748 A JP2004015748 A JP 2004015748A
Authority
JP
Japan
Prior art keywords
information
clip
area
moving image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002170510A
Other languages
Japanese (ja)
Inventor
Makoto Nakamura
中村 誠
Junya Ohori
大堀 順也
Koji Itabashi
板橋 貢司
Tomoko Ito
伊藤 智子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2002170510A priority Critical patent/JP2004015748A/en
Publication of JP2004015748A publication Critical patent/JP2004015748A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image editing apparatus in which editing is easily made possible while grasping the edited result. <P>SOLUTION: In the moving image editing apparatus in a moving image editing system in which the moving image editing apparatus for editing a synchronous multimedia presentation being an editing target and a terminal are connected via a communication line, the moving image editing apparatus has a clip information database for correspondingly storing reproduction time information to which the inserting point and the erasing point of a clip to be reproduced in a certain area of the synchronous multimedia presentation being the editing target to the relevant synchronous multimedia presentation are set as attributes of the relevant clip, and area identification information for identifying the area, and an attribute information display part for graphically displaying the inserting point and the erasing point stored in the clip information on a display screen of the terminal in accordance with the passage of time. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、ネットワークを介して接続される動画像編集装置と端末との間において動画像やテキストを編集を行う動画像編集装置に関するものである。
【0002】
【従来の技術】
近年における通信回線の大容量化は、ユーザにとっての様々な恩恵を生み出している。個人によるストリーミング(動画像データを受信しながら再生する方式)での動画像配信が実現可能になってきたのもその1つである。ストリーミングは、ファイル全体のダウンロード完了を待たずに再生ができるので動画像配信に適するとされている。
【0003】
さらには、動画像、静止画像、音声、テキストを複数の領域それぞれで同期再生させてストリーミングする技術が求められ、これに対し、同期マルチメディア記述言語が策定されたことにより、同期マルチメディアプレゼンテーションが可能となった。
【0004】
図22は、同期マルチメディアプレゼンテーションを例示する図である。
この同期マルチメディアプレゼンテーションは、2つの領域でそれぞれのプレゼンテーションを再生する最も単純なものである。例えば、ウィンドウ100に構成された左のメイン領域51には、サッカーの試合をストリーミング再生し、右のサブ領域52には、メイン領域51でプレーする選手のプロフィールをストリーミング再生するというように利用される。
【0005】
これらの同期マルチメディアプレゼンテーションは、動画像や静止画、テキストなどの素材のデータが記憶されたサーバから素材のデータをストリーミングで端末側に受信しながら編集される。すなわち、端末のユーザは、ストリーミングを受信しながら再生し、再生画面を見ながら、同期マルチメディアプレゼンテーションに利用する各素材の挿入開始と終了時刻をそれぞれ指定することにより、行われる。
【0006】
【発明が解決しようとする課題】
しかしながら、上述した編集方法によれば、以下のような問題点があった。
1.クリップを複数利用して作成された同期マルチメディアプレゼンテーションを編集する場合、同期マルチメディアプレゼンテーションを構成する各クリップの再生順や再生時刻を確認しようとすると、確認対象の同期マルチメディアプレゼンテーションを初めから終わりまで再生し、内容を確認していた。従って、同期マルチメディアプレゼンテーションの編集結果の確認に手間と時間がかかってしまい、編集作業の効率が低下してしまっていたという問題点があった。
【0007】
2.ストリーミングを受信し再生しながら編集を行うようにしていたので、例えば、10分の動画像の同期マルチメディアプレゼンテーションを一度作成したのち、動画像が9分を経過したに部分にテキストを挿入しようとすると、編集対象の動画像のストリーミングを受信しながら再生して9分経過するまで待ち、そして、編集タイミングを見計らってテキストを挿入する指示を入力していた。従って、ストリーミングを再生し、編集タイミングまで待たなければならなかったので、ユーザにとって、編集作業に手間と時間がかかってしまい、編集作業の効率が低下し、負担が大きくなってしまっていた。
【0008】
3.一度作成した同期マルチメディアプレゼンテーションの中から、必要な動画像やテキストを探し出す場合、動画像やテキストのファイルに設定されている属性情報を利用し、検索するキーワードを指定し、キーワードに対応する属性情報を検索して必要な動画像やテキストを探し出すことが考えられる。しかし、従来においては、動画像やテキストの表示領域の大きさを変更して領域同士が重なった場合、重なった領域の属性情報の管理がうまくできず、結果的に、検索機能を設けることができなかった。
【0009】
本発明は、このような事情に鑑みてなされたもので、その目的は、編集結果を簡単に把握することができる動画像編集装置を提供することにある。
また、本発明の他の目的は、編集作業を効率的に行うことができる動画像編集装置を提供することにある。
また、本発明の他の目的は、編集されたファイルを検索することができる動画像編集装置を提供することにある。
また、本発明の他の目的は、領域の大きさを変更した場合においても、編集されたファイルを検索することができる動画像編集装置を提供することにある。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明は、編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置であって、前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けてクリップ情報として記憶するクリップ情報データベースと、
前記再生時間情報として記憶された挿入点および消去点に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させる属性情報表示部とを有することを特徴とする。
【0011】
また、本発明は、上述の動画像編集装置において、前記クリップ情報には、前記再生時間情報にさらに前記クリップの属性を示す属性情報が前記クリップ毎に前記領域識別情報に対応付けて記憶されており、前記属性情報表示部は、前記クリップ情報データベースに記憶された属性情報を読み出し、読み出した属性情報を前記図形の挿入点および消去点に対応付けて前記端末の表示画面に表示させることを特徴とする。
【0012】
また、本発明は、上述の動画像編集装置において、前記属性情報には、クリップのファイル名とテキストとをそれぞれ独立またはクリップのファイル名とテキストとの両方とが含まれることを特徴とする。
【0013】
また、本発明は、上述の動画像編集装置において、前記端末の表示画面の図形に対して入力される再生時間情報または属性情報を編集する指示である編集指示を受信する編集指示受信部と、前記編集指示受信部が受信した編集指示に基づいて、編集が指示された図形に対応する領域の領域識別情報を検出し、検出した領域識別子に対応するクリップ情報を前記編集指示の編集内容に応じて更新して前記クリップ情報データベースに記憶する情報変更部とを有することを特徴とする。
【0014】
また、本発明は、上述の動画像編集装置において、前記端末から送信される再生時間または属性情報を検索するキーとなる検索キーと検索対象の領域を指定する検索領域指定情報とを受信する検索情報受信部と、前記検索情報受信部が受信する検索領域指定情報によって指定される領域識別情報に対応する属性情報から、前記検索キーに対応する属性情報を検索する属性情報検索部と、前記属性情報検索部の検索結果を前記端末に送信する検索結果送信部と、を有することを特徴とする。
【0015】
また、本発明は、上述の動画像編集装置において、前記属性情報検索部は、検索対象の領域が複数指定された場合に、検索対象の領域の領域識別情報に対応する属性情報に共通に検索キーが含まれているか否かを検出することを特徴とする。
【0016】
また、本発明は、上述の動画像編集装置において、前記クリップを表示する大きさを指定する情報であるレイアウト情報を前記領域識別情報に対応付けて記憶するレイアウトデータベースと、前記端末から送信される、前記クリップを表示する大きさの変更指示を受信する変更指示受信部と、前記変更指示受信部が受信する変更指示に応じて、クリップを表示する大きさを変更するレイアウト情報変更部と、を有することを特徴とする。
【0017】
また、本発明は、上述の動画像編集装置において、編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画像編集支援方法であって、前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させることを特徴とする。
【0018】
また、本発明は、上述の動画像編集装置において、編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画像編集支援プログラムであって、前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させるステップをコンピュータに実行させることを特徴とする。
【0019】
また、本発明は、上述の動画像編集装置において、編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画像編集支援プログラムを記録した記録媒体であって、前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させるステップをコンピュータに実行させるための動画像編集支援プログラムを記録したことを特徴とする。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。先ず、本実施の形態で使用される用語を説明する。
「同期マルチメディアプレゼンテーション」とは、プレーヤ(後述する)が端末の表示装置に表示するウィンドウ(以下、単にウィンドウという)内に複数設けられた領域(以下、単に領域という)のそれぞれでストリーミング再生されるプレゼンテーション(後述する)をまとめていう。
【0021】
「プレゼンテーション」とは、同一の「領域」で連続的にストリーミング再生される複数または1つのクリップ(後述する)またはテキストコンテンツ(後述する)をいう。
【0022】
「クリップ」とは、MPEG等の動画像、MP3等の音声、JPEG等の静止画、ASCII文字等のテキスト、アニメーションのいずれかを含んでいて、ストリーミングサーバからストリーミング再生されるメディア(「素材」といい、1
または複数のファイルから構成される)における任意2点間の部分をいう。主に素材の一部、稀には素材全部がクリップとなる。
【0023】
「テキストクリップ」とは、ストリーミング再生されるのでなく、定義された表示時間の間に領域に単に表示される文字情報をいう。
【0024】
「プレーヤ」とは、コンピュータで動作するストリーミング再生用のソフトウェアをいい、同期マルチメディアプレゼンテーション、プレゼンテーション、素材、クリップ、テキストクリップをそれぞれ再生等することができ、単体でも動作するが、ブラウザによっても起動される。
【0025】
次に、本発明の一実施形態による動画像編集装置を適用した動画像編集システムを図面を参照して説明する。
図1は、この発明の一実施形態による動画像編集装置を適用した動画像編集システムの構成を示す概略ブロック図である。
この図において、動画像編集装置1は、同期マルチメディアプレゼンテーションの編集を、一般ユーザが利用するコンピュータ(端末という)2,2,…において、対話式で行わせるサービスを提供するコンピュータであり、インターネット等のネットワークを介して、端末2,2,…に接続されている。
【0026】
端末2では、HTML(Hyper Text Markup Language)で記述されたソースコードを解釈して編集のための画面制御を行うブラウザ21と、ストリーミング再生用のプレーヤ22が起動される。また、動画像編集装置1が設置された施設内外のストリーミングサーバ3,3,…がネットワークに接続されて、端末2がURL(Uniform Resource Locator)で指定した素材をストリーミング方式で供給できるようになっている。なお、プレーヤ22は、複数個起動させることができる。
【0027】
図2は、動画像編集装置1の構成について説明するための概略ブロック図である。動画像編集装置1は、個々の同期マルチメディアプレゼンテーションについての、主にレイアウトに関する属性等(レイアウト情報という)が含まれる格納されるレイアウトデータベースDB1と、個々のクリップを定義するための属性情報と再生時間情報などが格納されるクリップ情報データベースDB2と、素材のURLが格納される素材情報データベースDB3を備える。
【0028】
図3は、レイアウトデータベースDB1に記憶されるレイアウト情報の一例を示す図である。レイアウトデータベースDB1では、1つの同期マルチメディアプレゼンテーションについて領域ごとに設けられた領域レコードにレイアウト情報が各領域を識別する領域ID(上述の領域識別情報に対応)に対応付けられて格納される。このレイアウト情報は、クリップを表示する大きさを指定する情報が含まれる。つまり、これらの領域レコードに同一のレイアウトID並びにウィンドウの幅と高さが設定される。また、各領域レコードには、領域ID、領域の編集順序、上端座標(ウィンドウの上端を基準としたときの領域の上端の座標)、左端座標(ウィンドウの左端を基準としたときの領域の左端の座標)、そして領域の幅及び高さが、また重なりの順序(図示せず)が、それぞれ設定される。
【0029】
図4は、クリップ情報データベースDB2に記憶されるクリップ情報の一例を示す図面である。クリップ情報には、素材を必要とするクリップ及びテキストクリップの属性情報がクリップIDに対応付けて格納可能になっている。個々のクリップを識別するクリップIDに対応づけられたクリップレコードには、領域ID、挿入点及び消去点の情報である再生時間情報が設定され記憶される。特に、素材を必要とするクリップについては、クリップレコードに、素材ID、クリップの開始点及び終了点が、一方、テキストクリップについては、クリップレコードに、背景色、文字色、文字サイズ、縦方向及び横方向の位置合わせ情報、表示時間、内容(テキスト)、動画像または静止画像のファイル名、ユーザのコメントを記憶する追加内容が格納される。
【0030】
図5(a)は、素材情報データベースDB3を示す図である。素材情報データベースDB3の素材レコードには、素材を識別する素材IDに対応づけて素材のURLと素材属性が設定される。この素材属性は、素材のエンコード時にエンコードソフトウェアによって生成される素材のタイトル、作成者などの情報が後述する属性情報格納処理部12によって抽出され、記憶される。この場合、素材に設定された素材属性のうち、どの項目の素材属性を抽出して記憶するかについては、端末2からの指示あるいは、動画像編集装置1の管理者の指示により決定される。この素材属性の一例を図5(b)に示す。この図に示すように、素材属性には、タイトル、作者、コピーライトなどの項目が含まれる。
【0031】
図2に戻り、説明を続ける。動画像編集装置1のうち、編集プログラム生成部11は、端末2に各種画面を構成させるためのHTMLソースコードを生成する。属性情報格納部12は、編集プログラムにより端末2から得られた属性情報をレイアウトデータベースDB1、クリップ情報データベースDB2、素材情報データベースDB3に格納する処理を行う。また、属性情報格納処理部12は、素材のエンコード時に生成される素材属性のうち、端末2または管理者から指示された項目の素材属性を抽出し、素材情報データベースDB3に記憶する。
同期マルチメディア言語ファイル生成部13は、レイアウトデータベースDB1、クリップ情報データベースDB2、素材情報データベースDB3に格納された属性情報を基に同期マルチメディア言語ファイルを生成する。同期マルチメディア言語ファイル格納部14は、同期マルチメディア言語ファイル生成部13の指示に応じて、同期マルチメディア言語ファイル生成部13により生成された同期マルチメディア言語ファイルを格納する。通信部15は、端末2との間のデータの送受信を行う。なお、この通信部15は、httpデーモンともいう。
【0032】
また、通信部15は、端末2の表示画面に表示された図形に対して入力されるクリップの属性情報を編集する指示である編集指示を受信する編集指示受信部15aと、端末2から送信される属性情報を検索するキーとなる検索キーと検索対象の領域を指定する検索領域指定情報とを受信する検索情報受信部15bと、後述する属性情報検索部18の検索結果を端末2に送信する検索結果送信部15cと、端末2から送信される、クリップを表示する大きさの変更指示を受信する変更指示受信部15dと、を有する。
【0033】
属性情報表示部16は、クリップ情報データベースDB2に記憶されたクリップ情報として記憶された挿入点および消去点を経過時間に対応させて端末2の表示画面に図形(以下、タイムラインと称す)によって表示させるための情報を生成し、通信部15によって送信する。具体的には、属性情報表示部16は、クリップ情報データベースに記憶された属性情報のうち、挿入点と消去点の項目に設定されている時間の情報をクリップ毎に読み出し、読み出したクリップ毎の挿入点と消去点を経過時間の経過に対応させる処理を行い、タイムラインを表示させるための情報を生成する。
さらに、属性情報表示部16は、クリップ毎に設定されている属性情報を挿入点と消去点に対応付けて表示させるための情報を生成する。
また、属性情報表示部16は、領域が複数ある場合に、領域毎のタイムラインを表示させるための情報を生成する。
【0034】
ここで、タイムラインについてさらに説明する。すなわち、タイムラインは、図6(a)、図6(b)に示すように、クリップを再生する再生時間情報に基づいて、再生時間の経過を示す経過時間に対応させて、クリップの属性情報をグラフによって表示される。この図6(a)、図6(b)は、属性情報のうち、テキストの項目に記憶された情報が経過時間に応じて表示されている。タイムラインに表示される属性情報は、属性情報に含まれる項目の情報であればテキストに限られるものではなく、例えば、動画像を表示する場合には動画像のファイル名を属性情報から抽出して表示したり、テキストを表示する場合には、背景色、文字色、文字サイズを属性情報から抽出して表示したり、追加内容として記憶されたコメントを属性情報から抽出して表示することが可能である。また、ここでは、再生時間情報が図6(a)の符号(c)、符号(d)、符号(e)に示すように分割され、異なる配色によって表示される。この配色は、属性情報に設定された背景色に従って表示されてもよい。また、テキストを表示する場合、属性情報に設定された文字サイズ、文字色、フォントなどの情報をテキストの他に表示させてもよい。
【0035】
また、タイムラインによって動画像の編集内容を表示する場合には、図7(a)、(b)に示すように、動画像のファイル名が表示される。
【0036】
なお、タイムラインを表示するための図形は、この実施形態においては、棒グラフによって表示する場合について説明するが、再生時間の経過に対応させて属性情報を表示することができる図形であれば、棒グラフに限られるものではない。例えば、円グラフなどを用いてもよい。
【0037】
図2に戻り、属性情報変更部17は、通信部15の編集指示受信部15aによって受信し、受信した編集指示に基づいて、編集が指示された図形に対応する領域の領域IDを検出し、検出した領域IDに対応する属性情報を編集指示に応じてクリップ情報データベースDB2に記憶された属性情報を更新する。この更新は、上書きによって行われる。
【0038】
属性情報検索部18は、検索情報受信部15bが受信する検索領域指定情報によって指定される領域IDに対応する属性情報から、検索キーに対応する属性情報を検索する。また、属性情報検索部18は、検索対象の領域が複数指定された場合に、検索対象の領域の領域IDに対応する属性情報に共通に検索キーが含まれているか否かを検出する。この検索キーは、属性情報、素材属性に含まれる情報に対して指定することが可能である。
レイアウト情報変更部19は、変更指示受信部15dが受信する変更指示に応じて、クリップを表示する大きさを変更する。
【0039】
次に、上述した動画像編集装置1の動作について図面を用いて説明する。以下、ネットワークを介して端末2から送信される編集の要求に応じて動画像編集装置1が行うタイムライン表示処理、情報変更処理、検索処理、レイアウト情報変更処理、について順に説明する。
【0040】
1.タイムライン表示処理
タイムライン表示処理について、図6および図7、図8のフローチャートを用いて説明する。まず、動画像編集装置1は、端末2から送信されるレイアウト情報の登録要求とクリップ情報の登録要求とを受信し、この登録要求に基づいて、受信したレイアウト情報をレイアウト情報データベースDB1に記憶し、クリップ情報をクリップ情報データベースDB2に登録する。これにより、図3、図4に示すような情報が記憶される。
レイアウト情報とクリップ情報とが記憶されると、属性情報表示部16は、登録されたレイアウト情報データベースDB1から、領域IDに基づいて、表示させる領域数を検出し、検出結果に応じて、タイムラインの数を決定する(ステップS1)。次いで、属性情報表示部16は、レイアウト情報データベースDB1から領域IDを読み出し(ステップS2)、読み出した領域IDに対応する再生時間情報と属性情報とをクリップ情報データベースDB2から読み出し(ステップS3)、読み出したタイムラインを再生時間情報と属性情報とに基づいて、タイムライン表示のソースを生成し、通信部15よってネットワークを介して端末2に送信する(ステップS4)。ここでは、動画像および静止画を表示する場合の属性情報はファイル名、テキストの場合は、内容の項目に記憶されたテキストそのものがタイムラインに表示されるための属性情報として抽出される。なお、この抽出する対象の属性情報の項目は、端末2からの指示に応じて変更可能である。
【0041】
端末2は、動画像編集装置1から送信されたタイムライン表示のソースを受信すると、受信したタイムライン表示のソースから、領域IDごとに別々のタイムラインを生成して画面上に表示する(ステップS5)。この画面上に表示される情報の一例を図9に示す。この図においては、編集対象の領域(サブ画面、メイン画面)が2つあるので、符号(a)に示すタイムラインの表示欄には、2つのタイムラインが表示される。ここでは、符号(b)に示すサブ画面についてのタイムラインでは、0秒から28秒まで「イタリアサッカー」のテキストが表示され、28秒から110秒までファイル名「セリエA−1」の動画像が表示され、110秒から135秒まで「結果…」テキストが表示されることを示すタイムラインが表示される。
また、符号(c)に示すメイン画面についてのタイムラインでは、0秒から40秒までファイル名「セリエA−ロゴ」の静止画の画像が表示され、40秒から98秒まで「後半20分…」のテキストが表示され、98秒から135秒まで「ユーべロゴ」のテキストが表示されることを示すタイムラインが表示される。
【0042】
なお、符号(d)に示す編集作業欄には、サブ画面とメイン画面の表示がされるとともに、いずれかの領域を指定し、再生や停止、挿入点、消去点などの編集作業を行うための機能を有するクリックボタン等が表示される。この表示は、編集プログラム生成部11が、レイアウト情報を得るためのレイアウト作成画面のHTMLソースコード(レイアウト画面ソースと略す、また同様のソースコードを、その末尾を「画面ソース」として略す)を生成し、通信部15が、このレイアウト作成画面ソースを端末2に送信することにより行われる。
【0043】
このように、動画像や静止画、テキストが再生される再生時間を経過時間に対応させて端末2に表示させるようにしたので、ユーザは、編集されたストリーミングの編集内容を簡単に把握することが可能である。
【0044】
2.情報変更処理
次に、情報の変更処理について図10のフローチャート、図11、図12を用いて説明する。ユーザによって、端末2のキーボードやマウスなどの入力装置を用いてタイムラインの挿入点や消去点、ファイル名、テキストなどがクリックされ、編集指示が入力されると(ステップS11)、端末2は、編集指示が入力されたタイムラインの領域IDが含まれる、編集内容に応じた編集指示を動画像編集装置1に送信する(ステップS12)。
【0045】
動画像編集装置1の編集指示受信部15aは、端末2から送信される編集指示を受信し(ステップS13)、情報変更部17に出力する。情報変更部17は、この編集指示から領域IDを検出し、編集指示の編集内容に応じて、検出した領域IDに対応する属性情報に上書きすることによってしてクリップ情報データベースDB2に記憶して更新する(ステップS14)。
【0046】
属性情報が更新されると、同期マルチメディア言語ファイル作成部13は、マルチメディア統合言語ファイルを作成し(ステップS15)、同期マルチメディア言語ファイル格納部14に記憶する。
【0047】
ここで、テキストについて編集指示が行われた場合のタイムラインについて図11を用いて説明する。図11(a)に示す領域Iのタイムラインの「こんにちは」のテキストに対し、端末2の入力装置によって「HELLO」に書き換えられると、この書き換えに応じた編集指示が生成されて動画像編集装置1に送信され、クリップ情報データベースDB2に反映される。これにより、テキストの書き換えが行われると、領域内には、図11(c)から図11(d)のように変更されたテキストが表示される。
【0048】
また、図12(a)から図12(b)に示すように、再生時間情報を変更する編集指示が入力されると、この編集指示に応じて、クリップ情報データベースDB2のテキスト「おはよう」の消去点およびテキスト「こんにちは」の挿入点が更新される。これにより、領域Iにおいては、45秒目に表示されるテキスト「こんにちは」が60秒目に表示されるよう更新される。
【0049】
上述したように。ユーザは、表示されたタイムラインに対して編集指示を入力することにより、編集作業を行うことができ、これにより、編集作業を行うために編集するタイミングが到達するまでストリーミングを再生して待機する手間を省くことができる。
【0050】
3.検索処理
次に、検索処理について図13を用いて説明する。まず、図13のフローチャートにおいて、ユーザは、入力装置を介して検索する対象となる領域IDと、検索する検索キーを入力し(ステップS21)、動画像編集装置1に送信する(ステップS22)。動画像編集装置1の検索情報受信部15bは、領域IDと検索キーを受信すると、属性情報検索部18に出力する。属性情報検索部18は、レイアウト情報データベースDB1とクリップ情報データベースDB2とにアクセスし、検索対象となる領域IDの属性情報に検索キーに一致する情報があるか否かを検出する(ステップS23)。そして、属性情報検索部18は、検索結果を検索結果送信部15cによって端末2に送信する(ステップS24)。これにより、端末2の画面上に、検索結果が表示される(ステップS25)。
【0051】
ここで、検索処理について、図14から図19を用いてさらに説明する。
a)領域とキーワードを指定して検索(標準検索モード)
図14に示すように、3つに分割されている領域のうち、領域1と領域2が検索領域として指定され、検索キーとして「おはよう」が指定されると、属性情報検索部18は、上述した検索処理を行い、検索結果を端末2に送信する。このとき、例えば、符号(a)に示すように、領域1において2つ、領域2において1つ、検索キーが検出される。ここで、属性情報検索部18は、検索結果において、検索キーに検索キーが含まれるクリップを再生させるためのトリガを動画像編集装置1に送信させるための情報を設定しておく(符号(b))。これにより、端末2において、検索結果をクリックすることにより、検索キーが含まれる動画像や静止画像、テキストが再生される(符号(c))。
これにより、ユーザは、検索対象を素早く探し出し、編集を行ったり、再生し足りすることができる。
【0052】
b)複数の領域に共通に含まれる検索キーを検索(共通キーワード検索モード)属性情報検索部18は、端末2から共通キーワード検索モードが指示されると、指定された各領域に共通に検索キーが含まれているか否かを検索する。この場合の検索結果は、例えば、図15に示すように、領域1および領域2にテキスト「おはよう」の属性情報が共通に設定されている場合に、符号(a)に示すような検索結果を端末2に送信する。
【0053】
また、この共通キーワード検索モードにおいては、検索キーを複数指定するようにしてもよい。例えば、図16に示すように領域1および領域2を指定し、検索キーとしてテキストと存在時間とが指定されると、属性情報検索部18は、領域1および領域2に、これら2つの検索キーに基づいて、検索する。ここでは、10秒から30秒目までの間に「おはよう」のテキストが含まれているか否かについての検索結果が、符号(a)のように出力される。また、存在時間が10秒から30秒目であり、テキスト「ありがとう」を検索した結果は、符号(b)のように表示される。
【0054】
d)素材属性を利用して検索(素材属性検索モード)
属性情報検索部18は、端末2からの指示に応じて、属性情報以外に、素材情報データベースDB3に記憶される素材属性を検索キーとして検索する。図17は、検索キーが素材情報の作者名の他に、さらに存在時間が指示され、検索を行った場合を示す図面である。この場合、属性情報検索部18は、検索キーとして指定された作者名が設定された素材属性があるか否かを素材情報データベースDB3の中から検索する。そして、検索キーに対応する作者名の素材属性が存在する場合、その検索された素材属性に対応する素材IDを読み出し、読み出した素材IDが設定された属性情報をクリップ情報データベースDB2から読み出す。さらに、属性情報検索部18は、読み出した属性情報の中の挿入点と消去点が検索キーによって指定された存在時間に含まれているか否かを検出し、存在時間に含まれている場合に、この属性情報が設定された領域を検出する。そして、この検出されて領域にサムネイル画像を設定し、検出結果として端末2に送信して表示させる。ここでいうサムネイル画像とは、静止画、テキストの場合は、そのものの画像であり、動画像の場合は、動画像を検索するために使用される静止画である。この検索結果は、例えば図17(a)、(b)、(c)が画面上に並べられて表示される。なお、このサムネイル画像が動画像のものである場合、端末2の入力装置によってクリックされると、動画像が再生される。
【0055】
e)検索結果をタイムラインを利用して表示
上述した検索結果を表示する方法以外に、タイムラインを利用するようにしてもよい。この場合の検索結果は、例えば、図18に示すように、検索キーに対応するテキストとその背景部分のタイムラインの配色が強調されて表示される。
【0056】
検索結果をタイムラインとサムネイル画像とを利用して表示
上述したe)の表示方法に、さらに、サムネイル画像について表示するようにしてもよい。例えば、図19に示すように、領域1について検索キーとしてファイル名を指定して検索を行った場合、検索結果において、タイムラインに符号(a)に示すようなサムネイル画像が付加され、出力される。また、領域2においても同様に、検索キーとして指定されたファイル名のサムネイル画像がタイムラインに付加され、表示される。
【0057】
4.レイアウト情報変更処理
次に、レイアウト情報変更処理について図20を用いて説明する。まず、ユーザは、入力装置を介して検索する対象となる領域IDと、領域の幅や高さを変更する変更指示を入力し、動画像編集装置1に送信する。動画像編集装置1の変更指示受信部15dは、変更指示を受信してレイアウト情報変更部19に出力する。レイアウト情報変更部19は、変更指示に基づいて、編集対象の領域IDに対応する幅や高さのデータを編集指示に基づいてレイアウト情報データベースDB1に上書きして更新する。
このように、レイアウトを変更する場合においても、レイアウト情報データベースDB1の幅や高さの情報を上書きするようにした。これにより、図20に示すように、図20(a)から図20(b)に示すように、領域1のサイズを小さくし、領域2のサイズを大きくする編集を行った場合においても、検索結果は、符号(c)と符号(d)に示すように、レイアウト変更前と変更後において、同じである。
【0058】
なお、レイアウトを変更する場合において、検索結果をタイムラインとサムネイル画像とを表示する場合においても、図21に示すように、レイアウトの変更前と後においても、同じ検索結果が得られ、従って、検索結果も同じ結果が表示される。
【0059】
以上説明した実施形態において、検索処理は、主にテキストを検索キーとした場合について説明したが、属性情報と素材属性に含まれる項目であれば、テキスト以外を検索キーに設定して検索するようにしてもよい。例えば、テキストの背景色、文字色、文字サイズ、追加内容、等が検索キーとして利用してもよく、これらを複数組み合わせて検索するようにしてもよい。
【0060】
また、図1における編集指示受信部15a、検索情報受信部15b、検索結果送信部15c、変更指示受信部15d、属性情報表示部16、情報変更部17、属性情報検索部18、レイアウト情報変更部19の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより編集作業処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
【0061】
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【0062】
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
【0063】
【発明の効果】
以上説明したように、この発明によれば、動画編集を編集する場合に、再生時間情報として記憶された挿入点および消去点に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって端末の表示画面に表示させるようにしたので、ユーザは、編集されたストリーミングの編集内容を、視覚によって簡単に把握することができる効果が得られる。
【0064】
また、本発明は、クリップ情報データベースに記憶された属性情報を読み出し、読み出した属性情報を図形の挿入点および消去点に対応付けて表示させるようにしたので、視覚的にストリーミングを構成するクリップの属性を簡単に把握できる効果が得られる。
【0065】
また、本発明は、属性情報として、クリップのファイル名またはテキストを表示させるようにしたので、視覚的に時間を把握しつつ、どのようなファイルやテキストを簡単に把握することができる効果が得られる。
【0066】
また、本発明は、編集指示受信部が受信した編集指示に基づいて、編集が指示された図形に対応する領域の領域識別情報を検出し、検出した領域識別子に対応するクリップ情報を前記編集指示の編集内容に応じて更新してクリップ情報データベースに記憶するようにしたので、ユーザは、表示された図形に対して編集指示を入力することにより、編集作業を行うことができ、これにより、編集作業を行うために編集するタイミングが到達するまでストリーミングを再生して待機する手間を省き、編集作業を効率的に行うことができる効果が得られる。
【0067】
また、本発明は、端末から送信される再生時間または属性情報を検索するキーとなる検索キーと検索対象の領域を指定する検索領域指定情報とを受信し、受信した検索領域指定情報によって指定される領域識別情報に対応する属性情報から、検索キーに対応する属性情報を検索するようにしたので、編集されたファイルを検索することができる効果が得られる。
【0068】
また、本発明は、端末から送信される、クリップを表示する大きさの変更指示を受信し、受信した変更指示に応じて、クリップを表示する大きさの情報を領域IDに基づいてクリップ情報データベースに記憶して更新するようにしたので、領域の大きさを変更した場合においても、編集されたファイルを検索することができる効果が得られる。
【図面の簡単な説明】
【図1】この発明の一実施形態による動画像編集装置を適用した動画像編集システムの構成を示す概略ブロック図である。
【図2】動画像編集装置1の構成について説明するための概略ブロック図である。
【図3】レイアウトデータベースDB1に記憶されるレイアウト情報の一例を示す図である。
【図4】クリップ情報データベースDB2に記憶されるクリップ情報の一例を示す図面である。
【図5】素材情報データベースDB3に記憶される情報について説明するための図面である。
【図6】タイムラインについて説明するための図面である。
【図7】タイムラインについて説明するための図面である。
【図8】タイムライン表示処理について説明するためのフローチャートである。
【図9】端末2の画面上に表示される情報の一例を示す図面である。
【図10】情報の変更処理について説明するためのフローチャートである。
【図11】テキストについて編集指示が行われた場合について説明するための図面である。
【図12】再生時間情報を変更する場合について説明するための図面である。
【図13】検索処理について説明するためのフローチャートである。
【図14】検索処理について説明するための図面である。
【図15】検索処理について説明するための図面である。
【図16】検索処理について説明するための図面である。
【図17】検索処理について説明するための図面である。
【図18】検索処理について説明するための図面である。
【図19】検索処理について説明するための図面である。
【図20】レイアウト情報変更処理がなされた場合における検索結果について説明するための図面である。
【図21】レイアウト情報変更処理がなされた場合における検索結果について説明するための図面である。
【図22】同期マルチメディアプレゼンテーションを例示する図である。
【符号の説明】
1 動画像編集装置            2 端末
11 編集プログラム生成部        12 属性情報格納処理部
13 同期マルチメディア言語ファイル生成部
14 同期マルチメディア言語ファイル格納部
15 通信部               15a 編集指示受信部
15b 検索情報受信部          15c 検索結果受信部
15d 変更指示受信部          16 属性情報表示部
17 情報変更部             18 属性情報検索部
19 レイアウト情報変更部
DB1 レイアウト情報データベース
DB2 クリップ情報データベース     DB3 素材情報データベース
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving image editing device that edits a moving image or text between a moving image editing device and a terminal connected via a network.
[0002]
[Prior art]
The increase in capacity of communication lines in recent years has produced various benefits for users. One of them is that moving image distribution by streaming (a method of reproducing moving image data while receiving it) by an individual has become feasible. Streaming is said to be suitable for moving image distribution because it can be played without waiting for the entire file to be downloaded.
[0003]
Furthermore, there is a need for a technology to stream moving images, still images, audio, and text by synchronizing them in each of a plurality of areas, and in response to the development of a synchronous multimedia description language, It has become possible.
[0004]
FIG. 22 is a diagram illustrating a synchronous multimedia presentation.
This synchronized multimedia presentation is the simplest one to play each presentation in two areas. For example, the left main area 51 formed in the window 100 is used for streaming playback of a soccer game, and the right sub area 52 is used for streaming reproduction of a profile of a player who plays in the main area 51. You.
[0005]
These synchronous multimedia presentations are edited while streaming the data of the material from the server in which the data of the material such as a moving image, a still image, or a text is stored to the terminal side by streaming. That is, the user of the terminal performs the reproduction while receiving the streaming, and specifies the insertion start and end times of each material used for the synchronous multimedia presentation while watching the reproduction screen.
[0006]
[Problems to be solved by the invention]
However, the above-described editing method has the following problems.
1. When editing a synchronized multimedia presentation created using multiple clips, if you try to check the playback order and playback time of each clip that composes the synchronized multimedia presentation, the synchronized multimedia presentation to be checked ends from the beginning. Played back and checked the contents. Therefore, there is a problem that it takes time and effort to check the editing result of the synchronized multimedia presentation, and the efficiency of the editing operation is reduced.
[0007]
2. Since editing was performed while receiving and playing the streaming, for example, after creating a synchronous multimedia presentation of a moving image of 10 minutes once, an attempt was made to insert text into a portion of the moving image after 9 minutes passed. Then, the user waits until nine minutes elapse after receiving the streaming of the moving image to be edited while receiving it, and then inputs an instruction to insert a text at an appropriate timing. Therefore, the user has to play the streaming and wait until the editing timing, so that the editing work is troublesome and time-consuming for the user, and the efficiency of the editing work is reduced and the burden is increased.
[0008]
3. When searching for a required moving image or text from a once created synchronous multimedia presentation, use the attribute information set in the moving image or text file, specify the keyword to search, and specify the attribute corresponding to the keyword It is conceivable to search for information to find necessary moving images and texts. However, conventionally, when the size of the display area of the moving image or the text is changed and the areas are overlapped with each other, the management of the attribute information of the overlapped area cannot be performed well, and as a result, a search function may be provided. could not.
[0009]
The present invention has been made in view of such circumstances, and an object of the present invention is to provide a moving image editing apparatus capable of easily grasping an editing result.
It is another object of the present invention to provide a moving image editing apparatus capable of efficiently performing an editing operation.
It is another object of the present invention to provide a moving image editing apparatus capable of searching for an edited file.
It is another object of the present invention to provide a moving image editing apparatus capable of searching for an edited file even when the size of an area is changed.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a moving picture editing apparatus in a moving picture editing system in which a moving picture editing apparatus for editing a synchronous multimedia presentation to be edited and a terminal are connected via a communication line. The reproduction time information in which an insertion point and an erasure point of the clip in the synchronous multimedia presentation are set as attributes of a clip to be reproduced in a certain area of the synchronous multimedia presentation to be edited, and the area A clip information database that stores as area clip information in association with area identification information for identifying
An attribute information display unit for displaying each clip in the same area on the display screen of the terminal in the form of a graphic corresponding to an elapsed time based on the insertion point and the erasure point stored as the reproduction time information. And
[0011]
In the moving image editing apparatus according to the present invention, the clip information may further include attribute information indicating the attribute of the clip in addition to the reproduction time information stored in association with the region identification information for each clip. The attribute information display unit reads attribute information stored in the clip information database, and displays the read attribute information on the display screen of the terminal in association with the insertion point and the deletion point of the graphic. And
[0012]
In the moving image editing apparatus according to the present invention, the attribute information may include a clip file name and a text independently or both a clip file name and a text.
[0013]
Further, the present invention, in the moving image editing apparatus described above, an edit instruction receiving unit that receives an edit instruction that is an instruction to edit reproduction time information or attribute information input to a graphic on a display screen of the terminal, Based on the editing instruction received by the editing instruction receiving unit, area identification information of an area corresponding to the figure whose editing is instructed is detected, and clip information corresponding to the detected area identifier is determined according to the editing content of the editing instruction. And an information changing unit for updating and storing the updated information in the clip information database.
[0014]
Further, according to the present invention, in the moving picture editing apparatus described above, a search for receiving a search key serving as a key for searching for reproduction time or attribute information transmitted from the terminal and search area designation information for designating a search target area is provided. An information receiving unit; an attribute information searching unit for searching attribute information corresponding to the search key from attribute information corresponding to area identification information specified by search area specifying information received by the search information receiving unit; A search result transmitting unit that transmits a search result of the information search unit to the terminal.
[0015]
Also, in the moving image editing apparatus according to the present invention, when a plurality of search target areas are specified, the attribute information search unit may perform a common search on the attribute information corresponding to the area identification information of the search target area. It is characterized by detecting whether or not a key is included.
[0016]
Further, according to the present invention, in the above-described moving image editing apparatus, a layout database that stores layout information, which is information for specifying a size for displaying the clip, in association with the area identification information, is transmitted from the terminal. A change instruction receiving unit that receives an instruction to change the size of displaying the clip, and a layout information changing unit that changes the size of displaying the clip in response to the change instruction received by the change instruction receiving unit. It is characterized by having.
[0017]
The present invention also provides a video editing system as described above, wherein the video editing device for editing a synchronous multimedia presentation to be edited and a terminal are connected via a communication line. A moving image editing support method used in an editing apparatus, wherein an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip reproduced in a certain area of the synchronous multimedia presentation to be edited. Based on the clip information stored in association with the set reproduction time information and the area identification information for identifying the area, a display screen of the terminal using a graphic in which each clip in the same area is associated with an elapsed time. Is displayed.
[0018]
The present invention also provides a video editing system as described above, wherein the video editing device for editing a synchronous multimedia presentation to be edited and a terminal are connected via a communication line. A moving image editing support program used in an editing apparatus, wherein an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip reproduced in a certain area of the synchronous multimedia presentation to be edited. Based on the clip information stored in association with the set reproduction time information and the area identification information for identifying the area, a display screen of the terminal using a graphic in which each clip in the same area is associated with an elapsed time. And causing the computer to execute the step of displaying.
[0019]
The present invention also provides a video editing system as described above, wherein the video editing device for editing a synchronous multimedia presentation to be edited and a terminal are connected via a communication line. A recording medium recording a moving image editing support program used in an editing apparatus, wherein the attribute of a clip reproduced in a certain area of the synchronous multimedia presentation to be edited is an attribute of the clip to the synchronous multimedia presentation. Based on clip information stored in association with reproduction time information in which an insertion point and an erasure point are set and area identification information for identifying the area, a graphic in which each clip in the same area is associated with an elapsed time is used. Causing the computer to execute the step of displaying on the display screen of the terminal. And characterized by recording the image editing support program.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, terms used in the present embodiment will be described.
The “synchronous multimedia presentation” means that a player (to be described later) performs streaming playback in each of a plurality of areas (hereinafter simply referred to as areas) provided in a window (hereinafter simply referred to as a window) displayed on a display device of a terminal. Presentation (to be described later).
[0021]
“Presentation” refers to a plurality or one clip (described later) or text content (described later) that is continuously streamed and reproduced in the same “region”.
[0022]
The “clip” includes any one of a moving image such as MPEG, a sound such as MP3, a still image such as JPEG, a text such as ASCII characters, and an animation, and is played back by a streaming server (“material”). Say 1
Or composed of a plurality of files) between any two points. Mainly a part of the material, rarely the entire material is a clip.
[0023]
“Text clip” refers to character information that is not displayed in a streaming manner but is simply displayed in an area during a defined display time.
[0024]
"Player" refers to software for streaming playback that runs on a computer. It can play synchronized multimedia presentations, presentations, materials, clips, and text clips. Is done.
[0025]
Next, a moving image editing system to which a moving image editing apparatus according to an embodiment of the present invention is applied will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing a configuration of a moving image editing system to which a moving image editing device according to an embodiment of the present invention is applied.
In FIG. 1, a moving image editing apparatus 1 is a computer that provides a service for interactively editing a synchronous multimedia presentation on computers (referred to as terminals) 2, 2,. Are connected to the terminals 2, 2,.
[0026]
In the terminal 2, a browser 21 that interprets a source code described in HTML (Hyper Text Markup Language) and controls a screen for editing, and a player 22 for streaming reproduction are started. Also, streaming servers 3, 3,... Inside and outside the facility where the moving image editing apparatus 1 is installed are connected to a network, so that the terminal 2 can supply a material specified by a URL (Uniform Resource Locator) in a streaming manner. ing. Note that a plurality of players 22 can be activated.
[0027]
FIG. 2 is a schematic block diagram for explaining the configuration of the moving image editing apparatus 1. The moving image editing apparatus 1 includes a layout database DB1 that mainly stores layout-related attributes and the like (referred to as layout information) for each synchronized multimedia presentation, attribute information for defining each clip, and playback. A clip information database DB2 storing time information and the like, and a material information database DB3 storing a URL of the material are provided.
[0028]
FIG. 3 is a diagram illustrating an example of the layout information stored in the layout database DB1. In the layout database DB1, layout information is stored in an area record provided for each area for one synchronous multimedia presentation in association with an area ID for identifying each area (corresponding to the above-described area identification information). This layout information includes information for specifying a size for displaying a clip. That is, the same layout ID and the width and height of the window are set in these area records. Each area record includes an area ID, an editing order of the area, upper end coordinates (coordinates of the upper end of the area based on the upper end of the window), and left end coordinates (a left end of the area based on the left end of the window). ), The width and height of the area, and the order of overlap (not shown) are set.
[0029]
FIG. 4 is a diagram illustrating an example of clip information stored in the clip information database DB2. In the clip information, attribute information of a clip requiring a material and a text clip can be stored in association with a clip ID. In the clip record associated with the clip ID for identifying each clip, an area ID and reproduction time information as information on an insertion point and an erasure point are set and stored. In particular, for a clip that requires a material, the clip record contains the material ID and the start and end points of the clip, while for a text clip, the clip record contains the background color, character color, character size, The horizontal alignment information, the display time, the content (text), the file name of the moving image or the still image, and the additional content for storing the user's comment are stored.
[0030]
FIG. 5A is a diagram showing the material information database DB3. In the material record of the material information database DB3, the URL of the material and the material attribute are set in association with the material ID for identifying the material. As the material attributes, information such as the title and creator of the material generated by the encoding software when encoding the material is extracted and stored by the attribute information storage processing unit 12 described later. In this case, among the material attributes set for the material, which item of the material attribute is to be extracted and stored is determined by an instruction from the terminal 2 or an instruction of the administrator of the moving image editing apparatus 1. FIG. 5B shows an example of this material attribute. As shown in this figure, the material attribute includes items such as title, author, copyright, and the like.
[0031]
Returning to FIG. 2, the description will be continued. The editing program generation unit 11 of the moving image editing apparatus 1 generates HTML source code for causing the terminal 2 to configure various screens. The attribute information storage unit 12 performs a process of storing the attribute information obtained from the terminal 2 by the editing program in the layout database DB1, the clip information database DB2, and the material information database DB3. Further, the attribute information storage processing unit 12 extracts the material attribute of the item specified by the terminal 2 or the administrator from the material attributes generated at the time of encoding the material, and stores the extracted material attribute in the material information database DB3.
The synchronous multimedia language file generation unit 13 generates a synchronous multimedia language file based on the attribute information stored in the layout database DB1, the clip information database DB2, and the material information database DB3. The synchronous multimedia language file storage unit 14 stores the synchronous multimedia language file generated by the synchronous multimedia language file generation unit 13 according to an instruction from the synchronous multimedia language file generation unit 13. The communication unit 15 transmits and receives data to and from the terminal 2. The communication unit 15 is also called an http daemon.
[0032]
Further, the communication unit 15 includes an editing instruction receiving unit 15a that receives an editing instruction that is an instruction for editing attribute information of a clip input to a figure displayed on the display screen of the terminal 2, and an editing instruction receiving unit 15a that is transmitted from the terminal 2. A search information receiving unit 15b for receiving a search key serving as a key for searching attribute information to be searched and search area specifying information for specifying a search target area, and a search result of an attribute information search unit 18 described later are transmitted to the terminal 2. It has a search result transmitting unit 15c and a change instruction receiving unit 15d that receives an instruction to change the size of displaying clips transmitted from the terminal 2.
[0033]
The attribute information display unit 16 displays the insertion point and the erasure point stored as the clip information stored in the clip information database DB2 on the display screen of the terminal 2 as a graphic (hereinafter, referred to as a timeline) in association with the elapsed time. The communication unit 15 generates information for causing the information to be transmitted. Specifically, the attribute information display unit 16 reads out information on the time set in the item of the insertion point and the erasure point from among the attribute information stored in the clip information database for each clip, and A process for making the insertion point and the erasing point correspond to the lapse of the elapsed time is performed to generate information for displaying a timeline.
Further, the attribute information display unit 16 generates information for displaying the attribute information set for each clip in association with the insertion point and the erasure point.
Further, when there are a plurality of regions, the attribute information display unit 16 generates information for displaying a timeline for each region.
[0034]
Here, the timeline will be further described. That is, as shown in FIG. 6A and FIG. 6B, the timeline is based on the reproduction time information for reproducing the clip, and associates the attribute information of the clip with the elapsed time indicating the lapse of the reproduction time. Is displayed by a graph. In FIGS. 6A and 6B, information stored in the text item among the attribute information is displayed according to the elapsed time. The attribute information displayed on the timeline is not limited to text as long as it is information on items included in the attribute information.For example, when displaying a moving image, the file name of the moving image is extracted from the attribute information. When displaying or displaying text, the background color, character color, and character size can be extracted and displayed from the attribute information, and comments stored as additional contents can be extracted and displayed from the attribute information. It is possible. In addition, here, the reproduction time information is divided as shown by the symbols (c), (d), and (e) in FIG. 6A, and displayed by different colors. This color scheme may be displayed according to the background color set in the attribute information. When displaying text, information such as the character size, character color, and font set in the attribute information may be displayed in addition to the text.
[0035]
When the editing content of a moving image is displayed by a timeline, the file name of the moving image is displayed as shown in FIGS. 7A and 7B.
[0036]
Note that, in this embodiment, the graphic for displaying the timeline will be described as a bar graph. However, if the graphic can display the attribute information in response to the elapse of the reproduction time, a bar graph is used. It is not limited to. For example, a pie chart or the like may be used.
[0037]
Returning to FIG. 2, the attribute information changing unit 17 detects the area ID of the area corresponding to the figure for which editing has been instructed, based on the editing instruction received by the editing instruction receiving unit 15 a of the communication unit 15, The attribute information stored in the clip information database DB2 is updated according to the editing instruction for the attribute information corresponding to the detected area ID. This update is performed by overwriting.
[0038]
The attribute information search unit 18 searches attribute information corresponding to the search key from attribute information corresponding to the area ID specified by the search area specification information received by the search information receiving unit 15b. Also, when a plurality of search target areas are specified, the attribute information search unit 18 detects whether or not the attribute information corresponding to the area ID of the search target area includes a common search key. This search key can be specified for information included in the attribute information and the material attribute.
The layout information changing unit 19 changes the size of displaying the clip in accordance with the change instruction received by the change instruction receiving unit 15d.
[0039]
Next, the operation of the moving image editing apparatus 1 will be described with reference to the drawings. Hereinafter, a timeline display process, an information change process, a search process, and a layout information change process performed by the moving image editing apparatus 1 in response to an editing request transmitted from the terminal 2 via the network will be sequentially described.
[0040]
1. Timeline display processing
The timeline display processing will be described with reference to the flowcharts of FIGS. 6, 7, and 8. First, the moving image editing apparatus 1 receives a registration request for layout information and a registration request for clip information transmitted from the terminal 2, and stores the received layout information in the layout information database DB1 based on the registration request. Is registered in the clip information database DB2. Thus, information as shown in FIGS. 3 and 4 is stored.
When the layout information and the clip information are stored, the attribute information display unit 16 detects the number of areas to be displayed from the registered layout information database DB1 based on the area ID, and, based on the detection result, determines the timeline. Is determined (step S1). Next, the attribute information display unit 16 reads the area ID from the layout information database DB1 (step S2), reads the reproduction time information and the attribute information corresponding to the read area ID from the clip information database DB2 (step S3), and reads them. Based on the playback time information and the attribute information, the generated timeline generates a timeline display source, and transmits the source to the terminal 2 via the network by the communication unit 15 (step S4). Here, the attribute information for displaying the moving image and the still image is extracted as the attribute information for displaying the text itself stored in the item of the content on the timeline in the case of the file name and the text. The item of the attribute information to be extracted can be changed in accordance with an instruction from the terminal 2.
[0041]
Upon receiving the timeline display source transmitted from the moving image editing apparatus 1, the terminal 2 generates a separate timeline for each region ID from the received timeline display source and displays the timeline on the screen (step S5). FIG. 9 shows an example of information displayed on this screen. In this figure, since there are two regions to be edited (sub screen and main screen), two time lines are displayed in the display field of the time line indicated by reference numeral (a). Here, in the timeline of the sub-screen indicated by the reference numeral (b), the text of "Italy Soccer" is displayed from 0 to 28 seconds, and the moving image of the file name "Serie A-1" is displayed from 28 to 110 seconds. Is displayed, and a timeline is displayed indicating that the text "Result ..." is displayed from 110 seconds to 135 seconds.
On the time line of the main screen shown by the symbol (c), a still image of the file name “Serie A-Logo” is displayed from 0 seconds to 40 seconds, and “the latter half 20 minutes ...” from 40 seconds to 98 seconds. Is displayed, and a timeline is displayed indicating that the text "Ube logo" is displayed from 98 seconds to 135 seconds.
[0042]
In the editing work column shown by reference numeral (d), a sub screen and a main screen are displayed, and any one of the areas is designated to perform editing work such as reproduction, stop, insertion point, and erasing point. A click button or the like having the function of is displayed. In this display, the editing program generation unit 11 generates HTML source code of a layout creation screen for obtaining layout information (abbreviated as a layout screen source, and a similar source code is abbreviated as a “screen source” at the end thereof). Then, the communication unit 15 transmits the layout creation screen source to the terminal 2.
[0043]
As described above, the playback time at which a moving image, a still image, or a text is played is displayed on the terminal 2 in association with the elapsed time, so that the user can easily grasp the edited contents of the edited streaming. Is possible.
[0044]
2. Information change processing
Next, information change processing will be described with reference to the flowchart of FIG. 10 and FIGS. When the user clicks an insertion point or an erasure point on the timeline, a file name, text, or the like using an input device such as a keyboard or a mouse of the terminal 2 and inputs an editing instruction (step S11), the terminal 2 proceeds to step S11. An editing instruction including the area ID of the timeline to which the editing instruction has been input is transmitted to the moving image editing apparatus 1 according to the editing content (step S12).
[0045]
The editing instruction receiving unit 15a of the moving image editing apparatus 1 receives the editing instruction transmitted from the terminal 2 (Step S13) and outputs to the information changing unit 17. The information changing unit 17 detects the area ID from the editing instruction, and stores and updates the attribute information corresponding to the detected area ID in the clip information database DB2 by overwriting the attribute information corresponding to the detected area ID according to the editing content of the editing instruction. (Step S14).
[0046]
When the attribute information is updated, the synchronous multimedia language file creator 13 creates a multimedia integrated language file (step S15) and stores it in the synchronous multimedia language file storage 14.
[0047]
Here, a timeline when an editing instruction is given for a text will be described with reference to FIG. To the text of the "Hello" of the timeline area I shown in FIG. 11 (a), the rewritten to "HELLO" by the input device of the terminal 2, the moving picture editing apparatus editing instruction corresponding to this rewriting is generated 1 and reflected in the clip information database DB2. Thus, when the text is rewritten, the changed text is displayed in the area as shown in FIG. 11C from FIG. 11D.
[0048]
Also, as shown in FIGS. 12 (a) and 12 (b), when an editing instruction for changing the reproduction time information is input, the text “Good morning” in the clip information database DB2 is deleted according to the editing instruction. the insertion point of the point and the text "Hello" is updated. As a result, in the region I, the text "Hello" to be displayed on the 45 th second is updated so as to be displayed on the 60 th second.
[0049]
As mentioned above. The user can perform an editing operation by inputting an editing instruction to the displayed timeline, whereby the user plays the streaming and waits until the timing for editing to perform the editing operation has arrived. You can save time and effort.
[0050]
3. Search processing
Next, the search processing will be described with reference to FIG. First, in the flowchart of FIG. 13, the user inputs an area ID to be searched through an input device and a search key to be searched (step S21), and transmits the same to the moving image editing device 1 (step S22). When receiving the area ID and the search key, the search information receiving unit 15b of the moving image editing apparatus 1 outputs the area ID and the search key to the attribute information search unit 18. The attribute information search unit 18 accesses the layout information database DB1 and the clip information database DB2, and detects whether or not there is information matching the search key in the attribute information of the area ID to be searched (step S23). Then, the attribute information search unit 18 transmits the search result to the terminal 2 by the search result transmission unit 15c (Step S24). Thereby, the search result is displayed on the screen of the terminal 2 (step S25).
[0051]
Here, the search processing will be further described with reference to FIGS.
a) Search by specifying area and keyword (standard search mode)
As shown in FIG. 14, among the three divided areas, the area 1 and the area 2 are designated as search areas, and when "good morning" is designated as a search key, the attribute information search unit 18 The search processing is performed, and the search result is transmitted to the terminal 2. At this time, for example, as shown by the symbol (a), two search keys are detected in the area 1 and one search key is detected in the area 2. Here, the attribute information search unit 18 sets information for causing the moving image editing apparatus 1 to transmit a trigger for reproducing a clip whose search key includes the search key in the search result (code (b) )). As a result, by clicking the search result on the terminal 2, a moving image, a still image, or a text including the search key is reproduced (code (c)).
As a result, the user can quickly search for a search target, perform editing, and play back.
[0052]
b) Search for Search Keys Commonly Included in a Plurality of Regions (Common Keyword Search Mode) When the common keyword search mode is instructed from the terminal 2, the attribute information search unit 18 searches for search keys common to each of the specified regions. Search whether or not is included. In this case, as shown in FIG. 15, for example, as shown in FIG. 15, when the attribute information of the text “Good morning” is commonly set in the area 1 and the area 2, the search result shown by the symbol (a) is obtained. Transmit to terminal 2.
[0053]
In the common keyword search mode, a plurality of search keys may be specified. For example, as shown in FIG. 16, when the area 1 and the area 2 are specified and the text and the existence time are specified as the search keys, the attribute information search unit 18 stores the two search keys in the area 1 and the area 2. Search based on. Here, a search result as to whether or not the text “Good morning” is included between the 10th and 30th seconds is output as shown by the symbol (a). In addition, the existence time is between 10 seconds and 30 seconds, and the result of searching for the text "Thank you" is displayed as shown by the symbol (b).
[0054]
d) Search using material attributes (material attribute search mode)
In response to an instruction from the terminal 2, the attribute information search unit 18 searches using, as a search key, a material attribute stored in the material information database DB3 in addition to the attribute information. FIG. 17 is a diagram illustrating a case where a search key is specified in addition to the creator name of the material information and the existence time is further specified, and the search is performed. In this case, the attribute information search unit 18 searches the material information database DB3 for a material attribute in which the creator name specified as the search key is set. Then, when there is a material attribute of the author name corresponding to the search key, the material ID corresponding to the searched material attribute is read, and the attribute information in which the read material ID is set is read from the clip information database DB2. Further, the attribute information search unit 18 detects whether or not the insertion point and the erasure point in the read attribute information are included in the existence time specified by the search key. , An area in which the attribute information is set is detected. Then, a thumbnail image is set in the detected area, and transmitted as a detection result to the terminal 2 for display. Here, the thumbnail image is a still image in the case of a still image or text, and is a still image used for searching for a moving image in the case of a moving image. As the search result, for example, FIGS. 17A, 17B, and 17C are arranged and displayed on the screen. If the thumbnail image is a moving image, the moving image is reproduced when the thumbnail image is clicked by the input device of the terminal 2.
[0055]
e) Display search results using timeline
A timeline may be used instead of the method of displaying the search result described above. In this case, for example, as shown in FIG. 18, the text corresponding to the search key and the color scheme of the timeline of the background portion thereof are displayed in an emphasized manner.
[0056]
Display search results using timeline and thumbnail images
In the display method of e) described above, a thumbnail image may be further displayed. For example, as shown in FIG. 19, when a search is performed for a region 1 by specifying a file name as a search key, a thumbnail image as shown by a symbol (a) is added to the timeline in the search result and output. You. Similarly, in the area 2, a thumbnail image having a file name designated as a search key is added to the timeline and displayed.
[0057]
4. Layout information change processing
Next, the layout information change processing will be described with reference to FIG. First, the user inputs an area ID to be searched through the input device and a change instruction for changing the width and height of the area, and transmits the input to the moving image editing apparatus 1. The change instruction receiving unit 15d of the moving image editing apparatus 1 receives the change instruction and outputs it to the layout information changing unit 19. The layout information changing unit 19 updates the layout information database DB1 by overwriting data of the width and height corresponding to the area ID to be edited based on the editing instruction.
As described above, even when the layout is changed, the width and height information of the layout information database DB1 is overwritten. Thereby, as shown in FIG. 20, as shown in FIGS. 20 (a) to 20 (b), even when editing is performed to reduce the size of the area 1 and increase the size of the area 2, The results are the same before and after the layout change, as shown by reference numerals (c) and (d).
[0058]
When the layout is changed, the same search result is obtained before and after the layout change as shown in FIG. 21, even when the search result is displayed as a timeline and a thumbnail image. The same results are displayed for search results.
[0059]
In the embodiment described above, the search processing is mainly described using text as a search key. However, if the item is included in the attribute information and the material attribute, a search key other than text is set as the search key. It may be. For example, the background color of the text, the character color, the character size, the additional content, and the like may be used as a search key, or a search may be performed by combining a plurality of them.
[0060]
Also, the editing instruction receiving unit 15a, the search information receiving unit 15b, the search result transmitting unit 15c, the change instruction receiving unit 15d, the attribute information display unit 16, the information changing unit 17, the attribute information searching unit 18, the layout information changing unit in FIG. The program for realizing the functions of the nineteenth aspect may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform the editing work process. Here, the “computer system” includes an OS and hardware such as peripheral devices.
[0061]
The “computer system” also includes a homepage providing environment (or a display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, a “computer-readable recording medium” refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, which dynamically holds the program for a short time. In this case, it is also assumed that a program that holds a program for a certain period of time, such as a volatile memory in a computer system serving as a server or a client in that case, is included. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system.
[0062]
As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiments, and includes a design and the like without departing from the gist of the present invention.
[0063]
【The invention's effect】
As described above, according to the present invention, when editing moving image editing, a graphic in which each clip in the same area is made to correspond to the elapsed time based on the insertion point and the erasing point stored as the reproduction time information. Is displayed on the display screen of the terminal, so that the user can easily grasp the edited contents of the edited streaming visually.
[0064]
Further, according to the present invention, the attribute information stored in the clip information database is read, and the read attribute information is displayed in association with the insertion point and the erasure point of the graphic. The effect that the attribute can be easily grasped is obtained.
[0065]
Further, according to the present invention, the file name or text of the clip is displayed as the attribute information, so that it is possible to obtain the effect of easily grasping what kind of file or text while visually grasping the time. Can be
[0066]
In addition, the present invention detects area identification information of an area corresponding to a figure whose editing is instructed based on an editing instruction received by an editing instruction receiving unit, and outputs clip information corresponding to the detected area identifier to the editing instruction. Is updated according to the editing contents of the file and stored in the clip information database, so that the user can perform an editing operation by inputting an editing instruction to the displayed figure. This eliminates the need to play back and wait for streaming until the timing for editing to reach the work time, thereby providing an effect that the editing work can be performed efficiently.
[0067]
Further, the present invention receives a search key serving as a key for searching for a reproduction time or attribute information transmitted from a terminal and search region designation information for designating a search target region, and is designated by the received search region designation information. Since the attribute information corresponding to the search key is searched from the attribute information corresponding to the area identification information, the effect that the edited file can be searched is obtained.
[0068]
Further, the present invention receives a change instruction of a size for displaying a clip transmitted from a terminal, and, in response to the received change instruction, transmits information of a size for displaying a clip to a clip information database based on an area ID. In this case, the edited file can be retrieved even when the size of the area is changed.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram illustrating a configuration of a moving image editing system to which a moving image editing device according to an embodiment of the present invention is applied.
FIG. 2 is a schematic block diagram for describing a configuration of a moving image editing device 1.
FIG. 3 is a diagram illustrating an example of layout information stored in a layout database DB1.
FIG. 4 is a diagram showing an example of clip information stored in a clip information database DB2.
FIG. 5 is a diagram for describing information stored in a material information database DB3.
FIG. 6 is a diagram for explaining a time line.
FIG. 7 is a diagram for explaining a timeline.
FIG. 8 is a flowchart illustrating a timeline display process.
FIG. 9 is a diagram showing an example of information displayed on a screen of a terminal 2.
FIG. 10 is a flowchart for explaining information change processing;
FIG. 11 is a diagram for explaining a case where an edit instruction is given to a text.
FIG. 12 is a diagram for explaining a case where reproduction time information is changed.
FIG. 13 is a flowchart illustrating a search process.
FIG. 14 is a diagram illustrating a search process.
FIG. 15 is a diagram illustrating a search process.
FIG. 16 is a diagram illustrating a search process.
FIG. 17 is a diagram illustrating a search process.
FIG. 18 is a diagram illustrating a search process.
FIG. 19 is a diagram for describing a search process.
FIG. 20 is a diagram for describing a search result when layout information change processing is performed.
FIG. 21 is a diagram for describing a search result when layout information change processing is performed.
FIG. 22 is a diagram illustrating a synchronous multimedia presentation.
[Explanation of symbols]
1 Video editing device 2 Terminal
11 editing program generation unit 12 attribute information storage processing unit
13 Synchronous multimedia language file generator
14 Synchronous multimedia language file storage
15 Communication unit 15a Edit instruction receiving unit
15b Search information receiving unit 15c Search result receiving unit
15d Change instruction receiving unit 16 Attribute information display unit
17 Information change unit 18 Attribute information search unit
19 Layout information change section
DB1 Layout information database
DB2 Clip information database DB3 Material information database

Claims (10)

編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置であって、
前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けてクリップ情報として記憶するクリップ情報データベースと、
前記再生時間情報として記憶された挿入点および消去点に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させる属性情報表示部と
を有することを特徴とする動画像編集装置。
A moving image editing device in a moving image editing system in which a moving image editing device and a terminal for editing a synchronous multimedia presentation to be edited are connected via a communication line,
Playback time information in which an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip played in a certain area of the synchronous multimedia presentation to be edited, and an area for identifying the area A clip information database that stores identification information in association with clip information,
An attribute information display unit for displaying each clip in the same area on the display screen of the terminal in the form of a graphic corresponding to an elapsed time based on the insertion point and the erasure point stored as the reproduction time information. Moving image editing device.
前記クリップ情報には、前記再生時間情報にさらに前記クリップの属性を示す属性情報が前記クリップ毎に前記領域識別情報に対応付けて記憶されており、
前記属性情報表示部は、前記クリップ情報データベースに記憶された属性情報を読み出し、読み出した属性情報を前記図形の挿入点および消去点に対応付けて前記端末の表示画面に表示させる
ことを特徴とする請求項1記載の動画像編集装置。
In the clip information, attribute information indicating an attribute of the clip is further stored in the clip information in association with the area identification information for each clip,
The attribute information display unit reads attribute information stored in the clip information database, and displays the read attribute information on a display screen of the terminal in association with an insertion point and an erasure point of the graphic. The moving image editing apparatus according to claim 1.
前記属性情報には、クリップのファイル名とテキストとをそれぞれ独立またはクリップのファイル名とテキストとの両方とが含まれることを特徴とする請求項2記載の動画像編集装置。3. The moving image editing apparatus according to claim 2, wherein the attribute information includes a file name and a text of the clip independently or a file name and a text of the clip. 前記端末の表示画面の図形に対して入力される再生時間情報または属性情報を編集する指示である編集指示を受信する編集指示受信部と、
前記編集指示受信部が受信した編集指示に基づいて、編集が指示された図形に対応する領域の領域識別情報を検出し、検出した領域識別子に対応するクリップ情報を前記編集指示の編集内容に応じて更新して前記クリップ情報データベースに記憶する情報変更部と
を有することを特徴とする請求項1から請求項3のうちいずれかに記載の動画像編集装置。
An edit instruction receiving unit that receives an edit instruction that is an instruction to edit reproduction time information or attribute information input to a graphic on the display screen of the terminal,
Based on the editing instruction received by the editing instruction receiving unit, area identification information of an area corresponding to the figure whose editing is instructed is detected, and clip information corresponding to the detected area identifier is determined according to the editing content of the editing instruction. The moving image editing apparatus according to any one of claims 1 to 3, further comprising: an information changing unit configured to update the information and store the updated information in the clip information database.
前記端末から送信される再生時間または属性情報を検索するキーとなる検索キーと検索対象の領域を指定する検索領域指定情報とを受信する検索情報受信部と、
前記検索情報受信部が受信する検索領域指定情報によって指定される領域識別情報に対応する属性情報から、前記検索キーに対応する属性情報を検索する属性情報検索部と、
前記属性情報検索部の検索結果を前記端末に送信する検索結果送信部と、
を有することを特徴とする請求項1から請求項4のうちいずれかに記載の動画像編集装置。
A search information receiving unit that receives a search key serving as a key for searching for the reproduction time or attribute information transmitted from the terminal and search area designation information for designating a search target area,
An attribute information search unit that searches attribute information corresponding to the search key from attribute information corresponding to area identification information specified by search area specification information received by the search information receiving unit;
A search result transmission unit that transmits a search result of the attribute information search unit to the terminal,
The moving image editing apparatus according to any one of claims 1 to 4, further comprising:
前記属性情報検索部は、検索対象の領域が複数指定された場合に、検索対象の領域の領域識別情報に対応する属性情報に共通に検索キーが含まれているか否かを検出する
ことを特徴とする請求項5記載の動画像編集装置。
When a plurality of search target areas are specified, the attribute information search unit detects whether or not the attribute information corresponding to the area identification information of the search target area includes a search key in common. The moving image editing apparatus according to claim 5, wherein
前記クリップを表示する大きさを指定する情報であるレイアウト情報を前記領域識別情報に対応付けて記憶するレイアウトデータベースと、前記端末から送信される、前記クリップを表示する大きさの変更指示を受信する変更指示受信部と、
前記変更指示受信部が受信する変更指示に応じて、クリップを表示する大きさを変更するレイアウト情報変更部と、
を有することを特徴とする請求項1から請求項6のうちいずれかに記載の動画像編集装置。
A layout database that stores layout information, which is information for specifying the size at which the clip is displayed, in association with the area identification information, and receives an instruction to change the size at which the clip is displayed, transmitted from the terminal; A change instruction receiving unit,
A layout information changing unit that changes the size of displaying a clip according to a change instruction received by the change instruction receiving unit;
The moving image editing apparatus according to claim 1, further comprising:
編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画編集支援方法であって、
前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させる
ことを特徴とする動画編集支援方法。
A video editing support method used for a video editing device in a video editing system in which a video editing device and a terminal for editing a synchronized multimedia presentation to be edited are connected via a communication line,
Playback time information in which an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip played in a certain area of the synchronous multimedia presentation to be edited, and an area for identifying the area A moving image editing support method, wherein each clip in the same area is displayed on a display screen of the terminal in the form of a graphic corresponding to an elapsed time based on clip information stored in association with identification information.
編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画像編集支援プログラムであって、
前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させるステップ
をコンピュータに実行させる動画像編集支援プログラム。
A moving image editing support program used for a moving image editing device in a moving image editing system in which a moving image editing device and a terminal for editing a synchronous multimedia presentation to be edited are connected via a communication line,
Playback time information in which an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip played in a certain area of the synchronous multimedia presentation to be edited, and an area for identifying the area A moving image editing support program for causing a computer to execute a step of displaying each clip in the same area on a display screen of the terminal in a graphic corresponding to an elapsed time based on clip information stored in association with identification information .
編集対象である同期マルチメディアプレゼンテーションを編集するための動画像編集装置と端末とが通信回線を介して接続される動画像編集システムにおける動画像編集装置に用いられる動画像編集支援プログラムを記録した記録媒体であって、
前記編集対象である同期マルチメディアプレゼンテーションの或る領域で再生されるクリップの属性として当該同期マルチメディアプレゼンテーションヘの当該クリップの挿入点及び消去点が設定された再生時間情報と前記領域を識別する領域識別情報とを対応付けて記憶されるクリップ情報に基づいて、同一領域内の各クリップを経過時間に対応させた図形によって前記端末の表示画面に表示させるステップ
をコンピュータに実行させるための動画像編集支援プログラムを記録したコンピュータ読み取り可能な記録媒体。
A recording that records a moving image editing support program used in a moving image editing device in a moving image editing system in which a moving image editing device for editing a synchronous multimedia presentation to be edited and a terminal are connected via a communication line. A medium,
Playback time information in which an insertion point and an erasing point of the clip in the synchronous multimedia presentation are set as attributes of a clip played in a certain area of the synchronous multimedia presentation to be edited, and an area for identifying the area Moving image editing for causing a computer to execute a step of displaying each clip in the same area on the display screen of the terminal by a graphic corresponding to an elapsed time based on clip information stored in association with identification information A computer-readable recording medium recording a support program.
JP2002170510A 2002-06-11 2002-06-11 Moving image editing apparatus Pending JP2004015748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002170510A JP2004015748A (en) 2002-06-11 2002-06-11 Moving image editing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002170510A JP2004015748A (en) 2002-06-11 2002-06-11 Moving image editing apparatus

Publications (1)

Publication Number Publication Date
JP2004015748A true JP2004015748A (en) 2004-01-15

Family

ID=30436743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002170510A Pending JP2004015748A (en) 2002-06-11 2002-06-11 Moving image editing apparatus

Country Status (1)

Country Link
JP (1) JP2004015748A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108819A (en) * 2005-10-11 2007-04-26 Toshiba Corp Application information management apparatus, application information management program, application information management method
JP2010021891A (en) * 2008-07-11 2010-01-28 Hitachi Ltd Video editing system and video editing method
KR20110042856A (en) * 2009-10-20 2011-04-27 엘지전자 주식회사 Method for storing image data in portable terminal, method for displaying image data in portable terminal and portable terminal thereof
JP2017041811A (en) * 2015-08-21 2017-02-23 富士ゼロックス株式会社 Information processing apparatus and information processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108819A (en) * 2005-10-11 2007-04-26 Toshiba Corp Application information management apparatus, application information management program, application information management method
JP2010021891A (en) * 2008-07-11 2010-01-28 Hitachi Ltd Video editing system and video editing method
KR20110042856A (en) * 2009-10-20 2011-04-27 엘지전자 주식회사 Method for storing image data in portable terminal, method for displaying image data in portable terminal and portable terminal thereof
KR101600090B1 (en) * 2009-10-20 2016-03-04 엘지전자 주식회사 Method for storing image data in portable terminal method for displaying image data in portable terminal and portable terminal thereof
JP2017041811A (en) * 2015-08-21 2017-02-23 富士ゼロックス株式会社 Information processing apparatus and information processing program

Similar Documents

Publication Publication Date Title
US7111009B1 (en) Interactive playlist generation using annotations
US8572490B2 (en) Embedded video player
US8074161B2 (en) Methods and systems for selection of multimedia presentations
US20140052770A1 (en) System and method for managing media content using a dynamic playlist
US20140244607A1 (en) System and Method for Real-Time Media Presentation Using Metadata Clips
US20070250899A1 (en) Nondestructive self-publishing video editing system
JP2007036830A (en) Moving picture management system, moving picture managing method, client, and program
WO2002073462A1 (en) Multimedia cooperative work system, client/server thereof, method therefor, recorded medium therefor, and program therefor
WO2000016221A9 (en) Interactive playlist generation using annotations
JP2007142750A (en) Video image browsing system, computer terminal and program
JP2008242838A (en) Description expression adding apparatus, program and description expression adding method
JP2001306599A (en) Method and device for hierarchically managing video, and recording medium recorded with hierarchical management program
JP4514671B2 (en) CONTENT EDITING DEVICE, COMPUTER-READABLE PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP2004112372A (en) Image processing system
JP4165249B2 (en) Content distribution method and program
JP2009177540A (en) Image display system and program
CN101491089A (en) Embedded metadata in a media presentation
JP5552987B2 (en) Search result output device, search result output method, and search result output program
JP2004112379A (en) Image retrieving system
JP2009267655A (en) Program management system, program management server, program viewing terminal, program management program, and program viewing program
KR20100137252A (en) Digital album apparatus and method for driving thereof, method for providing object information included movie to digital album and apparatus
JP2004015748A (en) Moving image editing apparatus
JP2002229996A (en) Apparatus and method for displaying search result, and program therefor
JP4407650B2 (en) Blog creation client device, blog server, and programs thereof
WO2002023350A1 (en) Technique for superimposingly display additional information on display screen

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050517