JP3595871B2 - Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof - Google Patents

Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof Download PDF

Info

Publication number
JP3595871B2
JP3595871B2 JP22117898A JP22117898A JP3595871B2 JP 3595871 B2 JP3595871 B2 JP 3595871B2 JP 22117898 A JP22117898 A JP 22117898A JP 22117898 A JP22117898 A JP 22117898A JP 3595871 B2 JP3595871 B2 JP 3595871B2
Authority
JP
Japan
Prior art keywords
editing
display
scene
continuous media
media information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22117898A
Other languages
Japanese (ja)
Other versions
JP2000059720A (en
Inventor
康幸 大木
廣和 雨宮
忠 山光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP22117898A priority Critical patent/JP3595871B2/en
Publication of JP2000059720A publication Critical patent/JP2000059720A/en
Application granted granted Critical
Publication of JP3595871B2 publication Critical patent/JP3595871B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像の動画像フレームや音声の波形データ等の連続メディア情報を、コンピュータにより、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等からなる表示装置の画面上へ表示する技術と、キーボードやマウス等からなる入力装置から入力されるオペレータからの操作指示に基づき、画面上に表示した連続メディア情報を編集する技術に係わり、特に、情報内容を理解し易く、また、細かな編集作業を容易とするのに好適な連続メディア情報の表示・編集装置と連続メディア情報の表示・編集方法およびその処理手順を記録した記録媒体に関するものである。
【0002】
【従来の技術】
ビデオデッキやビデオカメラなどAV機器の低価格化に伴う普及によって、誰にでも簡単に映像を撮影・獲得することができる。また、ハードウェアやソフトウェアによる処理速度の向上によって、撮影した映像をデジタル化してコンピュータ上で映像を再生したり編集したりすることができる。
【0003】
このようなコンピュータを用いて、デジタル化した映像を編集する従来技術として、例えば、アビドテクノロジー(Avid Technology)社製のAVID/1メディアコンポーザ(MEDIA COMPOSER)や、特開平7−46462号公報(「映像プログラムを編集する方法と装置」)に記載のアドビ(Adobe)社製のプレミア(Premiere)などがある。
【0004】
これらの技術の特徴は、編集対象となる映像を表示する際、映像を構成しているフレーム画像を映画のフィルムのように一列に並べて表示することである。
以下、図16を用いて、このフレームを編集単位としたフレーム単位編集技術について説明する。
【0005】
図16は従来のフレーム単位編集技術での画面表示例を示す説明図である。
コンピュータシステムの表示装置の画面上のウィンドウ300には、編集対象となる人物の映像を表示するための行310と、車の映像を表示するための行330が設けられている。
ここで編集対象となる映像は、一連のフレーム画像の列として構成されている。例えば、行310における人物の映像はフレーム画像111〜113から、また、車の映像はフレーム画像121〜124から構成されている。
【0006】
このようなフレーム単位での編集技術の特徴は、フレーム画像の列を映画のフィルムのように直線状に並べた映像表現を用いて、映像編集を行うことである。しかし、この技術では、映像中のフレーム画像列を一直線状に配置するため、一度に全てのフレーム画像を1ウィンドウの表示枠内に表示することができない。表示枠外の映像内容を確認するためには、オペレータは、スクロールバー301を用いて、フレーム画像列をスクロールする。
【0007】
また、本例では、「映像1」と「映像2」の2つの映像を1つに繋ぎあわせる編集処理時の画面を表示している。ここでは、「映像1」の人物の映像から、「映像2」の車の映像に切り替わる際、人物の画像の端からだんだんと車の画像が現れてくる「ワイプ」と呼ばれる映像特殊効果を付加している。具体的には、人物の映像末尾フレーム画像112,113と、車の映像の先頭のフレーム画像121,122とを合成した画像を、映像編集結果の画像としている。
【0008】
上述のメディアコンポーザ等の典型的なフレーム単位編集技術では、このような特殊効果付け編集操作を、ユーザに分かり易く提示するために、特別に、特殊効果表示用の行320を備えている。また、実際に2つの映像が合成される個所に「ワイプ」といった特殊効果付けアイコン321が表示される。
このような、編集対象のフレーム画像列を映画のフィルムのように一直線状に並べた映像表現を用いた映像編集技術が、フレーム単位映像編集技術である。
【0009】
このフレーム単位映像編集技術は、従来、内容の確認が難しかったVHSや8mm形式のビデオテープのような映像を、映画のフィルムの切り張りのような直感的な操作で映像が編集できる。
しかし、フレーム画像列を一直線状に配置すると、どこにどのような映像シーンが存在するかを探しにくくなる。
【0010】
例えば、映像には通常、オープニングシーンや人が現れるシーンやエンディングシーンなど、シーンまたはカットと呼ばれる一連の論理的な映像区間を表す単位が存在するが、フレーム単位編集技術では、このような論理的な映像区間は何も考慮せず、ただ映像中の物理的な単位であるフレーム画像列のみを並べている。そのため、どこからどこまでが一連のシーンなのかが分かりにくい。
さらには、ある人物が登場するシーンだけを削除したい場合などには、どのフレーム位置でシーンが切り替わっているかを、オペレータが1フレームずつずらして確認する必要がある。
【0011】
このようなフレーム単位編集技術の問題点を解決するための従来技術として、例えば、特開平7−79404号公報(「ビデオの代表画像一覧作成方法および装置」)および特開平5−268517号公報(「動画像編集システムの表示方法」)に記載されている日立製作所製の映像編集ソフトウェアMediachef/CUTがある。この技術では、映像の論理単位であるシーンを編集の基本単位としたシーン単位編集技術を用いている。
以下、図17を用いて、このシーンを編集の基本単位としたシーン単位編集技術について説明する。
【0012】
図17は、従来のシーン単位編集技術での画面表示例を示す説明図である。
コンピュータシステムの表示装置の画面上のウィンドウ400には、編集対象となる4つの映像シーンがそれぞれシーンブロックイコン形式で表示されている。本編集技術では、前述の図16の人物のシーンを表す映像111〜113はシーンブロックアイコン410として、同じく車の映像シーン121〜124はシーンブロックアイコン420として表示され、さらに、新たなコント漫才の映像シーンがシーンブロックアイコン430として、また、家の映像シーンがシーンブロックアイコン440として表示されている。
【0013】
本例の各シーンブロックアイコン410〜440では、シーン中の特徴的なフレームの画像がアイコン画像として表面に表示され、またシーンの名称がアイコン画像の下に表示され、さらに、そのシーンの時間長が直方体状の各シーンブロックアイコン410〜440の奥行きとして表示されている。
このように、シーン単位の編集技術では、論理的な構造であるシーンだけをシーンブロックアイコン410〜440により表示することで、映像中にどのようなシーンが存在するのかが一目で分かる。
【0014】
また、このシーン単位の編集では、あるシーンブロックアイコンを選択して、削除したり移動したりすることで簡単にシーンの編集を行なうことができる。例えば、図17において、家のシーンをコントのシーンの前に移動するには、まずマウスカーソル170により家のシーンのシーンブロックアイコン440を選択し、マウスカーソル170をコントのシーンのシーンブロックアイコン430の前に移動する。これにより、シーンの並び替えが行われ、シーンブロックアイコン440がシーンブロックアイコン430の前に移動する。
【0015】
このように、シーン単位編集技術では、フレーム単位編集技術では難しかった論理的なシーンの移動や削除を簡単に行なうことができる。
尚、シーン単位編集技術によっては、いくつかのシーンブロックアイコンをグループ化することができ、グループ化したシーンブロックアイコンとグループ内シーンブロックアイコンを木構造で表現することができるものもある。この技術では、より実際の映像の論理構造にそった編集が可能である。
【0016】
しかし、このシーン単位編集技術では、シーンをシーンブロックアイコンとして表現しているため、シーン内の細かいフレーム画像の変化が捕らえにくくなる。例えば、先述の車のシーンの場合、図16のフレーム単位編集技術では、フレーム画像121〜124によって表現されているので、車が左方向に動いていることが容易に把握できる。しかし、本図17のシーン単位編集技術では、ある1枚のシーンを代表するフレーム画像だけがシーンブロックアイコン上に表示されるため、車が停まっているのか、車が動いていてもどの程度のスピードで動いているのかが把握しにくい。
【0017】
また、このシーン単位編集技術では、フレーム画像列が表示されないため、フレーム単位編集では簡単に行なうことができた先述のような(「ワイプ」による9フレーム間での特殊効果付けや、さらには、あるフレーム区間内での字幕の挿入など、フレーム単位の編集作業が難しくなっている。
【0018】
以上のような映像編集時の問題は、映像以外の連続メディア、例えば音声の編集にも存在する。
まず、図16のウィンドウ300における映像・音声編集画面を用いて、メディアコンポーザなどでも用いられている典型的な音声編集技術を説明する。
【0019】
この音声編集技術では、音声波形を一直線状に配置して表現する。図16では、行310の「映像1」に付随する音声を音声トラック340として表現している。同様に、行330の「映像2」に付随する音声を音声トラック350として表現している。これらの音声トラック340,350は、映像編集の際と同様に、マウスやスクロールバーなどを用いることによって、音声の区間を選択したり、選択した音声を加工したりすることができる。
【0020】
このような音声編集技術にも、先のフレーム単位映像編集と同じく、音声全体の論理構造が把握しづらいという問題がある。すなわち、音声も映像と同じように、オープニングソングやインタビューの話者の音声などのような、論理構造が存在するが、音声をこのような一直線状に表現しているため、どこからどこまでがインタビュアーの声なのかが分かりにくい。
【0021】
また、音声編集に関しても、映像の場合のようなシーン単位編集技術を考案することもできる。しかし、映像のシーン単位編集と同じく、音声中のどの部分でボリュームが変化するかなど、シーンブロックアイコンを見ただけでは把握できない情報がある。
【0022】
【発明が解決しようとする課題】
解決しようとする問題点は、従来の技術では、コンピュータでの編集処理において、オペレータは、映像や音声等といった連続メディアの論理構造を容易に理解しながら、同時に、その構成単位/要素(映像では画像フレーム、音声では波形データ)も容易に理解することができない点である。
【0023】
本発明の目的は、これら従来技術の課題を解決し、コンピュータを用いた映像や音声等といった連続メディアの編集作業を効率化することが可能な連続メディア情報の表示・編集装置と連続メディア情報の表示・編集方法およびその処理手順を記録した記録媒体を提供することである。
【0024】
【課題を解決するための手段】
上記目的を達成するため、本発明の連続メディア情報の表示・編集装置と連続メディア情報の表示・編集方法は、例えば動画像の各画像フレームを連続して画面の横方向に表示する場合、シーンの変化点を区切りとして改行し、行単位で各シーンを表示する構成とする。
【0025】
そして、各改行位置には改行マークを明示して、シーンの単位を理解し易くする。尚、画面の表示枠を超える場合には、スクロール操作等を行なっても良いが、その表示枠で強制的に折り返して次の行に表示することでも良い。この場合には改行マークは明示しない。
【0026】
また、画面上の各行の先頭から、および、先頭の行から後続の行方向へ、所定の経過時間を表す目盛線を表示し、各フレームおよび各シーンの時間位置を容易に理解できるようにする。
また、行先頭の前の領域に、この行に表示されている全フレームに対応する従来技術で作成されるシーンブロックアイコン情報も合わせて表示する。
【0027】
また、オペレータが編集対象のフレームを指定すると、その対象フレーム部分をハイライト表示することで、指定の良否を容易に判断できるようにし、かつ、その移動等の編集操作を容易とする。また、例えば、複数のフレームを1行に結合する場合、各結合部分を他の部分より大きく表示する等して、結合編集の結果を容易に判断できるようにする。さらに、結合編集した行の次の行から、結合編集前の各フレーム行の表示状態をウィンドウ表示する。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態を、図面により詳細に説明する。
図1は、本発明の連続メディア情報の表示・編集装置の本発明に係る構成の一実施例を示すブロック図である。
本図1において、1はCRTやLCD等からなる表示装置、2はキーボードやマウス、トラックボール等からなる入力装置、3はCPU(Central Processing Unit)やRAM(Random Access Memory)等からなり蓄積プログラム方式によるコンピュータ処理を行ない本発明に係わる連続メディア情報の表示および編集処理を行なう表示・編集装置、4はHDD(Hard Disk Drive)等からなる補助記憶装置、5はビデオテープレコーダ等からなり映像と音声情報を入力する連続メディア情報入力装置、6は表示・編集装置3で処理する本発明に係わる表示・編集処理の手順からなるプログラムを記録した光ディスク、7は光ディスク6を駆動してそのプログラムを表示・編集装置3に入力する光ディスク駆動装置である。
【0029】
表示・編集装置3には、光ディスク6から読み込んだプログラムにより、フレーム単位での表示と編集を行なうための表示処理部8と編集表示処理部9が構成され、また、連続メディア情報入力装置5から入力した映像や音声情報などのアナログ信号をコンピュータ処理可能なデジタル信号に変換するデータ変換部10が設けられている。
【0030】
表示処理部8は、フレーム表示部8a、区切り検出部8b、改行部8c、改行マーク明示部8d、表示枠設定部8e、折り返し部8f、横方向時間目盛表示部8g、縦方向時間目盛表示部8h、シーンブロックアイコン表示部8iを有し、編集表示処理部9は、結合表示処理部9aとアウトライン編集表示処理部9bを有している。
【0031】
このような構成により表示・編集装置3は、連続メディア情報入力装置5から入力される映像と音声を、画像フレームと波形データに変換して表示装置1のウィンドウ画面上に表示し、入力装置2からのオペレータからの操作指示に基づき、表示した画像フレームと波形データに対する編集処理を行なう。
【0032】
この表示処理において、表示・編集装置3は、フレーム表示部8aにより、画像フレームや波形データを横方向に順に表示する。この時、区切り検出部8bにより、画像フレームや波形データの論理的な区切り、すなわち、シーンの変化点を検出し、改行部8cにより、この検出したシーンの変化点毎に画像フレームや波形データの表示を改行する。
【0033】
このように、画像フレームや波形データを、シーン単位で行を変えて表示するので、編集処理を行なうオペレータは、各画像フレームや波形データの論理構造、すなわち各シーン構造を容易に理解することができると共に、その構成単位/構成要素、すなわち、画像フレームや波形データの内容も容易に理解することができ、それらの編集作業を効率的に行なうことができる。
【0034】
また、各シーンの改行位置には、改行マーク明示部8dにより、改行マークをハイライト表示する。これにより、オペレータは、シーンの単位を理解し易くなる。
また、表示枠設定部8eにより、画面横方向の表示領域が設定され、この表示領域を越えるシーンの各画像フレームや波形データは、折り返し部8fにより、その領域から折り返して次の行に表示する。尚、この折り返し位置に対しては、改行マーク明示部8dによる改行マークのハイライト表示は行なわない。
【0035】
また、横方向時間目盛表示部8gと縦方向時間目盛表示部8hにより、画面上の各行の先頭から、および、先頭の行から後続の行方向へ、所定の経過時間を表す目盛線を表示する。これにより、オペレータは、各フレームおよび各シーンの時間位置を容易に理解できる。
さらに、シーンブロックアイコン表示部8iにより、行先頭の前の領域に、この行に表示されている全フレームに対応するシーンブロックアイコン情報も合わせて表示する。
【0036】
そして、編集処理において、入力装置2を介してオペレータが編集対象のフレームを表示措置1の画面上で指定すると、表示・編集装置3は、編集表示処理部9により、例えば移動編集等を行なうと共に、その対象フレーム部分をハイライト表示する。これにより、オペレータは、自分の指定操作の良否を容易に判断することができ、また、その移動等の編集操作経過および結果を容易に確認することができる。
【0037】
また、この編集操作において、その指示が、複数のフレームを1行に結合するものであれば、結合表示処理部9aにより、指示通り各フレームを結合すると共に、その各結合部分を他の部分より大きく表示する。これにより、オペレータは、結合編集の結果を容易に判断することができる。
さらに、アウトライン編集表示処理部9bにより、結合編集した行の次の行から、結合編集前の各行のシーンの表示状態を小さめのウィンドウで表示する。
【0038】
以上の一連のフレーム画像列を(従来技術のように単純に一直線状に並べるのではなく)、映像の論理的なシーンの切れ目でフレーム画像列を区切って改行表示していくような映像表現処理は、表示・編集装置3に、ワープロ(ワードプロセッサ)の文章表示技術や編集技術のメタファを摘用したものである。以下、このようなワープロの文章表示技術や編集技術について説明する。
【0039】
まずワープロの文章表示・編集技術と映像の表示・編集技術との関係についてに説明し、次に、表示・編集装置3について説明し、そして、最後に、音声に対する表示・編集装置3の処理動作を説明する。
【0040】
映像、音声、静止画像、文字列と様々なメディアの中でも、文字列は古くから用いられてきており、その表示技術や編集技術には、これまで様々な技術が開発されてきた。文字列は、元をただせば単なる文字の並びである。しかし、文字列は実際には意味を持っており(通常、文章と呼ばれる)、単語や一文、および章や節などの論理構造が存在する。このような論理構造は、紙やワープロの文章では、句読点や改行、および章や節の見出しなどを用いて、ページと呼ばれる平面上に敷き詰めることにより、分かりやすく表現されている。
【0041】
映像も単なるフレーム画像の並びであり、また、シーンと呼ばれる論理構造も存在する。しかし、そのフレーム画像列の論理構造を分かりやすく表現する技法がないことが問題であった。
そこで、映像に対しても、文字列と同様に、改行や句読点、ページなどの概念を適用できれば、文字列からなる文章を理解するのと同様に簡単に映像を表現できる。
【0042】
そこで、映像の表現技術として、映像に対して論理的な区切りを表現する改行という概念を加える。具体的には、一続きの映像を表示するために、
(a)表示対象となる映像の開始位置から映像中の論理的な切り替わり時点までの映像部分区間を、この映像部分区間の時間長に比例した長さのフレーム画像の列として表示し、
(b)次回表示位置を、(a)で表示した前回のフレーム画像列表示位置の隣に移動し、
(c)表示対象映像から、(a)で既に表示した映像部分区間を取り除いた残りの映像区間を新たな表示対象映像とする。
そして、この処理を、少なくとも2回行なう。
【0043】
さらに、この映像の表示・編集技術を、音声などにも適用する。
すなわち、映像に対する表現技術を、音声、アニメーション、スライドショー、映像、およびこれらが多重化されたメディア等の連続メディアにも適用可能にするため、次の技術を用いる。
【0044】
まず、(d)表示対象となる連続メディアの開始位置から、この連続メディア中の論理的な切り替わり点までの連続メディア部分区間を、連続メディア部分区間の区間長に比例した長さの棒状表現で表示し、
(e)次回表示位置を、(d)で表示した前回の棒状表示領域の隣に移動し、
(f)表示対象連続メディアから、(d)で既に表示した連続メディア部分区間を取り除いた残りの連続メディア区間を新たな表示対象連続メディアとする。
そして、この処理を、少なくとも2回行なう。
【0045】
以下、まず、図2,図4,図5を用いて、図1における連続メディア情報の表示・編集装置3の基本的な表現動作例および編集動作例を、映像を対象として説明し、次に、図3を用いて音声を対象として説明し、さらに、図6〜図11を用いて、データ構造と処理フローの例を説明し、最後に、図12〜図15を用いて、本例の使い勝手をさらに向上させる技術について説明する。
【0046】
図2は、図1における表示・編集装置の本発明に係わる第1の処理動作例を示す説明図である。
本例は、図1の表示装置1の画面上における表示・編集装置3による処理結果を示すものであり、ウィンドウ100には、フレーム画像表示領域151が表示されている。そして、編集対象映像として、フレーム画像111〜113、これに引き続き、フレーム画像121〜124、フレーム画像131〜132、フレーム画像141〜143が、一続きのフレーム画像列として構成された映像を表示している。
【0047】
本例の表示技術の最大の特徴は、このような一連の映像を、従来のフレーム単位編集技術のように一直線状に表示するのではなく、フレーム画像列を映像の論理的な単位毎、つまりシーン毎にフレーム画像列を改行して表示することにある。この場合、「シーン1」を表すフレーム画像111〜113が最上段の行として表示され、同様に「シーン2」を表すフレーム画像121〜124が第2行、「コント」のシーンを表すフレーム画像131〜132が第3行、「家」のシーンを表すフレーム画像141〜143が第4行に表示される。
【0048】
このように、フレーム列を改行表示することによって、次のような効果が得られる。
(1)オペレータは、行の並びを見ることによって、映像中にどのようなシーンが存在するのかという、映像の論理構造を、容易に把握できる。
(2)また、各行を見ることによって、
(2−1)行の長さ(本図2ではフレーム画像の枚数)から、各シーンの時間長を容易に把握でき、
(2−2)行の表示内容から、各シーン内でのフレーム画像の遷移状況など、シーンの内容を容易に把握できる。
【0049】
本図2の例では、このような表示内容の理解性をより一層向上するために、さらに幾つかの工夫をしている。
工夫の1つ目は、各行に表示されているシーンの情報を、より分かりやすくユーザに提示するために、フレーム画像表示領域151の隣に、シーン情報表示領域150を表示している。
【0050】
そして、シーン情報表示領域150には、フレーム画像表示領域151の各行の位置に対応して、各行が表しているシーンの情報を、従来技術で作成されるシーンブロックアイコンにより、シーン情報表示領域150に表示している。
すなわち、シーン情報として、シーン中のフレーム画像列の中から最もシーンを良く表しているフレーム画像と、シーンの内容を表すシーンの名称と、シーン長さを表すアイコンの3次元的な奥行き表現とを、1つのアイコンとして表示している。
【0051】
例えば、第一行目のフレーム画像111〜113のシーンに対応するシーン情報を、シーン情報表示領域150中の同じ位置にシーンブロックアイコン110として表示している。このシーンアイコン110には、シーンを代表するフレーム画像としてフレーム画像112を表示し、シーン名称として「シーン1」という文字列を表示し、アイコンの奥行きとして、3次元的な奥行きをシーンの長さに比例した長さ分だけ表示している。
【0052】
工夫の2つ目は、フレーム画像表示領域151に、30秒あるいは1分など、ある決まった時間位置を表す時間目盛線を表示することである。
本図2の例では、シーンの先頭から30秒目を表す時間目盛線153と、同様に1分の位置を表す時間目盛線154を表示している。このような一種の補助線をフレーム画像表示領域151中に表示することにより、オペレータは、各シーンの時間長をより具体的に把握することができる。
【0053】
工夫の3つ目は、よりワープロ風の編集技術に似せるために、改行マーク156を表示している。
工夫の4つ目は、映像中の区間を選択できるようにすることであり、詳細は以降の例にて説明する。尚、図2では、ユーザがマウスカーソル170を使って映像の区間を選択し、選択された区間をハイライト領域160で表示している。
【0054】
次に、図2の説明の補足として、他の似たような映像表示技術と本例の技術との相違点を説明する。
他の映像表示技術の1つ目として、従来技術で説明したメディアコンポーザに備わっている素材映像管理ウィンドウについて説明する。
【0055】
すなわち、従来技術の素材映像管理ウィンドウには、複数の映像ファイル中の1映像ファイルを、本例の技術と同様に、1映像ファイル中のフレーム画像列として一つの行として表示し、複数の映像ファイルを、本例の技術と同様に複数の行として表現することによって、複数の映像ファイルの構成を分かりやすく表示している。しかし、本例の技術が表示対象とする映像は、この技術とは違って、複数の独立したシーン群ではなく、一続きの映像をその並び通りに改行したものである。
【0056】
他の映像表示技術の2つ目として、図17で示した従来技術のシーン単位編集のようなシーンブロックアイコン群の表示技術において、複数のシーンブロックアイコンの並びを、本例と同様に、あるまとまり毎に改行する技術も考えられる。しかし、このような表示技術では、複数のシーンを横並びに表示することはできるが、その表示行の長さは、本例のようにシーンの時間長を表すのではなく、論理的なシーンの数を表すのみであり、シーン時間長を直感的に把握することはできない。
【0057】
また、映像の表示技術ではないが、従来の文章の表示技術と本例の技術的な違いについて説明する。
従来の文章の表示技術が対象とするデータは、文字列のみであり、本例の技術が対象とする連続メディア情報ではない。連続メディア情報には、それを再生するための時間情報があり、単純な文字列とは異なる。また、連続メディア情報は、ある時間ではその一部しか参照することができず、このため従来技術ではその全容やその論理構造の把握が難しくなっていた。これに比べて文字列は時間情報がないため、文字列全体を同時に2次元の紙上に表現することができる。
【0058】
図3は、図1における表示・編集装置の本発明に係わる第2の処理動作例を示す説明図である。
本例は、映像に付属した音声トラックを編集している画面であり、このように、処理対象が音声の場合、図2のフレーム画像表示領域151ではなく、音声波形表示領域251を表示する。
【0059】
本例の場合、図2における映像のシーン2(シーンブロックアイコン120で表示)と、コントシーン(シーンブロックアイコン130で表示)に付随する音声を表示している。このような音声編集の場合、シーン2のフレーム画像121〜124の表示に代わって、本例では、シーン2に付随する音声トラックの波形を折れ線グラフを描画した棒状領域211を使って表示している。この棒状領域211の長さは、音声シーンの時間長を、画面上の時間目盛の縮尺に従って表示している。
尚、音声のトラック表現技術としては、実波形の折れ線グラフ以外にも、波形のボリュームの大きさをグラフ化した表現を用いてもよい。
【0060】
本例では、図1の場合と同様に、マウスカーソル170を用いて選択した音声区間をハイライト表示領域260として表示している。
このように、図1における表示・編集装置3では、映像の表示・編集以外にも、音声も編集できる。これから容易に類推できるように、表示・編集装置3は、時間情報を持った、他の連続メディアにも適用できる。
【0061】
例えば、他の連続メディアとして考えられるものとしては、数枚のスライドを数秒おきに表示するようなスライドショーや、スライドではなく、インターネットの動くWWWページのようなプログラムを含んだHTML文書なども考えられる。さらには、これら基本的な連続メディアを連続して一列に並べた複合連続メディアや、これら連続メディアを平行して複数持つマルチトラック形式の連続メディアにも対応することができる。
【0062】
以降、主に連続メディアが映像の場合の表示・編集操作の技術例について説明するが、これらの技術は全て音声などの連続メディアにも適用できる。
図4は、図1における表示・編集装置の本発明に係わる第3の処理動作例を示す説明図である。
本例は、図1における表示・編集装置の編集動作例を示し、特に、編集区間の選択操作例を示している。
【0063】
図4(a)では、マウスカーソル170で指定される画面上の1点をクリックすることによって、映像中のあるフレームの位置を指定する例を示している。
また、図4(b)では、マウスカーソル170で指定される画面上の2点をクリックすることによって、映像区間を指定する例を示している。そして、図4(c)では、ある1つのシーンの全体を選択する操作例を示している。
【0064】
尚、本例では採用していないが、マウスがクリックされた際、マウスカーソル170で指定された映像の位置に対応するフレーム画像を別ウィンドウで表示したり、もしくは、指定された映像の位置から始まる映像を別ウィンドウに再生したりすることも容易に実現できる。
【0065】
図4(a)において、映像中のフレーム画像112の位置を指定するためには、マウスカーソル170をフレーム画像112の上に移動し、マウスをクリックする。このようにして映像中のフレーム画像112の位置を指定したこととなり、該当する指定位置のフレーム画像112がハイライト領域560によって強調表示される。
【0066】
また、図4(b)において、フレーム画像112〜113、121〜122からなる映像区間を選択して指定するためには、まず、マウスカーソル170を選択範囲の先頭位置であるフレーム画像112上に移動し、マウスの左ボタンをクリックし(図4(a)の表示となる)、次に、マウスカーソル170を選択範囲の終了位置であるフレーム画像122上に移動し、マウスの右ボタンをクリックする。この操作を行なうと、複数のフレーム画像に渡る映像区間を選択したこととなり、該当する選択範囲のフレーム画像112〜113、121〜122がハイライト領域561,562によって強調表示される。
【0067】
さらに、図4(c)において、ある1つのシーン、ここでは、「シーン1」の全体、つまりフレーム画像111〜113を選択するためには、選択したいシーンを表している行のうち、フレーム画像以外の場所をマウスでクリックする。図4(c)の例では、シーンブロックアイコン110をクリックしている。この操作を行うことによって、「シーン1」のフレーム画像列全体が選択されたことになり、選択区間がハイライト表示領域564によって、ハイライト表示される。さらに、図4(c)の例では、シーン全体が選択された場合は、該当するシーンブロックアイコンも別のハイライト表示領域563を用いてハイライト表示される。
【0068】
図5は、図1における表示・編集装置の本発明に係わる第4の処理動作例を示す説明図である。
本例は、図1における表示・編集装置の選択区間に対する編集処理動作例を示しており、特に、図4の操作で指定、選択された映像区間に対して、区間の切取や挿入などの映像の並びを変更する編集操作と、選択された映像区間のフレーム画像列の各々に対して画像のぼかしなどを行うフレーム画像フィルタ編集操作を行なっている。
【0069】
選択区間に対する編集操作では、図5(a)に示すように、まず初めに、オペレータが、これから編集を行いたい映像区間を図4で示した操作で選択する。そして次に、図5(b)に示すように、編集メニュー181を指定し、編集プルダウンメニュー183内からオペレータが望む区間編集処理を選択する。このようにして選択された映像区間に対する編集処理を行なう。
【0070】
選択できる区間編集処理として、本例では、編集メニュー181で示すように、選択した映像区間の切り取り、切り取った映像区間を挿入(貼り付け)を、また、フレーム画像フィルタ編集として、メニュー184で示すように、フレーム画像列の明るさ調整、同じく画像をぼかす処理、同じくフレーム画像内に字幕を表示する処理を用意している。
【0071】
図5(c−1)では、区間映像編集処理として「切り取り」選択した場合の編集結果表示を示している。編集処理によって図5(a)において先に選択された映像区間(フレーム画像121〜122)が編集映像から削除され、それに伴って画面からも該当する映像区間が表示されなくなる。
【0072】
図5(c−2)では、区間映像編集処理として「字幕挿入」を選択した場合の編集結果表示を示している。編集処理によって、図5(a)で先に選択された映像区間中の全フレーム画像121〜122に対して、字幕を表示する画像処理が施され、その画像処理結果のフレーム画像121a〜122aが作成され、それに伴って画面上の該当する映像区間のフレーム画像の表示も更新される。
【0073】
以上が、図1における表示・編集装置3の基本的な表示処理および編集操作、処理である。
次に、図6〜図11を用いて、図1の表示・編集装置3で扱うデータ構造例と処理動作例を説明する。
図6は、図1における表示・編集装置で処理するデータ構造例を示す説明図であり、図7〜図11は、図1における表示・編集装置の本発明に係わる第1〜第5の処理手順例を示すフローチャートである。
【0074】
図6で示すように、メディア情報701に、編集対象となる映像全体の情報を格納する。また、図2におけるフレーム画像表示領域151中に表示される行の並び、つまりシーンの並びを表すシーン情報711、721などが、リスト構造として格納されている。
メディア情報701には、実際に編集される映像ファイルに対し、そのファイル名702と、その映像の時間長(メディア長703)、および、編集処理時に用いるシーン情報リストへのポインタ(シーン列704)が格納されている。
【0075】
1つの表示行、または、1つのシーン(「シーン1」)を表すシーン情報711は、各行に表示するシーンアイコンで用いるアイコン画像712と、このシーンアイコンの下に表示するシーンのコメント713(文字列)、および、シーンの映像ファイル中でのこのシーンの開始位置714と同終了位置715と、シーンの並びのうち次に表示されるシーンのシーン情報721(「シーン2」)へのポインタ716から構成されている。
【0076】
図7に示す処理は、図1における表示・編集装置3が、本発明に係わる処理動作として一番始めに実行する処理フローを示している。
映像の編集を始める場合、編集対象となる映像ファイルを指定する。この場合に呼ばれる処理がファイルを開く処理フロー(ステップ800)である。以下、その内容を説明する。
【0077】
まず、ステップ801において、指定された映像ファイルから、図6に示すようなデータ構造を作成する。尚、ユーザが、この映像ファイルに対応するデータ構造をファイルに格納していた場合、ファイルを開く際に映像ファイルと共に、このデータ構造ファイルの名称が指定された場合などは、ステップ801の処理は不要である。
【0078】
次にステップ802において、ステップ801の処理で作成されたデータ構造を元に、図2に示すような表現形態で、映像を表示する。
次にステップ803では、編集に用いる選択区間の情報を初期化する。本例では、この初期表示時は、映像ファイルの先頭フレーム位置を選択することにしている。
最後にステップ804のループ処理において、ユーザが編集処理の終了を指示するまで、ユーザ操作イベントに対応した編集処理を行う。
【0079】
このステップ804のループ内では、まず、ステップ811の処理により、ユーザのマウスクリックやメニュー選択、あるいはカーソル移動などの操作イベントを得る。次に、ステップ812での条件に対応した分岐により、ユーザ操作イベント毎に対応した処理を選択する。例えば、画面をクリックされた場合は、画面クリック処理821を、また、編集メニューが選択された場合は、編集メニュー処理822を行う。そして、編集終了メニュー(ファイルメニューの中にあるものとする)が選択された場合は、ステップ804のループ処理を終了する。
【0080】
図8は、図7におけるステップ801の処理の詳細を示すフローチャートである。
本例は、指定された映像ファイルから、編集処理のために必要なデータ構造である図6のメディア情報を作成する処理例を示している。
まずステップ901において、メディアの情報を格納するメモリ領域(図6の701)に、映像ファイル名と映像ファイルの時間長を設定する。
【0081】
次に、ステップ902において、新しくシーン情報のメモリ領域(図6の711)を生成し、そのシーン情報を先のメディア情報のシーン列の先頭位置(図6の704)に設定する。
さらに、ステップ903において、生成したシーン情報に初期値として、シーン開始位置に位置「0」、末尾位置にメディア情報に設定したメディア長(時間長)を設定する。
【0082】
そして、ステップ904のループ処理を行う。
このステップ904のループ処理では、制御変数iを1からカウントし、複数のシーン情報を作成していく処理を行う。
すなわち、まず、ステップ910において、現在のシーン情報のアイコン画像に、シーンの開始位置のフレーム画像を設定し、さらに、シーンの名称を表すコメント領域に「シーンi」という名前をつける(iは変化する)。
【0083】
次に、現シーンを論理的な区切り単位で分割するために、ステップ911では、映像をシーンの開始位置から1フレームずつ再生し、シーンが変化する点であるシーン変化点があるフレーム位置を探す。シーン変化点を求める技術としては、フレーム画像列中の隣接する2枚のフレーム画像間の画像的な差分量を求め、その画像差分量が、あるしきい値より大きくなった場合、そのフレーム画像位置をシーン変化点位置とする等が考えられる。
【0084】
そして、次に、ステップ904のループの終了判定を行う。尚、先のステップ911の処理では、映像の末尾の位置もシーン変化点となるようにする。このため、ステップ912の処理での条件において、シーン変化点の位置が映像末尾位置の場合、映像読込みが終了したと判断する。
映像がまだ末尾位置まで達していない場合、ステップ913の処理を行う。
【0085】
このステップ913の処理では、現在のシーン情報を、シーン変化点の位置で前後2つのシーン情報に分割する処理を行なう。
まず、新しいシーン情報メモリ領域を生成し、次に、新しいシーン情報のシーン先頭位置を先のシーン変化点位置に、シーン末尾位置を現在のシーン情報の末尾位置を設定する。その後、現在のシーン情報の末尾位置を「シーン変化点−1」の値に更新し、さらに、現在のシーン情報の次ポインタに新しいシーン情報を設定する。
【0086】
ステップ904のループ処理の最後、ステップ914では、先の新しいシーンを次ループで用いる現在のシーン情報とする。
尚、ステップ904のループ中のステップ912における条件て、映像末尾まで読込みを完了した場合、ステップ921に進む。そして、ステップ921では、現在のシーン情報の次ポインタにリスト構造の終端を表す「なし」値を設定し、その後、ステップ922でステップ904のループを終了する。
【0087】
図9は、図7におけるステップ802の処理の詳細を示すフローチャートである。
本例は、映像データを表示する処理例を示しており、まず、ステップ1001において、画面上の表示位置を画面左上に設定する。次に、ステップ1002において、表示開始シーンとして、連続メディア情報からシーン情報リストの先頭にあるシーン情報を得る。尚、より望ましい実現例として、ステップ1002で指定する表示開始シーンを変更させることにより、スクロール表示機能を提供することも考えられる。この場合、スクロールバーやカーソル移動等の操作などにあわせて、この表示開始シーンを変更させれば良い。
【0088】
次に、ステップ1003のループ処理において、画面内に映像データを表示する処理を行う。まず、ステップ1011において、現在のシーン情報から、シーンのアイコン画像とシーンのコメント文字列を表示する。次に、ステップ1012において、シーンの開始位置から終了位置までの内容を画面上に表示する。この際、画面上に表示する形状は横長の棒状領域で、その表示長さは「(シーンの時間長)×表示係数K」となるようにする。
【0089】
例えば、図2での映像データの表示の場合、シーンの開始位置から終了位置までのフレーム画像をフィルムのように横に並べた表示を行う。また、図3のような音声データの表示の場合、シーン中の音声波形をグラフ状に表示すれば良い。尚、ここで表示係数Kは、プログラム起動時などに予め設定しておく。また、この表示係数Kを画面のズーム表示用に用いることもできる。例えば、表示係数Kを小さくすることにより、時間が長いシーンでも画面からはみ出すことなく表示することができる。
【0090】
次に、ステップ1013では、表示位置を一行下に移動する。この時の移動幅は、例えば、フレーム画像の高さ×2などにすれば良い。
ステップ1003のループ処理の最後では、シーン情報の次ポインタをたどって次のシーン情報を得る。そして、表示位置が画面の範囲内である間ループし、画面外に出た場合に、ステップ1003のループ処理を終了する。
【0091】
次のステップ1004のループ処理では、時間軸を表示する。すなわち、ステップ1021において、予め指定した30秒もしくは1分などの表示時間幅毎に縦線を引いていく。縦線のX座標位置は、ループカウントi=0〜nとすると、「表示時間幅×i×表示係数K」となる。
【0092】
図10は、図7におけるステップ821の処理の詳細を示すフローチャートである。
本例は、画面クリック時の処理動作を示し、画面をクリックされた際、ステップ1101において、まず、クリック位置から、画面上のどのシーンが指定されたかを調べる処理を行い、次に、クリック位置のY座標から、クリックされた行位置Rを求める。行位置Rを求めるには、例えば、Y座標値を図9のステップ1013の処理で用いた表示行幅で割れば良い。さらに、ステップ1101においては、メディアのシーン列の先頭からR番目のシーン情報を得る処理を行う。
【0093】
ステップ1102では、条件に応じた分岐処理を行なう。すなわち、クリックされたX座標を元に、クリック位置がシーン情報表示領域150かフレーム画像表示領域151かの判定を行う。もし、クリック位置がシーン情報表示領域150の場合、ステップ1111において、該当するシーン全体を選択する処理を行う。ここでは、選択開始位置および選択終了位置に、ステップ1101の処理で得たシーン情報の開始位置と終了位置を設定する。
【0094】
また、クリック位置がフレーム画像表示領域151の場合、ステップ1113以降、フレーム単位で選択位置を設定する処理を行う。まず、ステップ1113の処理で、画面上のクリック位置からシーン中の時間位置を計算する。ここでは、クリック位置のX座標を、映像の表示で用いた表示係数Kで割ることによって、シーン中の時間位置Cを求める。この時間位置とは、該当するシーンの開始位置を0とした時間位置である。
【0095】
ステップ1114の条件分岐処理では、クリックした時間位置Cが選択したシーンの長さ(=シーン.終了位置−シーン.開始位置)より長い場合、ステップ1121において、時間位置Cをシーンの長さにする補正処理を行う。
このようにして、シーン中の時間位置Cが決定したら、ステップ1115において、左クリックか右クリックかに従った選択処理を行う。左クリックの場合、ステップ1123において、選択開始位置をシーン.開始位置+(シーン内)時間位置Cとする。
【0096】
また、右クリックの場合、ステップ1125において、選択終了位置をシーン.開始位置+(シーン内)時間位置Cとする。
画面クリック処理の最後、ステップ1103の処理として、更新された選択開始位置から選択終了位置までの領域を選択状態表示(図2における符号160で示すようなハイライト表示)にする。
【0097】
図11は、図7におけるステップ822の処理の詳細を示すフローチャートである。
本例は、編集メニューが選択された時の処理動作例を示している。
編集メニューが選択された場合、まず、ステップ1201において、現在の選択区間に対応したシーン情報を得る。得られた情報は、選択開始位置が存在するシーン情報(開始シーン情報)、選択終了位置が存在するシーン情報(終了シーン情報)、開始シーン情報の次のシーン情報から終了シーン情報の1つ手前のシーン情報までの中間のシーン情報の列(中間シーン列)からなる。
【0098】
開始シーン情報を探すには、メディア.シーン列を先頭から順次参照していき、シーンの先頭位置≦選択開始位置≦シーンの末尾位置となるシーン情報を探せば良い。同様に終了シーン情報を探すには、シーンの先頭位置≦選択終了位置≦シーンの末尾位置となるシーン情報を探せば良い。そして、中間シーン列は、先頭シーン情報と末尾シーン情報から容易に得ることができる。
【0099】
次に、ステップ1202での条件分岐処理において、選択された編集メニューを判定する。
選択された編集メニューが「切り取り」の場合、選択区間を切り取り、切り取った選択区間をクリップボードにコピーする処理を行う。すなわち、まず、ステップ1211において、選択区間をクリップボード用に格納する。具体的には、まず開始シーン、中間シーン列、終了シーンの複製を作成し、その後、開始シーンの複製の先頭位置を選択開始位置に、終了シーンの複製の終了位置を選択終了位置に更新し、最後に、クリップボードに複製を格納する処理を行う。
【0100】
また、次のステップ1212において、選択区間を実際に削除する処理を行う。具体的には、まず、中間シーン列をメディア.シーン列のリストから削除し、その後、開始シーンの終了位置を選択開始位置−1に、また、終了シーンの開始位置を選択終了位置+1に更新する。
【0101】
ステップ1202で、選択された編集メニューが「挿入」の場合、ステップ1215において、クリップボードに格納されているシーン列を、開始シーンの直後に挿入する処理を行う。
また、ステップ1202で、選択された編集メニューが「フィルタ」の場合、ステップ1217において、映像ファイルのうち、選択開始位置から選択終了位置までのフレーム画像1枚ずつに対して、字幕処理やぼかし処理などの画像処理を行う。
【0102】
例えば、ぼかしフィルタの場合、映像ファイルから取り出したフレーム画像に対して、移動平均フィルタと呼ばれるような画像処理技法を用いてぼかし処理を施し、その後そのフレーム画像を映像ファイルに書き戻す処理を行う。
また、字幕処理の場合は、ユーザが指定した文字列を指定されたフォント、表示位置でフレーム画像上に描画し、描画されたフレーム画像を映像ファイルに書き戻す。
【0103】
尚、本例では、処理の簡略化のため、フィルタメニュー指定時に、直接、画像処理を施している。しかし、望ましくは、直接画像処理を行うのではなく、繰り返し行われる編集処理の情報を別途記録しておき、ユーザが指示した時点で画像処理をバッチ的に動作させた方が、ユーザの使い勝手および処理効率が良い。
このような編集メニュー処理の最後、ステップ1203の処理において、編集が終わった映像を再表示する。
【0104】
次に、図12〜図15を用いて、図1における表示・編集装置3による、さらに使い勝手を向上させる表現技術および編集操作技術について説明する。
図12は、図1における表示・編集装置の本発明に係わる第5の処理動作例を示す説明図である。
本例は、図1における表示・編集装置の表示処理動作にページの概念を導入した場合の画面構成を示している。
【0105】
ワープロにおる文字列編集にもページと呼ばれる概念があるように、本例の連続メディア情報の表示・編集技術にもページの概念を導入する。本例でのページの大きさを表す単位としては、時間を用いる。
そして、本図12では、ページ幅を1分間、ページ高さを5分間として設定した場合の、ページ単位表示モードの画面例を示している。
【0106】
本例の特徴は、「シーン2」(フレーム画像1301〜1306)の内、ページの表示時間幅を超えた部分(フレーム画像1305,1306)が折り返し表示されていることと、ページ縦時間軸1311を表示していることである。すなわち、「シーン2」は、ここでは1分30秒程度の長さであるが、先頭から一分間のフレーム画像1301〜1304と、残りのフレーム画像1305〜1306の2つに分離されて表示されている。またページ縦時間軸には、「5:00」のような時刻表示領域1312を設けている。
【0107】
このように、ページ幅と高さを意識した表示モードを導入することによって、オペレータは、映像の時間長をより分かりやすく把握できるようになる。本モードは特にTV番組でのCM挿入位置などの確認に最適である。
尚、このような表示を行うためには、図9のステップ1012における映像の表示処理を、各時間幅毎にシーンを区切って表示するように変更すれば良い。また、このステップ1021の時間軸表示処理において、縦線の時間軸だけでなく、横線の時間軸も表示するように変更を施せば良い。
【0108】
図13は、図1における表示・編集装置の本発明に係わる第6の処理動作例を示す説明図である。
本例は、図1における表示・編集装置による結合表示動作時の画面構成例を示している。
映像に、カーチェイスのシーン列などのような数秒からなる短いシーンが多数存在するシーンが存在すると、画面上の表示行数が非常に多くなり、シーンの論理構造が把握しににくなる。このようなシーン列は、画面上では1つのシーンとしてまとめて扱えたほうが便利である。
【0109】
このような理由から、複数のシーンを1つのシーンとして同一行に表現する表示技術を用意した。
本図13の例では、図2のシーンブロックアイコン110の「シーン1」とシーンブロックアイコン120の「シーン2」およびシーンブロックアイコン130の「コント」の各シーン列を結合し、「新シーン」(シーンブロックアイコン1410)として表示している。
【0110】
このシーンブロックアイコン1410の「新シーン」のフレーム画像列としては、結合した各シーンのフレーム画像1411〜1413、1421〜1423、1431を表示している。特に、本例では、結合していることを強調するため、結合中の各シーンの先頭フレーム画像1411,1421,1431を大きなフレーム画像で強調表示している。もちろん強調表示はなくとも良い。
【0111】
このような結合表現を提供するには、図6のデータ構造のうち、シーン情報711に、新たに「結合シーン列」というポインタ格納項目を設け、このポインタの先に結合されたシーン列を別途保持しておけば良い。また、図9の映像表示処理手順のステップ1012においてシーンを表示する際に、「結合シーン列」中のシーン情報列から適宜シーン情報とフレーム画像を取り出し、画面上に表示すれば良い。
【0112】
図14は、図1における表示・編集装置の本発明に係わる第7の処理動作例を示す説明図である。
本例は、図1における表示・編集装置によるシーンのアウトライン表示動作時の画面構成例である。
図13に示したようなシーンの結合表示を用いた場合、結合されたシーンをさらに結合するなど、各々のシーンに階層関係があらわれるようになる。
【0113】
本例は、このような階層関係を直接扱うものであり、図13で説明したシーンブロックアイコン1410の「新シーン」下部に、結合編集された「シーン1」(シーンブロックアイコン110)と、「シーン2」(シーンブロックアイコン120)、および、「コント」(シーンブロックアイコン130)をぶら下げ表示している。
【0114】
またフレーム画像表示領域1551にも、結合されたシーン列に対応するフレーム画像列を、表示開始位置を少し右にずらしたインデント表示で表示している(領域1501)。
このように、シーンの階層構造を、インデントやぶら下げ表示することによって、映像の論理構造を、ワープロにおける章や節のアウトライン編集を使っているかのように、容易に把握することが可能となる。
【0115】
このような表示を行うには、図9の映像表示処理でのステップ1012と1013との処理の間に、「映像の表示(パラメタはシーン.結合シーン列)」のような再帰的な関数呼び出し処理を挿入すれば良い。
尚、映像の編集操作などは、クリック位置によってどの結合階層領域(領域1551または領域1501)で編集処理が発生したのかを判断した後、該当する領域上の映像シーン列に対して従来の処理を行えば良い。
【0116】
図15は、図1における表示・編集装置による編集機能とワープロでの文章編集機能との比較対応例を示す説明図である。
本例の表においては、各ワープロ編集の機能1601〜1608(「文字列」、「1行」、「フォント変更」、「行間調整」、「検索」、「ヘッダ/フッタ」、「差込印刷」、「文章チェック」)に対応する本例の連続メディア情報の表示・編集技術による機能(「本発明の映像編集」)が示されている。
【0117】
本例では、「文字列」に「フレーム画像列(=映像)」、「1行」に「1シーン」、「フォント変更」に「特殊効果付け(ぼかし)、「行間調整」に「2シーン間のワイプ等」、「検索」に「同種映像検索」、「ヘッダ/フッタ」に「オープニング/エンディング」、「差込印刷」に「映像編集テンプレート」、「文章チェック」に「不正映像検査」のそれぞれの機能が対応付けられている。
【0118】
上述したように、本例の連続メディア情報の表示・編集装置3および表示・編集方法では、ワープロ編集で文字列を編集するように、フレーム画像列、つまり映像を簡単に編集することができる。すなわち、本例では、フレーム画像列を1本線状に並べる(1601)だけではなく、ワープロ編集での改行編集(1602)のように、意味のある映像シーン毎に改行表示している。
【0119】
これを更に発展して考えると、ワープロによる文章編集で有効な様々な編集技術は、本例の表示・編集装置および方法による映像編集技術に容易に適用することができる。例えば、ワープロで選択した文字列のフォントを変更する操作(1603)を本例の映像編集に適用した例として、図5で説明した選択映像区間に対する編集操作技術が挙げられる。
【0120】
このようなワープロの編集機能を本例の表示・編集装置の編集機能に適用するという発想によって、図15の表に示すような、より使いやすい映像編集技術を考えることができる。
【0121】
例えば、ワープロの行と行の間を調整する行間調整(1604)の操作方法を映像編集に適用する場合を考える。
ワープロでは2つ以上の行を選択して、行間調整メニューを選択することにより、行間の長さ等を調整できる。この文章編集の行間調整は、映像編集の場合、例えば、2つのシーン間のワイプなどの特殊効果付けとして捕らえることができる。このことから、映像編集の操作として、2つ以上のシーンを選択した後、シーン間特殊効果付けメニューを選択するという、シーン間特殊効果付けの新しい指定方法を容易に考えることができる。
【0122】
同様の考えから、ワープロで言う文字列の検索機能(1605)は、本例の映像編集では、指定した映像と同様の映像を探し出し、見つけ出した映像区間を選択状態にする、という映像編集技術として適用できる。この同様の映像を見つける技術としては、映像に付与されたキーワードを元に条件に見合う映像区間を見つける技術や、フレーム画像の画像差分量がある基準値より小さい映像区間を見つける技術などが考えられる。
【0123】
またワープロで言うページのヘッダやフッタ等の編集機能(1606)は、本例の映像編集では、オープニング/エンディング映像編集機能として適用できる。また、ワープロで言う差込印刷機能(1607)は、本例の映像編集では、映像の編集内容のテンプレートを用意し、そのテンプレートに様々な映像を挿入するという、映像編集テンプレート機能として適用できる。
【0124】
さらに、ワープロの文章チェックやスペルチェックなどの機能(1608)は、人の潜在意識に作用すると言われるサブリミナル映像シーン(1秒未満のごく短いシーン)を自動的に指摘する等の不正映像検査機能と考えることができる。尚、このサブリミナル映像シーンを自動的に見つける技術としては、例えば、特開平09−074575号公報に記載の「動画像の特徴場面表示方法及び装置」等が挙げられる。
【0125】
以上、図1〜図15を用いて説明したように、本実施例の連続メディア情報の表示・編集装置と連続メディア情報の表示・編集方法では、例えば動画像の各画像フレームを連続して画面の横方向に表示する場合、シーンの変化点を区切りとして改行し、行単位で各シーンを表示する。そして、各改行位置には改行マークを明示して、シーンの単位を理解し易くする。また、画面の表示枠を超える場合には、その表示枠で折り返して次の行に表示する。尚、この場合には改行マークは明示しない。
【0126】
また、画面上の各行の先頭から、および、先頭の行から後続の行方向へ、所定の経過時間を表す目盛線を表示し、各フレームおよび各シーンの時間位置を容易に理解できるようにする。
また、行先頭の前の領域に、この行に表示されている全フレームに対応する従来技術で作成されるシーンブロックアイコン情報も合わせて表示する。
【0127】
また、オペレータが編集対象のフレームを指定すると、その対象フレーム部分をハイライト表示することで、指定の良否を容易に判断できるようにし、かつ、その移動等の編集操作を容易とする。また、例えば、複数のフレームを1行に結合する場合、各結合部分を他の部分より大きく表示する等して、結合編集の結果を容易に判断できるようにする。さらに、結合編集した行の次の行から、結合編集前の各フレーム行の表示状態をウィンドウ表示する。
【0128】
このように、本実施例によれば、一続きの映像データのフレーム画像列を一直線状ではなく、意味のある区間ごとに改行表示するので、映像の論理構造と映像のフレーム構成との両方の把握が容易になる。また、音声情報等、映像以外の連続メディアにも同様に適用できるので、連続メディアの論理構造と連続メディアの構成要素との両方を把握するのも容易になる。
また、このような見た目での理解の容易さにより、連続メディアの編集操作もも容易となる。
【0129】
尚、本発明は、図1〜図15を用いて説明した実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能である。例えば、本例では、画面の表示枠を超える場合には、その表示枠で折り返して次の行に表示しているが、折り返し表示することなく、スクロール操作等を行ない表示するようにしても良い。
また、本例では、映像区間の選択操作において、マウスを用いる例で説明しているが、通常のワープロの操作と同様に、キーボードのカーソルキー等を用いて映像区間を選択することもできる。
【0130】
また、本例では、連続メディアの格納形態としては、ビデオテープレコーダ等の蓄積メディアを用いているが、これに限定しなくとも良く、例えば、TVやラジオなどのストリーミング形式の連続メディアでも良い。このようなストリーミング形式の連続メディアの場合は、連続メディアの終端位置を仮想的に無限大として扱えば良い。
【0131】
【発明の効果】
本発明によれば、コンピュータでの編集処理において、オペレータは、映像や音声等といった連続メディアの論理構造を容易に理解しながら、同時に、その構成単位/要素(映像では画像フレーム、音声では波形データ)も容易に理解することができ、コンピュータを用いた映像や音声等といった連続メディアの編集作業を効率的に行なうことが可能である。
【図面の簡単な説明】
【図1】本発明の連続メディア情報の表示・編集装置の本発明に係る構成の一実施例を示すブロック図である。
【図2】図1における表示・編集装置の本発明に係わる第1の処理動作例を示す説明図である。
【図3】図1における表示・編集装置の本発明に係わる第2の処理動作例を示す説明図である。
【図4】図1における表示・編集装置の本発明に係わる第3の処理動作例を示す説明図である。
【図5】図1における表示・編集装置の本発明に係わる第4の処理動作例を示す説明図である。
【図6】図1における表示・編集装置で処理するデータ構造例を示す説明図である。
【図7】図1における表示・編集装置の本発明に係わる第1の処理手順例を示すフローチャートである。
【図8】図1における表示・編集装置の本発明に係わる第2の処理手順例を示すフローチャートである。
【図9】図1における表示・編集装置の本発明に係わる第3の処理手順例を示すフローチャートである。
【図10】図1における表示・編集装置の本発明に係わる第4の処理手順例を示すフローチャートである。
【図11】図1における表示・編集装置の本発明に係わる第5の処理手順例を示すフローチャートである。
【図12】図1における表示・編集装置の本発明に係わる第5の処理動作例を示す説明図である。
【図13】図1における表示・編集装置の本発明に係わる第6の処理動作例を示す説明図である。
【図14】図1における表示・編集装置の本発明に係わる第7の処理動作例を示す説明図である。
【図15】図1における表示・編集装置による編集機能とワープロでの文章編集機能との比較対応例を示す説明図である。
【図16】従来のフレーム単位編集技術での画面表示例を示す説明図である。
【図17】従来のシーン単位編集技術での画面表示例を示す説明図である。
【符号の説明】
1:表示装置、2:入力装置、3:表示・編集装置、4:補助記憶装置、5:連続メディア情報入力装置、6:光ディスク、7:光ディスク駆動装置、8:表示処理部、8a:フレーム表示部、8b:区切り検出部、8c:改行部、8d:改行マーク明示部、8e:表示枠設定部、8f:折り返し部、8g:横方向時間目盛表示部、8h:縦方向時間目盛表示部、8i:シーンブロックアイコン表示部、9:編集表示処理部、9a:結合表示処理部、9b:アウトライン編集表示処理部、10:データ変換部、100:ウィンドウ、110,120,130,140:シーンブロックアイコン、111〜113:フレーム画像、121〜124:フレーム画像、121a〜122a:フレーム画像、131〜132:フレーム画像、141〜143:フレーム画像、150:シーン情報表示領域、151:フレーム画像表示領域、153,154:時間目盛線、156:改行マーク、160:ハイライト領域、170:マウスカーソル、181:編集メニュー、183:編集プルダウンメニュー、184:メニュー、211,221:棒状領域、251:音声波形表示領域、260,560〜564:ハイライト表示領域、300:ウィンドウ、301:スクロールバー、310,320,330:行、321:アイコン、340,350:音声トラック、400:ウィンドウ、410〜440:シーンブロックアイコン、701:メディア情報、711,721:シーン情報、702:ファイル名、703:メディア長、704:シーン列、712:アイコン画像、713:コメント、714:開始位置、715:終了位置、716:ポインタ、1301〜1306:フレーム画像、1311:ページ縦時間軸、1312:時刻表示領域、1410:シーンブロックアイコン、1411〜1413,1421〜1423,1431:フレーム画像、1501:領域、1551:フレーム画像表示領域、1601〜1608:機能(「文字列」、「1行」、「フォント変更」、「行間調整」、「検索」、「ヘッダ/フッタ」、「差込印刷」、「文章チェック」)。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention provides a technique for displaying continuous media information such as video moving image frames and audio waveform data on a screen of a display device such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) by a computer. Related to a technology for editing continuous media information displayed on a screen based on an operation instruction from an operator input from an input device such as a keyboard or a mouse, and in particular, the information content is easily understood and fine editing is performed. The present invention relates to a continuous media information display / editing device suitable for facilitating work, a continuous media information display / editing method, and a recording medium on which a processing procedure is recorded.
[0002]
[Prior art]
With the widespread use of AV equipment such as VCRs and camcorders at lower prices, anyone can easily shoot and acquire images. Further, by improving the processing speed by hardware or software, it is possible to digitize a captured video and reproduce or edit the video on a computer.
[0003]
As a conventional technique for editing digitized video using such a computer, for example, AVID / 1 media composer (MEDIA COMPOSER) manufactured by Avid Technology or JP-A-7-46462 (""). Method and Apparatus for Editing Video Program "), and a premium (Premiere) manufactured by Adobe.
[0004]
The feature of these technologies is that when displaying a video to be edited, frame images constituting the video are displayed in a line like a movie film.
Hereinafter, a frame unit editing technique using this frame as an editing unit will be described with reference to FIG.
[0005]
FIG. 16 is an explanatory diagram showing an example of a screen display by the conventional frame unit editing technique.
The window 300 on the screen of the display device of the computer system is provided with a row 310 for displaying an image of a person to be edited and a row 330 for displaying an image of a car.
Here, the video to be edited is configured as a sequence of a series of frame images. For example, the image of a person in the row 310 is composed of frame images 111 to 113, and the image of a car is composed of frame images 121 to 124.
[0006]
A feature of such an editing technique in units of frames is that video editing is performed using a video expression in which a sequence of frame images is linearly arranged like a movie film. However, in this technique, since the frame image sequence in the video is arranged in a straight line, all the frame images cannot be displayed in the display frame of one window at a time. To check the video content outside the display frame, the operator scrolls the frame image sequence using the scroll bar 301.
[0007]
Further, in this example, a screen at the time of editing processing for joining two videos “video 1” and “video 2” into one is displayed. Here, when switching from the image of the person in "Image 1" to the image of the car in "Image 2", a special image effect called "wipe" is added, in which the image of the car gradually appears from the end of the image of the person are doing. More specifically, an image obtained by synthesizing the video end frame images 112 and 113 of the person and the head frame images 121 and 122 of the car video is used as the image of the video editing result.
[0008]
In a typical frame-based editing technique such as the above-described media composer or the like, a special effect display line 320 is specially provided in order to present the special effect-attached editing operation to the user in an easily understandable manner. Further, a special effect icon 321 such as “wipe” is displayed at a place where the two images are actually combined.
Such a video editing technology using a video expression in which a frame image sequence to be edited is arranged in a straight line like a movie film is a frame-based video editing technology.
[0009]
This frame-based video editing technology can edit video such as VHS or 8-mm format video tape, which has been difficult to confirm the content, by an intuitive operation such as cutting a movie film.
However, if the frame image sequence is arranged in a straight line, it becomes difficult to find out what kind of video scene exists where.
[0010]
For example, a video usually has a unit representing a series of logical video sections called a scene or a cut, such as an opening scene, a scene in which a person appears, and an ending scene. No special video section is considered, and only the frame image sequence, which is a physical unit in the video, is arranged. For this reason, it is difficult to understand from where to what a series of scenes.
Furthermore, when it is desired to delete only a scene in which a certain person appears, for example, the operator needs to check at which frame position the scene is switched by shifting one frame at a time.
[0011]
As a conventional technique for solving such a problem of the frame unit editing technique, for example, Japanese Patent Application Laid-Open No. 7-79404 (“Method and Apparatus for Creating a List of Representative Images of Video”) and Japanese Patent Application Laid-Open No. 5-268517 ( There is a video editing software “Mediachef / CUT” manufactured by Hitachi, Ltd. described in “Display Method of Moving Image Editing System”). This technique uses a scene-based editing technique that uses a scene, which is a logical unit of video, as a basic unit of editing.
Hereinafter, a scene unit editing technique using this scene as a basic unit of editing will be described with reference to FIG.
[0012]
FIG. 17 is an explanatory diagram showing an example of a screen display by the conventional scene-based editing technique.
In a window 400 on the screen of the display device of the computer system, four video scenes to be edited are displayed in a scene block icon format. In the present editing technique, the images 111 to 113 representing the scenes of the persons in FIG. 16 are displayed as scene block icons 410, and the image scenes 121 to 124 of the car are displayed as scene block icons 420. A video scene is displayed as a scene block icon 430, and a video scene of a house is displayed as a scene block icon 440.
[0013]
In each of the scene block icons 410 to 440 of this example, an image of a characteristic frame in the scene is displayed on the surface as an icon image, the name of the scene is displayed below the icon image, and the time length of the scene is further reduced. Is displayed as the depth of each of the rectangular parallelepiped scene block icons 410 to 440.
As described above, in the scene-based editing technique, only scenes having a logical structure are displayed by the scene block icons 410 to 440, so that it is possible to see at a glance what scenes exist in the video.
[0014]
In this scene-by-scene editing, a scene can be easily edited by selecting a certain scene block icon and deleting or moving it. For example, in FIG. 17, to move the house scene before the control scene, first select the house scene scene block icon 440 using the mouse cursor 170 and move the mouse cursor 170 to the control scene scene block icon 430. Move before. As a result, the scenes are rearranged, and the scene block icon 440 moves before the scene block icon 430.
[0015]
As described above, with the scene-based editing technique, it is possible to easily move or delete a logical scene, which is difficult with the frame-based editing technique.
It should be noted that some scene block icons can be grouped depending on the scene unit editing technology, and some of the grouped scene block icons and the scene block icons in the group can be represented by a tree structure. According to this technology, it is possible to perform editing in accordance with the logical structure of the actual video.
[0016]
However, in this scene-based editing technique, since the scene is represented as a scene block icon, it is difficult to catch a change in a fine frame image in the scene. For example, in the case of the above-described car scene, in the frame unit editing technique of FIG. 16, since it is represented by the frame images 121 to 124, it can be easily grasped that the car is moving to the left. However, in the scene-based editing technique of FIG. 17, since only a frame image representing a certain scene is displayed on the scene block icon, it is determined whether the car is stopped or the car is moving. It is difficult to grasp whether it is moving at the speed of.
[0017]
Also, in this scene-based editing technique, since a frame image sequence is not displayed, the frame-based editing can be easily performed as described above (adding a special effect between nine frames by “wiping”, and furthermore, Editing work on a frame basis, such as inserting subtitles in a certain frame section, has become difficult.
[0018]
The above problems at the time of video editing also exist in the editing of continuous media other than video, for example, audio.
First, a typical audio editing technique used in a media composer or the like will be described using the video / audio editing screen in the window 300 of FIG.
[0019]
In this audio editing technique, an audio waveform is represented by being arranged in a straight line. In FIG. 16, the audio accompanying the “video 1” in the row 310 is represented as an audio track 340. Similarly, the audio accompanying the “video 2” in the row 330 is expressed as an audio track 350. These audio tracks 340 and 350 can select an audio section or process the selected audio by using a mouse, a scroll bar, or the like as in the case of video editing.
[0020]
Such an audio editing technique also has a problem that it is difficult to grasp the logical structure of the entire audio, as in the above-described frame-based video editing. In other words, the audio has a logical structure like the opening song and the voice of the interviewer, just like the video, but since the audio is expressed in such a straight line, the interviewer is It's hard to tell if it's a voice.
[0021]
As for audio editing, it is also possible to devise a scene-based editing technique as in the case of video. However, as in the case of scene-by-scene editing of video, there is information that cannot be grasped only by looking at the scene block icon, such as where in the audio the volume changes.
[0022]
[Problems to be solved by the invention]
The problem to be solved is that, in the prior art, in an editing process by a computer, an operator easily understands the logical structure of continuous media such as video and audio while simultaneously understanding its constituent units / elements (for video). The point is that the image data and the waveform data cannot be easily understood.
[0023]
SUMMARY OF THE INVENTION An object of the present invention is to provide a continuous media information display / editing apparatus and a continuous media information display / editing apparatus which can solve the problems of the conventional techniques and can efficiently edit a continuous media such as video and audio using a computer. An object of the present invention is to provide a recording medium recording a display / editing method and a processing procedure thereof.
[0024]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a continuous media information display / editing apparatus and a continuous media information display / editing method, for example, in which each image frame of a moving image is continuously displayed in a horizontal direction on a screen. The line breaks at the point of change, and each scene is displayed on a line-by-line basis.
[0025]
Then, a line feed mark is clearly indicated at each line feed position to make it easier to understand the scene unit. When the display frame is exceeded, a scroll operation or the like may be performed. However, the display may be forcibly wrapped around the display frame and displayed on the next line. In this case, the line feed mark is not specified.
[0026]
Also, a scale line representing a predetermined elapsed time is displayed from the head of each line on the screen and in the direction of the subsequent line from the head line, so that the time position of each frame and each scene can be easily understood. .
In addition, scene block icon information created by the related art corresponding to all frames displayed in this row is also displayed in the area before the head of the row.
[0027]
Further, when the operator designates a frame to be edited, the target frame portion is highlighted, so that the quality of the designation can be easily determined, and the editing operation such as moving the frame is facilitated. In addition, for example, when a plurality of frames are combined into one line, each combined portion is displayed larger than the other portions, so that the result of the combined editing can be easily determined. Further, the display state of each frame line before the combined editing is displayed in a window from the line following the combined edited line.
[0028]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an embodiment of a configuration according to the present invention of a continuous media information display / editing apparatus of the present invention.
In FIG. 1, reference numeral 1 denotes a display device including a CRT or an LCD, etc., 2 denotes an input device including a keyboard, a mouse, a trackball, etc., 3 denotes a storage program including a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. A display / editing device for performing display and editing of continuous media information according to the present invention by performing computer processing according to the system; 4, an auxiliary storage device such as an HDD (Hard Disk Drive); A continuous media information input device for inputting audio information, an optical disk 6 on which a program comprising a display / edit processing procedure according to the present invention to be processed by the display / edit device 3 is recorded, and a drive device 7 for driving the optical disk 6 to execute the program Enter display / editing device 3 An optical disk drive for.
[0029]
The display / editing device 3 includes a display processing unit 8 and an editing display processing unit 9 for performing display and editing in units of frames by a program read from the optical disk 6. A data converter 10 is provided for converting an analog signal such as input video or audio information into a digital signal that can be processed by a computer.
[0030]
The display processing unit 8 includes a frame display unit 8a, a break detection unit 8b, a line feed unit 8c, a line feed mark designation unit 8d, a display frame setting unit 8e, a turnback unit 8f, a horizontal time scale display unit 8g, and a vertical time scale display unit. 8h, a scene block icon display section 8i, and the edit display processing section 9 has a combined display processing section 9a and an outline edit display processing section 9b.
[0031]
With such a configuration, the display / editing device 3 converts the video and audio input from the continuous media information input device 5 into image frames and waveform data and displays them on the window screen of the display device 1. The editing process is performed on the displayed image frame and waveform data based on the operation instruction from the operator.
[0032]
In this display processing, the display / editing device 3 sequentially displays the image frames and the waveform data in the horizontal direction by the frame display unit 8a. At this time, the break detection unit 8b detects a logical break of the image frame or waveform data, that is, a scene change point, and the line feed unit 8c detects the image frame or waveform data of each detected scene change point. Break the display.
[0033]
As described above, since the image frames and waveform data are displayed by changing the lines in scene units, the operator performing the editing process can easily understand the logical structure of each image frame and waveform data, that is, each scene structure. In addition, the contents of the constituent units / components, that is, the image frames and the waveform data, can be easily understood, and the editing work of them can be performed efficiently.
[0034]
A line break mark is highlighted at the line break position of each scene by the line break mark specifying section 8d. This makes it easier for the operator to understand the scene units.
A display area in the horizontal direction of the screen is set by the display frame setting section 8e, and each image frame and waveform data of a scene exceeding this display area are turned back from the area by the turn-back section 8f and displayed on the next line. . Note that the line feed mark highlighting unit 8d does not highlight the line feed mark at this return position.
[0035]
Also, the horizontal time scale display unit 8g and the vertical time scale display unit 8h display a scale line representing a predetermined elapsed time from the head of each line on the screen and in the direction of the succeeding line from the head line. . Thereby, the operator can easily understand the time position of each frame and each scene.
Further, the scene block icon display section 8i also displays scene block icon information corresponding to all the frames displayed in this row in the area before the head of the row.
[0036]
Then, in the editing process, when the operator specifies a frame to be edited on the screen of the display unit 1 via the input device 2, the display / editing device 3 performs, for example, moving editing and the like by the edit display processing unit 9. , The target frame portion is highlighted. Thus, the operator can easily determine whether the designated operation is good or not, and can easily confirm the progress of the editing operation such as the movement and the result.
[0037]
In this editing operation, if the instruction is to combine a plurality of frames into one line, the combining display processing unit 9a combines the frames as instructed and combines each of the combined parts with another part. Display larger. This allows the operator to easily determine the result of the combined editing.
Further, the outline edit display processing unit 9b displays the display states of the scenes of the respective lines before the combined editing from the line following the combined edited line in a smaller window.
[0038]
A video expression process in which the above series of frame image sequences (rather than simply being arranged in a straight line as in the related art) is performed by dividing the frame image sequence by a logical scene break of the video and displaying a line feed. Is a display / editing device 3 in which a metaphor of a word display (word processor) sentence display technique or editing technique is used. Hereinafter, the text display technology and the editing technology of such a word processor will be described.
[0039]
First, the relationship between the word display / editing technology of a word processor and the video display / editing technology will be described, then the display / editing device 3 will be described, and finally, the processing operation of the display / editing device 3 for audio. Will be described.
[0040]
Among various media such as video, audio, still images, and character strings, character strings have been used for a long time, and various techniques have been developed for display and editing techniques. A character string is simply a sequence of characters, if it is the original. However, a character string actually has a meaning (usually called a sentence), and has a logical structure such as a word or a sentence, a chapter or a section. Such a logical structure is expressed in a plain manner on a plane called a page by using punctuation marks, line feeds, and chapter and section headings in paper and word processing sentences.
[0041]
A video is simply a sequence of frame images, and there is also a logical structure called a scene. However, there has been a problem that there is no technique for easily expressing the logical structure of the frame image sequence.
Therefore, if concepts such as line breaks, punctuation marks, and pages can be applied to a video as well as a character string, the video can be expressed as easily as understanding a sentence composed of a character string.
[0042]
Therefore, as a video expression technique, a concept of a line feed expressing a logical break in the video is added. Specifically, to display a series of videos,
(A) displaying a video segment from the start position of the video to be displayed to the logical switching point in the video as a sequence of frame images having a length proportional to the time length of the video segment;
(B) moving the next display position to the position next to the previous frame image string display position displayed in (a),
(C) The remaining video section obtained by removing the video partial section already displayed in (a) from the display target video is set as a new display target video.
Then, this process is performed at least twice.
[0043]
Furthermore, this video display / editing technology is applied to audio and the like.
That is, the following technology is used in order to make the expression technology for video applicable to continuous media such as audio, animation, slide show, video, and media in which these are multiplexed.
[0044]
First, (d) a continuous media segment from the start position of the continuous media to be displayed to a logical switching point in the continuous media is represented by a bar-like representation having a length proportional to the segment length of the continuous media segment. Display,
(E) Move the next display position to the position next to the previous bar-shaped display area displayed in (d),
(F) A continuous media section remaining after removing the continuous media partial section already displayed in (d) from the continuous media to be displayed is set as a new continuous media to be displayed.
Then, this process is performed at least twice.
[0045]
Hereinafter, first, a basic expression operation example and an editing operation example of the continuous media information display / editing device 3 in FIG. 1 will be described with reference to FIGS. , And FIG. 3, and an example of a data structure and a processing flow will be described with reference to FIGS. 6 to 11. Finally, the present example will be described with reference to FIGS. 12 to 15. A technique for further improving usability will be described.
[0046]
FIG. 2 is an explanatory diagram showing a first processing operation example of the display / editing device in FIG. 1 according to the present invention.
In this example, the processing result of the display / editing device 3 on the screen of the display device 1 in FIG. 1 is shown. In the window 100, a frame image display area 151 is displayed. Then, as the video to be edited, a video in which the frame images 111 to 113, and subsequently, the frame images 121 to 124, the frame images 131 to 132, and the frame images 141 to 143 are displayed as a continuous frame image sequence is displayed. ing.
[0047]
The greatest feature of the display technology of this example is that instead of displaying such a series of videos in a straight line as in the conventional frame-based editing technology, a frame image sequence is displayed for each logical unit of video, that is, A line of a frame image sequence is displayed for each scene. In this case, the frame images 111 to 113 representing “scene 1” are displayed as the top row, and similarly, the frame images 121 to 124 representing “scene 2” are the second row, and the frame images representing the scene of “control”. 131 to 132 are displayed in the third row, and frame images 141 to 143 representing the scene of “house” are displayed in the fourth row.
[0048]
The following effects can be obtained by displaying the line of frames in a line feed.
(1) The operator can easily grasp the logical structure of the video, that is, what kind of scene exists in the video by looking at the arrangement of the rows.
(2) Also, by looking at each line,
(2-1) From the line length (the number of frame images in FIG. 2), the time length of each scene can be easily grasped.
(2-2) From the display contents of the row, the contents of the scene such as the transition state of the frame image in each scene can be easily grasped.
[0049]
In the example of FIG. 2, some further contrivances are made to further improve the understanding of such display contents.
First, the scene information display area 150 is displayed next to the frame image display area 151 in order to present the information of the scene displayed in each row to the user in a more understandable manner.
[0050]
Then, in the scene information display area 150, information on the scene represented by each row is stored in the scene information display area 150 by a scene block icon created by the related art, corresponding to the position of each row in the frame image display area 151. Is displayed.
That is, as scene information, a frame image that best represents a scene from a sequence of frame images in the scene, a scene name that represents the contents of the scene, and a three-dimensional depth expression of an icon that represents the scene length Is displayed as one icon.
[0051]
For example, scene information corresponding to the scenes of the frame images 111 to 113 on the first line is displayed as the scene block icon 110 at the same position in the scene information display area 150. In this scene icon 110, a frame image 112 is displayed as a frame image representing the scene, a character string "Scene 1" is displayed as a scene name, and a three-dimensional depth is expressed as the length of the scene as the icon depth. Is displayed for the length proportional to.
[0052]
The second idea is to display a time scale line indicating a certain time position, such as 30 seconds or 1 minute, in the frame image display area 151.
In the example of FIG. 2, a time scale line 153 representing the 30th second from the beginning of the scene and a time scale line 154 similarly representing a position of 1 minute are displayed. By displaying such a kind of auxiliary line in the frame image display area 151, the operator can more specifically grasp the time length of each scene.
[0053]
In the third method, a line feed mark 156 is displayed in order to more closely resemble a word processing style editing technique.
The fourth idea is to make it possible to select a section in the video, which will be described in detail in the following examples. In FIG. 2, the user selects a section of the video using the mouse cursor 170, and the selected section is displayed in the highlight area 160.
[0054]
Next, as a supplement to the description of FIG. 2, a difference between another similar video display technology and the technology of the present embodiment will be described.
As a first video display technique, a material video management window provided in the media composer described in the related art will be described.
[0055]
That is, in the material video management window of the related art, one video file among a plurality of video files is displayed as one row as a frame image column in one video file, as in the technology of the present embodiment, and a plurality of video files are displayed. By expressing the file as a plurality of lines similarly to the technique of the present example, the configuration of the plurality of video files is displayed in an easy-to-understand manner. However, unlike this technology, the video to be displayed by the technology of this example is not a plurality of independent scene groups, but a line of continuous video as a line.
[0056]
As a second of the other video display technologies, in the display technology of the scene block icon group such as the conventional scene unit edit shown in FIG. 17, the arrangement of a plurality of scene block icons is similar to this example. A technology that breaks lines in units is also conceivable. However, with such a display technique, a plurality of scenes can be displayed side by side, but the length of the display line does not represent the time length of the scene as in this example, but the length of the logical scene. It merely represents a number and cannot intuitively grasp the scene time length.
[0057]
Although not a video display technology, a technical difference between the conventional text display technology and the present example will be described.
The data targeted by the conventional sentence display technology is only character strings, and is not continuous media information targeted by the technology of the present example. The continuous media information has time information for reproducing it, and is different from a simple character string. In addition, continuous media information can be referred to only a part of the information at a certain time, which makes it difficult to grasp the entire content and its logical structure in the related art. In contrast, since the character string has no time information, the entire character string can be simultaneously expressed on two-dimensional paper.
[0058]
FIG. 3 is an explanatory diagram showing a second processing operation example of the display / editing device in FIG. 1 according to the present invention.
In this example, a screen for editing an audio track attached to a video is displayed. When the processing target is audio, an audio waveform display area 251 is displayed instead of the frame image display area 151 in FIG.
[0059]
In the case of this example, the sound accompanying the scene 2 (displayed by the scene block icon 120) of the video in FIG. 2 and the control scene (displayed by the scene block icon 130) is displayed. In the case of such an audio editing, instead of displaying the frame images 121 to 124 of the scene 2, in this example, the waveform of the audio track accompanying the scene 2 is displayed using the bar-shaped area 211 in which a line graph is drawn. I have. The length of the bar-shaped region 211 indicates the time length of the audio scene according to the scale of the time scale on the screen.
In addition, as the track expression technology of the audio, an expression in which the magnitude of the volume of the waveform is graphed may be used other than the line graph of the actual waveform.
[0060]
In this example, the voice section selected using the mouse cursor 170 is displayed as the highlight display area 260 as in the case of FIG.
As described above, the display / editing device 3 in FIG. 1 can also edit audio in addition to displaying and editing video. As can be easily analogized from this, the display / editing apparatus 3 can be applied to other continuous media having time information.
[0061]
For example, as other continuous media, a slide show in which several slides are displayed every few seconds, an HTML document including a program such as a WWW page that moves on the Internet instead of a slide, and the like are also conceivable. . Further, the present invention can be applied to a composite continuous medium in which these basic continuous media are continuously arranged in a line, or a multi-track continuous medium having a plurality of such continuous media in parallel.
[0062]
Hereinafter, technical examples of display / editing operations when the continuous medium is a video will be mainly described, but all of these techniques can be applied to continuous media such as audio.
FIG. 4 is an explanatory diagram showing a third processing operation example of the display / editing device in FIG. 1 according to the present invention.
This example illustrates an example of an editing operation of the display / editing device in FIG. 1, and particularly illustrates an example of an operation of selecting an editing section.
[0063]
FIG. 4A shows an example in which the position of a certain frame in the video is specified by clicking one point on the screen specified by the mouse cursor 170.
FIG. 4B shows an example in which a video section is specified by clicking two points on the screen specified by the mouse cursor 170. FIG. 4C shows an operation example of selecting the entirety of one certain scene.
[0064]
Although not adopted in this example, when the mouse is clicked, a frame image corresponding to the position of the image specified by the mouse cursor 170 is displayed in a separate window, or from the position of the specified image. It is also easy to reproduce the starting video in another window.
[0065]
In FIG. 4A, in order to specify the position of the frame image 112 in the video, the mouse cursor 170 is moved over the frame image 112 and the mouse is clicked. In this way, the position of the frame image 112 in the video is specified, and the frame image 112 at the corresponding specified position is highlighted by the highlight area 560.
[0066]
Further, in FIG. 4B, in order to select and specify a video section including the frame images 112 to 113 and 121 to 122, first, the mouse cursor 170 is moved over the frame image 112 which is the head position of the selection range. Move, click the left mouse button (display of FIG. 4A), and then move the mouse cursor 170 over the frame image 122 that is the end position of the selection range, and click the right mouse button. I do. By performing this operation, a video section spanning a plurality of frame images is selected, and the frame images 112 to 113 and 121 to 122 in the corresponding selection range are highlighted by highlight areas 561 and 562.
[0067]
Further, in FIG. 4C, in order to select a certain scene, in this case, the entire “scene 1”, that is, the frame images 111 to 113, among the lines representing the scenes to be selected, Click the mouse anywhere other than. In the example of FIG. 4C, the scene block icon 110 is clicked. By performing this operation, the entire frame image sequence of “Scene 1” is selected, and the selected section is highlighted in the highlight display area 564. Further, in the example of FIG. 4C, when the entire scene is selected, the corresponding scene block icon is also highlighted using another highlight display area 563.
[0068]
FIG. 5 is an explanatory diagram showing a fourth processing operation example of the display / editing device in FIG. 1 according to the present invention.
This example shows an example of an editing process operation for a selected section of the display / editing apparatus in FIG. 1, and in particular, for an image section specified and selected by the operation of FIG. , And a frame image filter editing operation for blurring an image or the like for each frame image sequence in the selected video section.
[0069]
In the editing operation on the selected section, as shown in FIG. 5A, first, the operator selects a video section to be edited from now on by the operation shown in FIG. Then, as shown in FIG. 5B, the editing menu 181 is designated, and the section editing process desired by the operator is selected from the editing pull-down menu 183. The editing process is performed on the video section selected in this manner.
[0070]
In this example, as a selectable section editing process, cutout of the selected video section and insertion (pasting) of the cutout video section, as shown by an edit menu 181, and menu image 184 as a frame image filter edit, as shown by an edit menu 181 As described above, a process for adjusting the brightness of the frame image sequence, a process for similarly blurring the image, and a process for displaying subtitles in the frame image are prepared.
[0071]
FIG. 5C-1 shows an editing result display when “Cut” is selected as the section video editing process. By the editing process, the video section (frame images 121 to 122) previously selected in FIG. 5A is deleted from the edited video, and accordingly, the corresponding video section is not displayed on the screen.
[0072]
FIG. 5C-2 shows an editing result display when “subtitle insertion” is selected as the section video editing process. By the editing processing, image processing for displaying subtitles is performed on all the frame images 121 to 122 in the video section previously selected in FIG. 5A, and the frame images 121a to 122a resulting from the image processing are obtained. It is created, and the display of the frame image of the corresponding video section on the screen is updated accordingly.
[0073]
The above is the basic display processing, editing operation, and processing of the display / editing device 3 in FIG.
Next, an example of a data structure and an example of a processing operation handled by the display / editing device 3 of FIG. 1 will be described with reference to FIGS.
FIG. 6 is an explanatory diagram showing an example of a data structure processed by the display / editing device in FIG. 1. FIGS. 7 to 11 are first to fifth processes of the display / editing device in FIG. It is a flowchart which shows a procedure example.
[0074]
As shown in FIG. 6, information on the entire video to be edited is stored in the media information 701. Further, a list of rows displayed in the frame image display area 151 in FIG. 2, that is, scene information 711 and 721 indicating a sequence of scenes is stored as a list structure.
The media information 701 includes, for a video file to be actually edited, the file name 702, the time length of the video (media length 703), and a pointer to a scene information list (scene column 704) used during editing processing. Is stored.
[0075]
Scene information 711 indicating one display line or one scene (“scene 1”) includes an icon image 712 used for a scene icon displayed in each line, and a comment 713 (character) of a scene displayed below the scene icon. Column), a start position 714 and an end position 715 of this scene in the video file of the scene, and a pointer 716 to scene information 721 (“scene 2”) of a scene to be displayed next in the sequence of scenes. It is composed of
[0076]
The processing shown in FIG. 7 shows a processing flow that is first executed by the display / editing apparatus 3 in FIG. 1 as a processing operation according to the present invention.
When starting to edit a video, a video file to be edited is specified. The process called in this case is the process flow for opening a file (step 800). Hereinafter, the contents will be described.
[0077]
First, in step 801, a data structure as shown in FIG. 6 is created from a specified video file. If the user has stored the data structure corresponding to this video file in the file, or if the name of this data structure file is specified together with the video file when opening the file, the processing in step 801 is performed. Not required.
[0078]
Next, in step 802, based on the data structure created in step 801 processing, a video is displayed in an expression form as shown in FIG.
Next, in step 803, information on the selected section used for editing is initialized. In this example, at the time of the initial display, the first frame position of the video file is selected.
Finally, in the loop process of step 804, the editing process corresponding to the user operation event is performed until the user instructs the end of the editing process.
[0079]
In the loop of step 804, first, an operation event such as a mouse click, menu selection, or cursor movement of the user is obtained by the processing of step 811. Next, a process corresponding to each user operation event is selected by a branch corresponding to the condition in step 812. For example, when the screen is clicked, screen click processing 821 is performed, and when the edit menu is selected, edit menu processing 822 is performed. Then, if the editing end menu (supposed to be in the file menu) is selected, the loop processing of step 804 ends.
[0080]
FIG. 8 is a flowchart showing details of the processing in step 801 in FIG.
This example shows a processing example of creating the media information of FIG. 6 which is a data structure necessary for the editing process from a specified video file.
First, in step 901, a video file name and a time length of the video file are set in a memory area (701 in FIG. 6) for storing media information.
[0081]
Next, in step 902, a new memory area for scene information (711 in FIG. 6) is generated, and the scene information is set at the head position (704 in FIG. 6) of the scene sequence of the previous media information.
Further, in step 903, the position “0” is set as the scene start position and the media length (time length) set in the media information is set as the end position in the generated scene information as initial values.
[0082]
Then, a loop process of step 904 is performed.
In the loop process of step 904, a process of counting a control variable i from 1 and generating a plurality of pieces of scene information is performed.
That is, first, in step 910, a frame image at the start position of the scene is set in the icon image of the current scene information, and a comment area representing the name of the scene is named "scene i" (i is Do).
[0083]
Next, in order to divide the current scene into logical delimiters, in step 911, the video is reproduced frame by frame from the start position of the scene, and a frame position where a scene change point where a scene changes is found is searched. . As a technique for obtaining a scene change point, an image difference between two adjacent frame images in a frame image sequence is obtained, and when the image difference becomes larger than a certain threshold, the frame image is determined. The position may be set as a scene change point position.
[0084]
Then, it is determined whether the loop of step 904 is completed. In the process of step 911, the position at the end of the video is also set as a scene change point. For this reason, if the position of the scene change point is the video end position under the conditions in the process of step 912, it is determined that the video reading has been completed.
If the video has not yet reached the end position, the process of step 913 is performed.
[0085]
In the process of step 913, a process of dividing the current scene information into two pieces of preceding and succeeding scene information at the position of the scene change point is performed.
First, a new scene information memory area is generated, and then the scene start position of the new scene information is set to the previous scene change point position, and the scene end position is set to the end position of the current scene information. Thereafter, the end position of the current scene information is updated to the value of "scene change point -1", and new scene information is set to the next pointer of the current scene information.
[0086]
At the end of the loop processing in step 904, in step 914, the previous new scene is set as current scene information used in the next loop.
If reading to the end of the video has been completed under the condition of step 912 in the loop of step 904, the process proceeds to step 921. Then, in step 921, the value “none” indicating the end of the list structure is set in the next pointer of the current scene information, and then the loop of step 904 is ended in step 922.
[0087]
FIG. 9 is a flowchart showing details of the processing in step 802 in FIG.
This example shows a processing example of displaying video data. First, in step 1001, a display position on the screen is set to the upper left of the screen. Next, in step 1002, the scene information at the head of the scene information list is obtained from the continuous media information as the display start scene. As a more preferable example, a scroll display function may be provided by changing the display start scene specified in step 1002. In this case, the display start scene may be changed in accordance with an operation such as a scroll bar or cursor movement.
[0088]
Next, in a loop process of step 1003, a process of displaying video data in a screen is performed. First, in step 1011, an icon image of a scene and a comment character string of the scene are displayed from the current scene information. Next, in step 1012, the contents from the start position to the end position of the scene are displayed on the screen. At this time, the shape to be displayed on the screen is a horizontally long bar-shaped area, and the display length is set to “(time length of scene) × display coefficient K”.
[0089]
For example, in the case of displaying video data in FIG. 2, a display is performed in which frame images from the start position to the end position of a scene are arranged side by side like a film. In the case of displaying audio data as shown in FIG. 3, the audio waveform in the scene may be displayed in a graph. Here, the display coefficient K is set in advance at the time of starting the program. Further, the display coefficient K can be used for zoom display of the screen. For example, by reducing the display coefficient K, even a scene having a long time can be displayed without protruding from the screen.
[0090]
Next, in step 1013, the display position is moved down by one line. The movement width at this time may be, for example, the height of the frame image × 2.
At the end of the loop processing of step 1003, the next pointer of the scene information is followed to obtain the next scene information. Then, the loop is performed while the display position is within the range of the screen, and when the display position is out of the screen, the loop processing of step 1003 is ended.
[0091]
In the next loop processing of step 1004, a time axis is displayed. That is, in step 1021, a vertical line is drawn for each display time width designated in advance, such as 30 seconds or 1 minute. The X coordinate position of the vertical line is “display time width × i × display coefficient K” when loop counts i = 0 to n.
[0092]
FIG. 10 is a flowchart showing details of the process of step 821 in FIG.
This example shows the processing operation when the screen is clicked. When the screen is clicked, first, in step 1101, a process for checking which scene on the screen is designated from the click position is performed. Of the clicked line position R is determined from the Y coordinate. In order to obtain the row position R, for example, the Y coordinate value may be divided by the display row width used in the process of step 1013 in FIG. Further, in step 1101, a process of obtaining the R-th scene information from the head of the media scene sequence is performed.
[0093]
In step 1102, a branch process according to the condition is performed. That is, it is determined whether the click position is the scene information display area 150 or the frame image display area 151 based on the clicked X coordinate. If the clicked position is in the scene information display area 150, in step 1111 a process of selecting the entire corresponding scene is performed. Here, the start position and the end position of the scene information obtained in the process of step 1101 are set as the selection start position and the selection end position.
[0094]
If the click position is in the frame image display area 151, the process of setting the selection position in frame units is performed after step 1113. First, in the processing of step 1113, the time position in the scene is calculated from the click position on the screen. Here, the time position C in the scene is obtained by dividing the X coordinate of the click position by the display coefficient K used for displaying the video. This time position is a time position where the start position of the corresponding scene is 0.
[0095]
In the conditional branch processing in step 1114, if the clicked time position C is longer than the length of the selected scene (= scene.end position−scene.start position), in step 1121, the time position C is set to the scene length. Perform correction processing.
When the time position C in the scene is determined in this way, in step 1115, a selection process is performed according to left click or right click. In the case of a left click, in step 1123, the selection start position is set to scene. Start position + (in the scene) time position C.
[0096]
In the case of right-click, in step 1125, the selection end position is set to scene. Start position + (in the scene) time position C.
At the end of the screen click processing, as the processing of step 1103, the area from the updated selection start position to the selected end position is displayed as a selected state (highlighted as indicated by reference numeral 160 in FIG. 2).
[0097]
FIG. 11 is a flowchart showing details of the process of step 822 in FIG.
This example shows a processing operation example when the edit menu is selected.
When the edit menu is selected, first, in step 1201, scene information corresponding to the currently selected section is obtained. The obtained information includes scene information where the selection start position is present (start scene information), scene information where the selection end position is present (end scene information), and the next scene information after the start scene information to one before the end scene information. Of intermediate scene information up to the scene information (intermediate scene sequence).
[0098]
To find start scene information, go to Media. It is sufficient to sequentially refer to the scene sequence from the top and search for scene information that satisfies the following: scene start position ≦ selection start position ≦ scene end position. Similarly, in order to search for end scene information, scene information that satisfies the condition of “head position of scene ≦ selection end position ≦ end position of scene” may be searched. Then, the intermediate scene sequence can be easily obtained from the first scene information and the last scene information.
[0099]
Next, in the conditional branch processing in step 1202, the selected edit menu is determined.
When the selected edit menu is “cut”, a process of cutting the selected section and copying the cut selected section to the clipboard is performed. That is, first, in step 1211, the selected section is stored for the clipboard. Specifically, first, a copy of the start scene, the intermediate scene sequence, and the end scene is created, and then the start position of the start scene copy is updated to the selection start position, and the end position of the end scene copy is updated to the selection end position. Finally, a process of storing a copy on the clipboard is performed.
[0100]
In the next step 1212, a process of actually deleting the selected section is performed. Specifically, first, an intermediate scene sequence is set as a media. It is deleted from the list of scene strings, and then the end position of the start scene is updated to the selection start position-1 and the start position of the end scene is updated to the selection end position + 1.
[0101]
If the selected edit menu is "insert" in step 1202, in step 1215, a process of inserting a scene sequence stored in the clipboard immediately after the start scene is performed.
If the selected edit menu is “filter” in step 1202, in step 1217, subtitle processing or blur processing is performed on each frame image from the selection start position to the selection end position in the video file. And other image processing.
[0102]
For example, in the case of a blur filter, a blur process is performed on a frame image extracted from a video file using an image processing technique called a moving average filter, and then the frame image is written back to a video file.
In the case of subtitle processing, a character string specified by the user is drawn on a frame image at a specified font and display position, and the drawn frame image is written back to a video file.
[0103]
In this example, for simplification of processing, image processing is directly performed when a filter menu is designated. However, desirably, instead of directly performing image processing, it is better to separately record information of repetitive editing processing and operate the image processing in a batch at the time pointed by the user, which is convenient for the user and Good processing efficiency.
At the end of such editing menu processing, in the processing of step 1203, the edited video is displayed again.
[0104]
Next, a description will be given of an expression technique and an editing operation technique by the display / editing device 3 in FIG.
FIG. 12 is an explanatory diagram showing a fifth processing operation example according to the present invention of the display / edit device in FIG.
This example shows a screen configuration when the concept of a page is introduced into the display processing operation of the display / editing device in FIG.
[0105]
Just as the word editing in a word processor has a concept called a page, the concept of a page is introduced into the display / editing technology of continuous media information in this example. In this example, time is used as a unit representing the size of a page.
FIG. 12 shows a screen example of the page unit display mode when the page width is set to 1 minute and the page height is set to 5 minutes.
[0106]
The feature of this example is that, out of “scene 2” (frame images 1301 to 1306), a portion (frame image 1305, 1306) exceeding the display time width of the page is displayed in a folded manner, and page vertical time axis 1311 Is displayed. In other words, “scene 2”, which is about 1 minute and 30 seconds in length here, is displayed as being separated into two frame images 1301 to 1304 for one minute from the beginning and the remaining frame images 1305 to 1306. ing. A time display area 1312 such as "5:00" is provided on the page vertical time axis.
[0107]
As described above, by introducing the display mode in which the page width and the height are considered, the operator can more easily understand the time length of the video. This mode is particularly suitable for checking a CM insertion position in a TV program.
In order to perform such display, the image display processing in step 1012 in FIG. 9 may be changed so that the scene is displayed for each time width. In the time axis display processing in step 1021, a change may be made so as to display not only the time axis of the vertical line but also the time axis of the horizontal line.
[0108]
FIG. 13 is an explanatory diagram showing a sixth processing operation example of the display / editing device in FIG. 1 according to the present invention.
This example shows a screen configuration example at the time of a combined display operation by the display / edit device in FIG.
If a video contains a large number of short scenes of a few seconds, such as a car chase scene sequence, the number of display lines on the screen becomes very large, making it difficult to grasp the logical structure of the scene. It is more convenient to handle such a scene sequence collectively as one scene on the screen.
[0109]
For such a reason, a display technique for expressing a plurality of scenes as one scene on the same line is prepared.
In the example of FIG. 13, the scene rows of “scene 1” of the scene block icon 110 of FIG. 2, “scene 2” of the scene block icon 120, and “control” of the scene block icon 130 are combined, and “new scene” (Scene block icon 1410).
[0110]
As the frame image sequence of the “new scene” of the scene block icon 1410, frame images 1411-1413, 1421-1423, and 1431 of the combined scenes are displayed. In particular, in this example, in order to emphasize the combination, the top frame images 1411, 1421, and 1431 of the scenes being combined are highlighted with a large frame image. Of course, highlighting is not necessary.
[0111]
In order to provide such a combined expression, in the data structure of FIG. 6, a new pointer storage item called “combined scene sequence” is provided in the scene information 711, and the scene sequence combined with the pointer is separately added. You should keep it. When displaying a scene in step 1012 of the video display processing procedure in FIG. 9, scene information and a frame image may be appropriately extracted from the scene information sequence in the “combined scene sequence” and displayed on the screen.
[0112]
FIG. 14 is an explanatory diagram showing a seventh processing operation example of the display / editing device in FIG. 1 according to the present invention.
This example is a screen configuration example at the time of a scene outline display operation by the display / editing device in FIG.
When the combined display of scenes as shown in FIG. 13 is used, each scene has a hierarchical relationship such as further combining the combined scenes.
[0113]
In this example, such a hierarchical relationship is directly handled. Under the “new scene” of the scene block icon 1410 described with reference to FIG. 13, “scene 1” (scene block icon 110), which has been combined and edited, "Scene 2" (scene block icon 120) and "control" (scene block icon 130) are displayed hanging.
[0114]
Also, a frame image sequence corresponding to the combined scene sequence is displayed in the frame image display region 1551 in an indent display in which the display start position is slightly shifted to the right (region 1501).
In this manner, by displaying the hierarchical structure of the scene in an indent or hanging, it is possible to easily grasp the logical structure of the video as if outline editing of a chapter or section in a word processor was used.
[0115]
In order to perform such display, a recursive function call such as “display of video (parameter is a scene. Combined scene sequence)” is performed between the processes of steps 1012 and 1013 in the video display process of FIG. What is necessary is just to insert processing.
The video editing operation or the like is performed after determining in which connected hierarchical area (the area 1551 or the area 1501) the editing processing has occurred based on the click position, and then performing the conventional processing on the video scene sequence in the corresponding area. Just do it.
[0116]
FIG. 15 is an explanatory diagram showing an example of comparison between the editing function of the display / editing device in FIG. 1 and the text editing function of a word processor.
In the table of this example, the functions 1601-1608 of each word processor editing (“character string”, “1 line”, “font change”, “line spacing adjustment”, “search”, “header / footer”, “merge print” , "Sentence check"), a function ("video editing of the present invention") of the continuous media information display / edit technique of the present example.
[0117]
In this example, “character image” is “frame image sequence (= video)”, “1 line” is “1 scene”, “font change” is “special effect (blur)”, “line spacing adjustment” is “2 scenes” "Wipe in between", "Search""Similar video search", "Header / Footer""Opening / Ending", "Inset printing""Video editing template", "Sentence check""Illegal video inspection" Are associated with each other.
[0118]
As described above, the continuous media information display / editing apparatus 3 and display / editing method of the present example can easily edit a frame image sequence, that is, a video, like a character string edited by word processing editing. That is, in this example, not only the frame image sequence is arranged in a single line (1601), but also a line feed is displayed for each meaningful video scene as in line feed editing (1602) in word processing editing.
[0119]
Considering this further, various editing techniques effective for text editing by a word processor can be easily applied to the video editing technique using the display / editing apparatus and method of the present embodiment. For example, as an example in which the operation (1603) of changing the font of the character string selected in the word processor is applied to the video editing of this example, the editing operation technique for the selected video section described with reference to FIG.
[0120]
Based on the idea of applying the editing function of such a word processor to the editing function of the display / editing apparatus of the present example, it is possible to consider a video editing technique that is easier to use as shown in the table of FIG.
[0121]
For example, consider a case in which an operation method of line spacing adjustment (1604) for adjusting the interval between lines in a word processor is applied to video editing.
In a word processor, the length between lines can be adjusted by selecting two or more lines and selecting a line spacing adjustment menu. In the case of video editing, the line spacing adjustment in text editing can be regarded as a special effect such as a wipe between two scenes. From this, a new method of specifying an inter-scene special effect, in which two or more scenes are selected and then an inter-scene special effect setting menu is selected as a video editing operation, can be easily considered.
[0122]
From the same idea, the character string search function (1605) referred to in a word processor is a video editing technology that searches for a video similar to the specified video and sets the found video section to a selected state in the video editing of this example. Applicable. As a technique for finding such a similar video, a technique for finding a video section that satisfies conditions based on a keyword assigned to the video, a technique for finding a video section in which the image difference amount of a frame image is smaller than a certain reference value, and the like can be considered. .
[0123]
The editing function (1606) of a page header or footer in a word processor can be applied as an opening / ending video editing function in the video editing of this example. Also, the insert printing function (1607) referred to in a word processor can be applied as a video editing template function of preparing a template of video editing contents and inserting various videos into the template in the video editing of this example.
[0124]
Furthermore, word processing functions such as sentence check and spell check (1608) provide an illegal video inspection function, such as automatically pointing out subliminal video scenes (scenes shorter than one second) that are said to affect human subconsciousness. Can be considered. As a technique for automatically finding the subliminal video scene, for example, a "method scene display method and apparatus" described in JP-A-09-074575 is exemplified.
[0125]
As described above with reference to FIGS. 1 to 15, in the continuous media information display / editing apparatus and the continuous media information display / editing method of the present embodiment, for example, each image frame of a moving image is continuously displayed on a screen. In the case of displaying in the horizontal direction, a line feed is performed with a change point of the scene as a delimiter, and each scene is displayed line by line. Then, a line feed mark is clearly indicated at each line feed position to make it easier to understand the scene unit. If it exceeds the display frame of the screen, it is wrapped around the display frame and displayed on the next line. In this case, the line feed mark is not specified.
[0126]
Also, a scale line representing a predetermined elapsed time is displayed from the head of each line on the screen and in the direction of the subsequent line from the head line, so that the time position of each frame and each scene can be easily understood. .
In addition, scene block icon information created by the related art corresponding to all frames displayed in this row is also displayed in the area before the head of the row.
[0127]
Further, when the operator designates a frame to be edited, the target frame portion is highlighted, so that the quality of the designation can be easily determined, and the editing operation such as moving the frame is facilitated. In addition, for example, when a plurality of frames are combined into one line, each combined portion is displayed larger than the other portions, so that the result of the combined editing can be easily determined. Further, the display state of each frame line before the combined editing is displayed in a window from the line following the combined edited line.
[0128]
As described above, according to the present embodiment, the frame image sequence of the continuous video data is not lined up, but is displayed as a line feed in each meaningful section, so that both the logical structure of the video and the frame configuration of the video are displayed. It becomes easy to grasp. Further, since the present invention can be similarly applied to continuous media other than video such as audio information, it is easy to grasp both the logical structure of the continuous media and the components of the continuous media.
In addition, such an easy-to-understand visual understanding also facilitates continuous media editing operations.
[0129]
The present invention is not limited to the embodiment described with reference to FIGS. 1 to 15 and can be variously modified without departing from the gist thereof. For example, in this example, when the display frame exceeds the display frame of the screen, the display is folded back to the display frame and displayed on the next line. However, a scroll operation or the like may be performed without displaying the return frame. .
Further, in this example, an example in which a mouse is used in the operation of selecting a video section is described. However, similarly to a normal word processing operation, a video section can be selected using a cursor key or the like of a keyboard.
[0130]
In this example, the storage medium of the continuous media is a storage medium such as a video tape recorder. However, the present invention is not limited to this. For example, a continuous media in a streaming format such as a TV or a radio may be used. In the case of such streaming-type continuous media, the end position of the continuous media may be treated as virtually infinite.
[0131]
【The invention's effect】
According to the present invention, in an editing process by a computer, an operator can easily understand the logical structure of continuous media such as video and audio, and at the same time, its constituent units / elements (image frames for video and waveform data for audio). ) Can be easily understood, and the editing operation of continuous media such as video and audio using a computer can be efficiently performed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing one embodiment of a configuration according to the present invention of a continuous media information display / editing apparatus of the present invention.
FIG. 2 is an explanatory diagram showing a first processing operation example of the display / editing device in FIG. 1 according to the present invention;
FIG. 3 is an explanatory diagram showing a second processing operation example of the display / editing device in FIG. 1 according to the present invention;
FIG. 4 is an explanatory diagram showing a third processing operation example of the display / editing device in FIG. 1 according to the present invention;
FIG. 5 is an explanatory diagram showing a fourth processing operation example according to the present invention of the display / edit device in FIG. 1;
FIG. 6 is an explanatory diagram showing an example of a data structure processed by the display / edit device in FIG. 1;
FIG. 7 is a flowchart showing a first processing procedure example according to the present invention of the display / editing apparatus in FIG. 1;
FIG. 8 is a flowchart showing a second processing procedure example of the display / editing apparatus in FIG. 1 according to the present invention;
FIG. 9 is a flowchart illustrating a third processing procedure example according to the present invention of the display / editing apparatus in FIG. 1;
FIG. 10 is a flowchart illustrating a fourth processing procedure example according to the present invention of the display / editing apparatus in FIG. 1;
FIG. 11 is a flowchart showing a fifth processing procedure example according to the present invention of the display / editing apparatus in FIG. 1;
FIG. 12 is an explanatory diagram showing a fifth processing operation example according to the present invention of the display / editing device in FIG. 1;
FIG. 13 is an explanatory diagram showing a sixth processing operation example according to the present invention of the display / editing apparatus in FIG. 1;
FIG. 14 is an explanatory diagram showing a seventh processing operation example of the display / editing device in FIG. 1 according to the present invention;
FIG. 15 is an explanatory diagram showing an example of comparison and correspondence between an editing function by the display / editing device in FIG. 1 and a text editing function in a word processor;
FIG. 16 is an explanatory diagram showing a screen display example in the conventional frame-based editing technology.
FIG. 17 is an explanatory diagram showing a screen display example in a conventional scene-based editing technique.
[Explanation of symbols]
1: display device, 2: input device, 3: display / edit device, 4: auxiliary storage device, 5: continuous media information input device, 6: optical disk, 7: optical disk drive device, 8: display processing unit, 8a: frame Display section, 8b: break detection section, 8c: line feed section, 8d: line feed mark display section, 8e: display frame setting section, 8f: return section, 8g: horizontal time scale display section, 8h: vertical time scale display section , 8i: scene block icon display section, 9: edit display processing section, 9a: combined display processing section, 9b: outline edit display processing section, 10: data conversion section, 100: window, 110, 120, 130, 140: scene Block icons, 111 to 113: frame images, 121 to 124: frame images, 121a to 122a: frame images, 131 to 132: frame images, 141 to 141 43: frame image, 150: scene information display area, 151: frame image display area, 153, 154: time scale line, 156: line feed mark, 160: highlight area, 170: mouse cursor, 181: edit menu, 183: Edit pull-down menu, 184: menu, 211, 221: bar area, 251: audio waveform display area, 260, 560-564: highlight display area, 300: window, 301: scroll bar, 310, 320, 330: line, 321: icon, 340, 350: audio track, 400: window, 410 to 440: scene block icon, 701: media information, 711, 721: scene information, 702: file name, 703: media length, 704: scene sequence, 712: Icon image, 713: Rice G, 714: start position, 715: end position, 716: pointer, 1301 to 1306: frame image, 1311: page vertical time axis, 1312: time display area, 1410: scene block icon, 1411 to 1413, 1421 to 1423 1431: frame image, 1501: area, 1551: frame image display area, 1601 to 1608: function (“character string”, “1 line”, “font change”, “line spacing adjustment”, “search”, “header / footer” , "Insert print", "sentence check").

Claims (15)

続メディア情報としての映像の画像フレームを表示装置の画面上に表示し、入力装置から入力される操作指示に基づき上記映像の表示・編集を上記画面上に表示した画像フレーム単位で行なう連続メディア情報の表示・編集装置であって、
上記画像フレームを上記画面の一方向に順に表示する手段と、
順に表示された上記画像フレームの論理的な区切りを検出する手段と、
該手段で検出した区切り毎に上記画像フレームの表示を改行する手段と
を有することを特徴とする連続メディア情報の表示・編集装置。
Displayed on the screen of the display device of the image frame of video as continuous media information, continuous media that the display and editing of the video based on the the operation instruction input from the input device performed by the image frame that is displayed on the screen An information display / editing device,
Means for sequentially displaying the image frames in one direction of the screen,
Means for detecting logical breaks in the image frames displayed in order ,
Means for line-feeding the display of the image frame at each break detected by the means.
請求項1に記載の連続メディア情報の表示・編集装置において、上記検出した区切り位置に改行マークを明示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。2. The continuous media information display / editing device according to claim 1, further comprising means for specifying a line feed mark at the detected break position. 請求項1、もしくは、請求項2のいずれかに記載の連続メディア情報の表示・編集装置において、上記画像フレームを表示する画面の表示枠を制限する手段と、該手段で制限された表示枠を超えた画像フレームを折り返し次の行に表示する手段とを設けたことを特徴とする連続メディア情報の表示・編集装置。In the continuous media information display / editing device according to any one of claims 1 and 2, means for restricting a display frame of a screen for displaying the image frame, and a display frame restricted by the means. Means for displaying the surpassed image frame on the next line by folding back the image frame . 請求項1から請求項3のいずれかに記載の連続メディア情報の表示・編集装置において、上記画像フレームの行先頭からの所定の経過時間を表す目盛線を表示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。4. The continuous media information display / editing device according to claim 1, further comprising means for displaying a scale line indicating a predetermined elapsed time from a line head of the image frame. Continuous media information display and editing device. 請求項1から請求項4のいずれかに記載の連続メディア情報の表示・編集装置において、上記画像フレームを表示した先頭の行から後続の行方向へ、所定の経過時間を表す目盛線を表示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。5. The continuous media information display / editing device according to claim 1, wherein a scale line representing a predetermined elapsed time is displayed from a first line on which the image frame is displayed to a subsequent line direction. A display / editing device for continuous media information, characterized by comprising means. 請求項1から請求項5のいずれかに記載の連続メディア情報の表示・編集装置において、上記画像フレームを表示した行先頭の前の領域に、該行に表示されている画像フレームに対応して別途作成された、直方体状の奥行きとして時間長が表示されているシーンブロックアイコン情報を表示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。In the display and editing unit of the continuous media information as claimed in any one of claims 5, before the area of the line head displaying the image frame, in correspondence with the image frame displayed on the row A continuous media information display / editing device, further comprising means for displaying separately created scene block icon information in which a time length is displayed as a rectangular parallelepiped depth . 請求項1から請求項6のいずれかに記載の連続メディア情報の表示・編集装置において、上記画像フレームの上記入力装置を介して指定された部分を他の部分と異なる特定表現で表示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。7. The display / editing apparatus for continuous media information according to claim 1, further comprising means for displaying a portion of the image frame specified through the input device in a specific expression different from other portions. An apparatus for displaying and editing continuous media information, characterized in that it is provided. 請求項1から請求項7のいずれかに記載の連続メディア情報の表示・編集装置において、上記入力装置を介して指定された画像フレームの部分を、上記入力装置から入力される編集操作指示に従って編集する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。8. The continuous media information display / editing device according to claim 1, wherein a portion of the image frame specified via the input device is edited in accordance with an editing operation instruction input from the input device. A display / editing device for continuous media information, characterized by comprising means for performing the operation. 請求項1から請求項8のいずれかに記載の連続メディア情報の表示・編集装置において、上記入力装置から入力される編集操作指示に従って、複数画像フレームを結合して一つの行に表示する手段と、上記複数画像フレームのそれぞれの結合部分を他の部分と異なる表現で表示する手段とを設けたことを特徴とする連続メディア情報の表示・編集装置。9. The continuous media information display / editing device according to claim 1, wherein a plurality of lines of image frames are combined and displayed on one line in accordance with an editing operation instruction input from the input device. Means for displaying continuous media information, wherein said means for displaying each connected portion of said plurality of rows of image frames is expressed differently from other portions. 請求項9に記載の連続メディア情報の表示・編集装置において、上記複数画像フレームを結合して表示した行の次の行から、結合編集前の表示状態をウィンドウ表示する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。10. The continuous media information display / editing apparatus according to claim 9, further comprising means for displaying a display state before the combined editing in a window from a line following the line in which the plurality of lines of image frames are combined and displayed. A continuous media information display / editing device. 請求項1から請求項10のいずれかに記載の連続メディア情報の表示・編集装置において、上記入力装置を介して指定された上記画面上の二次元座標位置から、対応する画像フレームの時間位置を算出する手段を設けたことを特徴とする連続メディア情報の表示・編集装置。The continuous media information display / editing device according to any one of claims 1 to 10, wherein a time position of a corresponding image frame is determined from a two-dimensional coordinate position on the screen specified via the input device. A display / editing device for continuous media information, comprising a calculating means. 請求項1から請求項11のいずれかに記載の連続メディア情報の表示・編集装置において、上記映像の画像フレームの代わりに、音声の波形データを少なくとも含む他の連続メディア情報に対して各手段による表示・編集処理を行なうことを特徴とする連続メディア情報の表示・編集装置。12. The continuous media information display / editing device according to claim 1, wherein each of the continuous media information display / editing devices is configured to perform processing on the other continuous media information including at least audio waveform data instead of the video image frame. An apparatus for displaying and editing continuous media information, which performs display and editing processing. 連続メディア情報としての映像の画像フレームを表示装置の画面上に表示し、入力装置から入力される操作指示に基づき上記映像の編集を上記画面上に表示した画像フレーム単位で行なう処理装置の連続メディア情報の表示・編集方法であって、
請求項1から請求項12のいずれかに記載の連続メディア情報の表示・編集装置における各手段の処理により、上記画像フレームの表示と編集を行なうことを特徴とする連続メディア情報の表示・編集方法。
A continuous media of a processing device that displays an image frame of a video as continuous media information on a screen of a display device, and edits the video in units of the image frame displayed on the screen based on an operation instruction input from an input device. A method of displaying and editing information,
13. A method for displaying and editing continuous media information, comprising displaying and editing said image frame by processing of each means in the apparatus for displaying and editing continuous media information according to any one of claims 1 to 12. .
請求項13に記載の連続メディア情報の表示・編集方法において、上記映像の画像フレームの代わりに、音声の波形データを少なくとも含む他の連続メディア情報に対して各手段の処理による表示・編集処理を行なうことを特徴とする連続メディア情報の表示・編集方法。14. The display / editing method for continuous media information according to claim 13, wherein the display / editing process of each unit is performed on other continuous media information including at least audio waveform data instead of the image frame of the video. A method for displaying / editing continuous media information, characterized in that it is performed. コンピュータで読み取られ処理されるデータおよびプログラムを記録する記録媒体であって、請求項1から請求項12のいずれかに記載の連続メディア情報の表示・編集装置における各手段による処理手順をコンピュータに実行させるためのプログラムを記録したことを特徴とする記録媒体。13. A recording medium for recording data and a program read and processed by a computer, wherein the computer executes a processing procedure by each means in the continuous media information display / editing apparatus according to claim 1. A recording medium characterized by recording a program for causing the program to execute.
JP22117898A 1998-08-05 1998-08-05 Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof Expired - Fee Related JP3595871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22117898A JP3595871B2 (en) 1998-08-05 1998-08-05 Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22117898A JP3595871B2 (en) 1998-08-05 1998-08-05 Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof

Publications (2)

Publication Number Publication Date
JP2000059720A JP2000059720A (en) 2000-02-25
JP3595871B2 true JP3595871B2 (en) 2004-12-02

Family

ID=16762710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22117898A Expired - Fee Related JP3595871B2 (en) 1998-08-05 1998-08-05 Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof

Country Status (1)

Country Link
JP (1) JP3595871B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569800B2 (en) * 1998-12-24 2004-09-29 カシオ計算機株式会社 Image processing apparatus and image processing method
JP3600555B2 (en) 2001-06-27 2004-12-15 株式会社東芝 Moving image editing apparatus and moving image editing method
TW520602B (en) 2001-06-28 2003-02-11 Ulead Systems Inc Device and method of editing video program
JP2009177581A (en) 2008-01-25 2009-08-06 Necディスプレイソリューションズ株式会社 Projection type display device and caption display method
JP5569120B2 (en) * 2010-04-23 2014-08-13 株式会社リコー Image processing apparatus, image processing system, data processing method, program, and recording medium
JP6021063B2 (en) * 2011-07-26 2016-11-02 パナソニックIpマネジメント株式会社 Movie editing apparatus, movie editing method, program, and integrated circuit
JP5794685B2 (en) * 2011-08-09 2015-10-14 キヤノン株式会社 Image processing apparatus, method, and program

Also Published As

Publication number Publication date
JP2000059720A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
US6584463B2 (en) Video searching method, apparatus, and program product, producing a group image file from images extracted at predetermined intervals
US7124366B2 (en) Graphical user interface for a motion video planning and editing system for a computer
EP2127368B1 (en) Concurrent presentation of video segments enabling rapid video file comprehension
JP3892342B2 (en) Video editing method and apparatus for editing video projects
US6571054B1 (en) Method for creating and utilizing electronic image book and recording medium having recorded therein a program for implementing the method
US7480864B2 (en) Zoom editor
JP4194272B2 (en) Moving image management apparatus and method
EP0916136B1 (en) Graphical user interface for a motion video planning and editing system for a computer
US20090136201A1 (en) Image processing apparatus
JP3595871B2 (en) Apparatus for displaying / editing continuous media information, method for displaying / editing continuous media information, and recording medium recording the processing procedure thereof
US6272279B1 (en) Editing method of moving images, editing apparatus and storage medium storing its editing method program
JP3096280B2 (en) Electronic video document creation and utilization method and program storage medium
JP2001238172A (en) Image structure editing device, structure element reconfiguration device and computer readable recording medium with program for executing computer recorded thereon as each means of those device
JP4780128B2 (en) Slide playback device, slide playback system, and slide playback program
JP2005318618A (en) Moving image management apparatus and method
JP3496866B2 (en) Manga-type video editing method and apparatus, and recording medium recording the editing method
JPH0512406A (en) Animation data preparing method
JP2000251450A (en) Picture detecting method
JPH11308567A (en) Layout video image edit method with page display function, its system and recording medium recording its program
JPH0512347A (en) Moving picture retrieving method
JP3619005B2 (en) Image processing system control method and apparatus, and program recording medium thereof
JP2001223944A (en) Video image structure edit device and computer-readable recording medium for recording program for execution of computer as each means of the device
JP2004140750A (en) Image editor
JP2005130525A (en) Moving image editing method and moving image editing apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070917

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110917

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120917

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120917

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees