JP3687942B2 - Image editing method and image editing apparatus - Google Patents

Image editing method and image editing apparatus Download PDF

Info

Publication number
JP3687942B2
JP3687942B2 JP31569097A JP31569097A JP3687942B2 JP 3687942 B2 JP3687942 B2 JP 3687942B2 JP 31569097 A JP31569097 A JP 31569097A JP 31569097 A JP31569097 A JP 31569097A JP 3687942 B2 JP3687942 B2 JP 3687942B2
Authority
JP
Japan
Prior art keywords
editing
image
information
audio
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP31569097A
Other languages
Japanese (ja)
Other versions
JPH10200855A (en
Inventor
誠一 平井
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP31569097A priority Critical patent/JP3687942B2/en
Publication of JPH10200855A publication Critical patent/JPH10200855A/en
Application granted granted Critical
Publication of JP3687942B2 publication Critical patent/JP3687942B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、テレビジョン放送番組、或いはビデオ番組などの動画像制作に用いられる動画像編集方法に係り、特に動画像に付随している音声情報の編集方法に関する。
【0002】
【従来の技術】
近年、コンピュータを用いることによる高機能化されたテレビジョン放送番組やビデオ番組の制作方法が急速に進展している。ビデオテープレコーダを用い、そのテープカウンタを頼りに、早送り、巻き戻し動作を繰り返すような映像編集技法ではなく、廉価で取り扱いや保存が容易なハードディスクに格納した画像を用いて編集を行なう、いわゆるダイレクト方式の技法を用いた動画像編集装置が、最近、にわかに注目されるようになってきた。
【0003】
ところで、ここで言う動画像とは、時系列的にそれぞれ独立して並べられた複数のフレーム単位の画像からなるものであり、動画として表示することができる画像情報や音声情報あるいはその二つの情報からなる情報のことである。
【0004】
ところで、画像編集作業は、何れにしても編集者の有するフィーリングで判断されるべき作業が中心となる。画像編集方法としては、編集映像画面で映像を操作するための表示、いわゆるアイコン表示(以下アイコンと称す)を画像情報と関連付けて用いることにより画像編集を行なう方式の装置が使用されている。
【0005】
図22と図23は、このような画像編集装置の従来技術において、時系列な映像素材(動画像)のうちの所望のカット(複数のフレーム単位画像の連り)または他の複数のカットにより構成されるシーンと他の所望のカットまたはシーンとのエフェクト編集、すなわち、画像の内容を変化させながら画像の内容が切り替わる編集を行なうときでの画面表示例を示したものである。
【0006】
ここで、まず図22は、コンピュータ支援による編集作業用画面の表示例で、次に図23は、コンピュータ支援による編集作業用画面の別の表示例である。これらの編集作業は、ともに市販されている代表的な画像編集用ソフトウエアを使用する。
【0007】
このとき用いられる編集装置の一般的な構成は、コンピュータをベースとしたシステムであり、より具体的には、中央処理ユニット、メモリ及びオペレータにより操作される種々の装置を備えた典型的かつ汎用的なコンピュータ構成によるものである。
【0008】
図24は、(従来技術による)画像編集システムの一例で、コンピュータ401を備えており、このコンピュータ401に、例えば19インチの寸法の表示スクリーンを有するモニタ407が接続されている。
【0009】
ビデオ再生ユニット(VTR)402は、NTSC方式、PAL方式、或いはその他のフォーマット方式の任意のビデオ情報(画像情報)を再生することができる。このビデオ再生ユニット402から再生されたビデオ情報がビデオキャプチャ/フレーム記憶ユニット403に送られ、そこにデジタル情報化されて格納される。
【0010】
こうしてビデオキャプチャ/フレーム記憶ユニット403に格納されたビデオ情報は、次に伸長器/圧縮器404を介してディスクアクセラレータ405に供給される。
この伸長器/圧縮器404は、ビデオ情報を圧縮伸長するもので、現在最も高速のJPEG(Joint Photographic coding Experts Grup)チップを用いた伸長/圧縮プロセッサが多く用いられている。
【0011】
次にディスクアクセラレータ405は、ビデオ再生ユニット402からビデオキャプチャ/フレーム記憶ユニット403に送られ格納されたビデオ情報を、1台又は複数台のディスク記憶ユニット406へ送信し、又はそこから受信するためのものである。
【0012】
コンピュータ401は、制御信号408、409、及び410によって、画像編集装置の各構成部分、すなわち、ビデオキャプチャ/フレーム記憶ユニット403、伸長器/圧縮器404、ディスクアクセラレータ405を制御する。
【0013】
そして、ディスク記憶ユニット406に記憶されたビデオ情報は、これから実行すべき編集作業及び他の作業のため、コンピュータ401からの制御信号408、409、及び410によってディスク記憶ユニット406から読み出され、ディスクアクセラレータ405、伸長器/圧縮器404を介してビデオキャプチャ/フレーム記憶ユニット403に読み取ることができるようになっている。
【0014】
この図24に示した装置は、所望のビデオ情報にアクセスするためには、原理的にビデオテープの巻き取り動作が必要な従来のシーケンシャル・ファイル装置とは異なり、ビデオ情報に「直ちに」アクセス(ランダム・アクセス)できるという特徴があり、このため、上記したように、ダイレクト方式の技法を用いるものである。
【0015】
上記した図22と図23は、編集作業時、モニタ407に表示される第1と第2の編集作業用の画面例である。図22と図23において、210、313で示す縦のラインは、編集作業時の基準位置を表示するための、現在位置バーとよばれる図形である。
【0016】
図23の画面の302、303は、上記現在位置バーの位置を基準とした編集対象のカットあるいはシーンの位置および範囲を相対的に表示するためのタイムラインである。それぞれの編集対象のカットあるいはシーンの属する画像情報ごとにタイムライン表示用のトラックが割り当てられることで、その対応するトラック名が付けられる。
【0017】
また、図22の画面の203は、編集された後のカットあるいはシーンの位置および範囲を相対的に表示するためのタイムライン、さらに、304は、二つのタイムライン302と303の画像の合成編集時に合成される範囲を示すタイムラインである。
【0018】
201(図22)、301(図23)はタイムライン・ウィンドウで、そのウィンドウ上に上記タイムラインが表示される。なお、タイムライン203、302、303は、画面操作によりスクロール移動させることができる。
【0019】
205はプログラム・ウィンドウで、タイムライン・ウィンドウ201中に表示されているタイムライン203の画像のシーンを確認するために、ディスク記憶ユニット406から読み出されたビデオ情報によりその画像が表示される。なお、画像表示の再生開始および再生停止の位置である、マーク・イン位置及びマーク・アウト位置を、図24のコンピュータ401が接続された指示装置であるマウス(図示せず)により指示するためのボタン群が合わせて表示されている。
【0020】
206、306はワーキングビン・ウィンドウ、或いはプロジェクト・ウィンドウと呼ばれるウィンドウで、ディスク記憶ユニット406に記録されているビデオ情報(画像情報)、主に編集された編集画像情報を表示するものである。
【0021】
そして、エフェクト編集を行なうためには、各種のビデオエフェクトパターンを一覧表示するためのウィンドウ305と、エフェクトの種類やその効果量を設定するためのエフェクト設定ウィンドウ312とが、あるいは、これら2つのウィンドウの機能を合わせ有するビデオエフェクトパネル・ウィンドウ207が設けてある。
【0022】
エフェクト編集とは、画像に対してワイプ・エフェクトやディゾルブ・エフェクトなどの特殊効果処理を旋す編集である。ワイプ・エフェクトとは、画像Aから画像Bへ転換する過程で、ある変化するパターンで画像Aを拭き取るようにして画面から消し去り、代わりに画像Aを消し去った領域に別の画像Bが現れてくるような画像処理である。ディゾルブ・エフェクトとは、画像Aを画像Bに転換する過程で、画像Aの輝度が徐々に低下して消滅するまでの間に画像Bが徐々に現れてくる画像処理である。エフェクト編集にはワイプ・エフェクトやディゾルブ・エフェクト以外の他の特殊効果処理も含まれる。
【0023】
次に、エフェクト編集に必要な動作を、これら図22と図23により、さらに詳しく説明する。
【0024】
<図22の場合>
まず、ワーキングビン・ウィンドウ206に表示されたシーンまたはカット毎に異なる映像素材のうちの2つがマウスの操作によってそれぞれ選択され、タイムライン203上につなぎ合わせるための順序でもって配置される。
次いで、さらにマウスにより、二つの映像素材のつなぎ合わせの位置にバー210が移動させられることで、その移動された位置におけるエフェクト編集が開始される。
【0025】
すなわち、ビデオエフェクトパネルウィンドウ207に表示された、エフェクトの種類を選択するメニューバー208や、マウスと同様にコンピュータ401に接続されたキーボード(図示せず)からの数値入力によりエフェクト時間が設定可能なウィンドウ209、さらに、その他の設定量、例えば左から右へ場面転換する縦ワイプの境界の幅、ぼかしなどの量を設定可能なスライダーを操作することで、ユーザの好みに合わせた編集を行なうのである。
【0026】
このとき、編集されたシーンまたはカットのエフェクトの様子は、編集された後の複数の静止画像202が、タイムライン・ウィンドウ201上に、所定のフレーム間隔で並べて表示されることにより、知ることができるようになっている。ここでの所定のフレーム間隔数については可変設定が可能であり、この設定は、プログラム・ウィンドウ205中のメニューバー中から所定のメニューが選択されることで行なうのである。
【0027】
<図23の場合>
まず、プロジェクト・ウィンドウ306に表示された、シーンあるいはカットの異なる映像素材のうちの2つがそれぞれ選択され、タイムライン302、303上にそれぞれAロール、Bロールとして配置される。
ここでAロール、Bロールとは、2つのシーンまたきカットを合成編集する場合に、それらのおのおのを区別して呼称するためのものであり、この場合の合成編集をABロール編集とも称す。
【0028】
次に、エフェクト時間を設定するためにタイムライン303がマウスにより移動されて、タイムライン302と横軸(時間軸)方向に所定の重ね合わせ幅となるようにする。
【0029】
さらに、ビデオエフェクトパターン表示ウィンドウ305に表示された各種エフェクトパターンからいずれか1つのパターンがユーザにより選択されると、エフェクト設定ウィンドウ312が表示されると共に、選択されたパターンを表わすエフェクトパターン記号がタイムライン304上の上記重ね合わせの範囲に表示される。
【0030】
そこで、エフェクト設定ウィンドウ312においてエフェクトの設定量を可変するように操作してユーザの好みの編集を行なう。
【0031】
このとき、タイムライン・ウィンドウ301内のタイムライン302、303上における所定のフレーム間隔で、それぞれ編集前の静止画像表示が行われるが、このフレーム間隔数設定は、スライダー315にて行われるのである。
【0032】
ところで、動画像には、音声が随伴しているのが一般的であり、この場合、音声についての編集も必要になるが、このときの音声の編集形態としては、大別して次の2種の形態がある。
【0033】
まず、第1の形態は、映像Aの或るシーンに、映像Bの或るシーンをつなぎ合わせる際に、そのつなぎ目において、音声Aを徐々に減衰させると共に、音声Bを徐々に増大させ、この状態を重ね合わせる、いわゆるオーバーラップ編集である。
【0034】
このオーバーラップ編集は、つなぎ目での音声の突然の変化によって生じる不自然さを防止し、スムーズなシーンの切り替えを可能にするなどの目的で使用されるものである。
【0035】
次に、第2の形態は、映像に付随している音声とは別に、新たな音声を映像に付加する編集、いわゆるミキシング編集である。
このミキシング編集は、BGM(バック・グランド・ミュージック)などを映像に付加したい場合に用いられる。
【0036】
ところで、これらの編集を行う際、従来の放送番組制作現場において主流となっていた方法は、2台のVTRを用意し、これら2台の再生出力をミキサーに入力し、編集者が、再生されてくる音声を聴きながらミキサーを操作し、各音声の減衰の度合いと、増大の度合いとを再生中に決めながら行なう方法であった。
【0037】
【発明が解決しようとする課題】
上記従来技術は、編集作業を容易にする点について配慮が充分にされているとはいえず、編集作業に高い熟練が必要で、且つ多大の労力、時間を要するという問題があった。
【0038】
すなわち、上記したように、これらの編集に際して、従来技術では、2台のVTRを用意し、これら2台の再生出力をミキサーに入力し、編集者が、再生されてくる音声を聴きながらミキサーを操作し、各音声の減衰の度合いと、増大の度合いとを再生中に決めなければならないので、作業に高い熟練を要する上、編集の修正・変更を行う場合は、VTRを一旦巻戻して、最初からやり直す必要があり、このため、多大の労力と時間を必要とするのである。
【0039】
また、従来から用いられている、いわゆるノンリニア編集においては、タイムライン方式による編集形態が主流になっている。
この方式は、時間軸方向を表示画面の横方向に置き換えて帯状に表示したウインドウにおいて、映像・音声の各素材をマウス操作を用いて挿入することにより編集を進めていくものである。
【0040】
しかし、このタイムライン方式でも、映像・音声共に、それぞれその時間長に応じた長さを有する帯で表示されるだけであるため、オーバーラップ編集での編集点やミキシング編集でのミキシング開始点を決定する場合に、映像を確認しながらの作業が困難であるという問題があった。
【0041】
本発明は、画像のエフェクト編集や音声編集をコンピュータグラフィカルユーザインタフェース画面上での操作で簡単にかつ早くできる編集方法と編集システムおよびその編集処理を実行するプログラムを格納した記録媒体を提供する。
【0042】
本発明は、音声情報と動画像情報とを含む映像情報素材をコンピュータ支援のもとで編集処理を行うための編集方法と編集システムを提供する。
【0043】
本発明による編集方法および編集システムにおいては、映像情報素材の情報が記憶装置に格納され、記憶装置から映像情報が読み出され、読み出された映像情報が表示装置の画面に表示され、ユーザの指示に応じて映像情報の編集位置を画面の映像情報表示上で表示され、ユーザの指示があった場合に編集位置の変更が行われ、表示された編集位置の映像情報に対してユーザが指定した編集処理が施され、そして編集された映像情報が画面に表示される。
【0044】
従って、ユーザは、画面上で編集素材と編集結果の両方を同時に確認しながら編集処理ができる。
【0045】
本発明の他の実施例によれば動画像情報の編集に連動して関連する音声情報の表示が変更される。
【0046】
本発明の別の実施例によれば、動画像情報の画素を間引くことにより縮小動画像を作成して前記記憶装置に格納され、記憶装置より読み出した縮小動画像からフィルムイメージの動画像を作成してそれが画面で編集素材として表示される。
【0047】
さらに、本発明の目的は、動画像に付随する音声の編集作業が、画像表示画面でのアイコン操作により容易に行なえるようにした動画像音声編集方法を提供することにある。
【0048】
【課題を解決するための手段】
上記目的は、映像情報に含まれる動画情報及び音声情報の編集を、画面表示操作により行なうようにした動画像音声編集方法において、動画情報の中の編集を施こすべき部分を選択し、その部分にある複数のフレーム単位の画像を画面の所定の方向、例えば横方向に配置したフイルムイメージ状の画像列と、該画像列に並んで配置され、図形の幅が前記画像列に関係する音声情報のレベル設定値に対応させた少なくとも2本の横バー図形とを表示させ、前記動画情報の中の編集を施こすべき部分での音声情報の編集を、前記横バー図形上での画面表示操作により行なうようにして達成される。
【0049】
映像情報の編集すべき部分の画像が、表示画面上で左右に並んだフィルムイメージとして表示されているので、この画像表示を見ることにより、画像情報と音声情報の対応が可能になり、ここで横バー図形上での対応した部分の画面表示操作をすればよいので、音声情報の編集が容易になる。
【0050】
【発明の実施の形態】
以下、本発明について、図示の実施形態により詳細に説明する。
図2は、このような動画像編集に使用される装置の一例を示したもので、この装置は以下に説明する各部分で構成されている。
【0051】
各種制御を処理するCPU501、画像編集に用いるシーンやカットの画像情報及び編集状態を表す階層構造(ツリー構造)などの、各種の情報を表示するモニタ508、CPU501の各種制御プログラムなどを記憶するメモリ502、上記画像情報や音声情報およびそれらに関する情報を記憶する記憶装置、例えば、磁気記録装置506、モニタ508に表示するための画像を記憶するフレームバッファメモリ507、複数のシーンからなる画像あるいはシーンにおける、カットとカットの間の変化点であるシーン変化点を検出するシーン変化点検出部503、入力装置としてのマウス(又はキーボード)509、ビデオ・テープ・レコーダ(以下、VTRと称す)505からの画像情報を圧縮して圧縮画像データを生成し、また、圧縮画像データを伸張してVTR505からの画像情報と同等の画像情報を再生する圧縮伸張部511、VTR505にそれぞれ接続されたビデオインタフェース504およびオーディオインタフェース512などで構成されている。
【0052】
また、磁気記憶装置506に記憶された画像情報からは、CPU501の制御により、元の画像素材から情報量が例えば1/64にまびきされた高速表示用縮小画像が生成され、磁気記憶装置506に記憶される。
【0053】
そして、これらCPU501、メモリ502、シーン変化点検出部503、ビデオインタフェース504、オーディオインタフェース512、磁気記録装置506、フレームバッファ507は、それぞれバス510に接続されており、このことによりCPU501からのアクセスにより各部が制御されるようになっている。
【0054】
シーン変化点検出部503は、入力された動画像を各フレーム毎に色分布の変化の様子を解析
し、カットとカットの間の変化点であるシーン変化点を検出する。
画像縮小部513は、オリジナルの映像素材から画素を間引くことにより高速表示用動画像を作成する。
磁気記憶装置506は、高速表示用動画像を記憶すると共に、検出部503からの検出結果と高速表示用動画像との関係を記述した動画像解析情報を記憶する。
【0055】
モニタ508は、磁気記憶装置506に記憶された高速表示用動画像を、その解析情報に基づき表示すると共に、ユーザにGUI(グラフィカル・ユーザ・インタフェース)、すなわちマウスやキーボード等の入力装置の操作を用いて画像表示された所定の表示領域を選択することを基本として、様々なデータ入力操作を行なうと共に、その操作に対応した出力表示が行なわれるようにしたインタフェースを実現するための編集画面を提供する。
【0056】
フレームバッファ507は、モニタ508に表示するための画像を記憶する。
メインメモリ502は、各種制御プログラムなどを記憶する。
マウスまたはキーボード509は、各種オペレートの指示入力装置として用いられる。
【0057】
ビデオインターフェイス504は、VTR(ビデオ・テープ・レコーダ)505からの映像信号を入力し、この装置で扱う動画フォーマットに変換する。
画像圧縮伸張部511は、オリジナル映像情報をデータ圧縮し、また、圧縮された情報を伸張する。
オーディオインタフェース512は、VTR505とコンピュータとの間で音声信号データがやり取りできるように音声信号に関わる変換処理を行う。
CPU501は、上記の各部を制御し、それらの動作を管理する。
【0058】
そして、これらシーン変化点検出部503、磁気記憶装置506、モニタ508、フレームバッファ507、メインメモリ502、マウスまたはキーボード509、ビデオインターフェイス512、画像圧縮伸張部511、オーディオインターフェイス512は、CPU501と共に、バス510に接続されており、CPU501からのアクセス信号により制御される。
【0059】
なお、磁気記憶装置506の代りに、他の記憶媒体、例えば、光磁気記憶装置を用いても良く、或いはネットワークを介してバス510に接続されたリモートファイルを用いるようにしても良い。
【0060】
CPU501は、シーン変化点検出部503で検出されたシーン変化点検出情報をもとに、高速表示用動画像の中からシーンまたはカットの変わり目の画像を取り出し、その画像が属しているシーンまたはカットの代表となる画像を、図13に示すツリー構造表示用ウィンドウ1301内のアイコン画像1302〜1304としてモニタ508に表示させるようにする。なお、アイコンとは、画面表示操作用の小画像または図形のことである。
【0061】
そこで、ユーザ(編集作業者)は、このモニタ508の画面に表示された図13に示す画像を編集操作対象とし、このアイコン編集画面上で階層構造(ツリー構造)として組み立てることにより、編集を進めていく。
【0062】
図13のツリー構造において、中位の階層にある画像、例えば画像1303は、それに属する下位の階層の複数の画像1302を一つのまとまりとして表現したもので、物語でいうところの章・節に相当し、同様に最上位の階層にある画像1304が例えば中位の階層にある複数の画像1303を表したもので、ストーリー全体に相当する。
【0063】
この方法によれば、シーン、カットを単位とした編集を行えるので、ストーリーの組立が容易になり、しかも、入力された動画像に対するシーンまたはカット単位の分割がほぼ自動的に行われるので、ユーザの手をほとんど煩わすことがなく、さらに、動画像を階層構造で記憶して管理することができるので、必要なシーン、カットの検索が容易になるなどの利点があり、動画像編集に際してのユーザの負担を軽減することができる。
【0064】
図2に示す実施例の編集システムは、動画像に付随する音声の編集作業、例えばオーバーラップ編集やミキシング編集が、画像表示画面でのアイコン操作により容易に行なえるようにした動画像音声編集方法を提供する。
【0065】
図2の実施例による音声編集では、映像情報の編集すべき部分の画像が、表示画面上で左右に並んだフィルムイメージとして表示されている。この画像表示を見ることにより、画像情報と音声情報の対応が可能になり、ここで横バー図形上での対応した部分の画面表示操作をすればよいので、音声情報の編集が容易になる。
【0066】
次に、この図2の動画像編集装置を用いた本発明の一実施形態での動作について、図2と図3を用いて説明する。なお、このとき、図3では、矢印がCPU501による制御処理を表わす。
【0067】
まず、オペレータからのマウス又はキーボード509による指示により、VTR505に装着済みのビデオテープから映像信号および映像信号が出力され、映像信号と音声信号が磁気記憶装置506へ登録される処理が開始される。このとき、VTR505から1フレーム単位の動画像がビデオインターフェイス504、バス510を介して、シーン変化点検出部503に供給される(図3の処理701)。
【0068】
シーン変化点検出部503は、この入力された動画像をデジタル化して、各画像間の色分布情報を解析し、シーン変化点の検出を行う(処理702)。
これにより、シーン変化点検出部503によって生成されたシーン変化点のフレーム番号からなる動画像解析情報が、磁気記憶装置506に記憶される(処理703)。
【0069】
また、同時に、高速表示用動画像が磁気記憶装置506に格納される(処理704)。
この高速表示用動画像は、シーン変化点検出部503に入力された動画像とイメージ上同じデータを、各種表示を行うためのGUI(グラフィカル・ユーザ・インタフェース)環境のサイズに合わせて縮小化処理(処理705)したものであり、本編集装置において操作の対象とされるものである。
【0070】
一般的に、符号化された動画像の中から、任意の画像を映像信号に戻して画像再生するためには、符号化された動画像を復号化する必要があり、CPU501では、この復号化のための処理時間を要する。
しかして、この実施形態では、上記したように、予め高速表示用の縮小画像を格納しているので、復号化処理は行なわず、そのための復号化処理時間が不要になり、全体の処理時間をより短くすることができる。
【0071】
さらに、シーン変化点検出処理(処理702)と高速表示用動画像の磁気記憶装置506への格納(処理704)と同時に、動画像を画像圧縮伸張部511により画像圧縮技術を用いて符号化し(処理706)、符号化された動画像が磁気記憶装置506に格納される(処理707)。
なお、この格納された符号化された動画像は、高速表示性を必要としない場合、例えば編集最終結果を詳細に見たい場合などに用いられるものである。
【0072】
一方、VTR505で再生された音声出力信号も、オーディオインターフェイス512を介して、デジタル化された音声情報となって、磁気記憶装置506に格納される(処理708)。
【0073】
次に、編集作業者(オペレータ)は、磁気記録装置506に登録した高速表示用動画像の読み出しを、マウスまたはキーボード509により指示する。
これにより、CPU501は、対応する動画像のシーン解析情報を磁気記憶装置506から読み出し、その情報に基づいて各シーンの例えば第1フレーム目の画像だけ高速表示用動画像から読み出し、図4に示すように、モニタ508のメインウィンドウ421に表示する。
【0074】
このときのメインウィンドウ上での動画像表示などのアイコンが、この実施形態で操作対象となる。
そして、オペレータは、このアイコンをモニタ表示画面上で操作し、図4のツリー構造表示用ウィンドウ421に示されている階層構造(ツリー構造)状に組み立てることにより、ストーリーに従った動画像を作成していくのである。
以下、具体的な事例として、図4に示すツリー構造に対するオーバーラップ編集を例として説明する。
【0075】
アイコン422に代表されるシーン(以下シーンAと称する)と、アイコン425に代表されるシーン(以下シーンBと称する)との間に音声のオーバーラップ編集を施す場合、先ず、編集モードへの移行は、アイコン422とアイコン425をマウス509でクリックした後、ボタン群426の中のオーバーラップ編集ボタンをクリックすることで行われる。これにより編集画面420が表示され、この画面を拡大すると図1に示すようになる。
【0076】
図1において、121、122は、それぞれシーンAとシーンBに属する動画像(以下、画像A、画像Bと記す)の所定区間の各フレームの高速表示用動画像を時系列的に左から右にフィルムイメージ状に配置して表示させた縮小動画像列である。
【0077】
次に123、124は、それぞれシーンA、シーンBに対応する音声(以下、音声A、音声Bと記す)の波形表示部であり、記録装置506から読み出される。このとき、シーンのつなぎ目は125で表される。
【0078】
そして、これらの表示は、オペレータが画像列の表示する画像の隣接フレーム間隔を設定するためのアイコン(以下、設定アイコンと称す)128を操作することにより、設定したフレーム数おきに縮小画像が表示される。さらに、表示位置設定アイコン127を操作することにより、画像列121、122全体の中で任意の区間の表示ができるようになっている。
【0079】
次に、つなぎ目125およびその近傍において、音声Aを減衰させ、音声Bを増大させるように、適応的に音量を可変制御するオーバラップ編集を行なうために、音量制御レベル(ボリューム・コントロール・レベル)の値を各音声情報に応じて設定する。CPU501は磁気記憶装置506から、音声Aと音声Bそれぞれの編集対象の音声情報を読み出し、読み出された音声情報を基としてその編集対象部分に所定の減衰率で減衰させた音声情報を新たに生成し、生成された音声情報をCPU501から磁気記憶装置506に書き込み直す。
【0080】
その場合、各音声情報の編集対象部分の範囲を選択し、かつ所定の減衰率を設定することで、音量の制御を可能とするための操作機能としては横バー図形表示部126からなる表示図形によって得られるようになっている。ここで、まず横バー126Aは音声Aに対応し、その黒ぬりされた各所の上下幅が音声Aの各所定期間に設定されたボリューム・コントロール・レベルを表わす。次に横バー126Bは音声Bに対応して、その黒ぬりされた各所の上下幅が音声Bの各所定期間に設定されたボリューム・コントロール・レベルを表わす。
【0081】
本発明の音声編集によれば、音声振幅レベルの調整のみならず、他の音声パラメータ、例えば種々の音質レベルの内の一つや音程レベルを、任意に指定した編集区間において調整することもできる。例えば、バー図形126上の白丸129〜白丸132は、そのような音声パラメータの調整区間を指定するためのアイコンであり、バー図形126の斜め部分の傾斜は音声パラメータが徐々に変化することを示す。音声の振幅レベル、音質レベルおよび音程レベルのパラメータを指定するボタンアイコン631、632、633を図6のウインドウ中に設けることができる。オペレータは編集対象の音声パラメータをボタンアイコン631,632,633のどれかをマウスでクリックして選択する。また、ボタンアイコン634をマウスで指定すると、編集区間(フェード時)の音声にエコー効果が施される。
【0082】
次に白丸図形129は、音声Aのレベル減衰開始点設定用の設定アイコンである。白丸図形130は音声Aのレベル減衰終了点設定用の設定アイコンである。白丸図形131は音声Bのレベル増加開始点設定用の設定アイコンである。そして白丸図形132は音声Bのレベル増加終了点設定用の設定アイコンである。
【0083】
フィルムイメージの画像列121、122と音声波形表示部123、124、横バー表示部126、表示位置設定アイコン127、それや表示間隔設定アイコン128は、互いに連動して表示制御されており、操作結果は即時に反映される。
【0084】
そこで、オペレータは、フィルムイメージ状の画像列121、122と音声波形とを見ながら、横バー126A、126Bを操作することによりオーバーラップ編集を行なうようになっている。
【0085】
さらに、別の実施例の編集画面420の様子を図15に示す。
図15において、121、122は、それぞれシーンAとシーンBに属する動画像(以下、画像A、画像Bと記す)の所定区間の各フレームの高速表示用動画像を時系列的に左から右にフィルムイメージ状に配置して表示させた縮小動画像列である。
【0086】
なお、縮小動画像列それぞれの点線で記された部分は、編集された画像列には含まれない、すなわち、影響を及ぼさない映像部分であることを表している。
【0087】
次に123、124は、それぞれシーンA、シーンBに対応する音声(以下、音声A、音声Bと記す)の波形表示部であり、記録装置506から読み出される。このとき、シーンのつなぎ目は125で表される。
【0088】
以下、図15において、図1と同じ符号を付けられているものはそれぞれ同じであり、説明を省略する。なお、136、137は、それぞれ編集された画像イメージ列と同じく編集された音声イメージ(音声波形)列とを表す。
【0089】
ここで、この実施形態による横バー126A、126Bによる音声編集処理について、図5を参照して説明する。オペレータは、映像を見ながら4点の白丸図形129〜132を指定し横方向に移動させるだけの簡単な作業で、音声A減衰開始点位置521、同終了点位置522、音声B増加開始点位置523、同終了点位置524、スプリット量525、526、フェード時間長527、528、トランジション時間長529など、編集に必要な各種のパラメータを任意設定することができる点にある。
【0090】
例えば、いま、白丸図形129をマウスドラッグして、図5(a)の位置521から、図5(b)に示すように、位置523に移動させたとすると、音声Aの減衰開始時点位置521が例えば画像の1フレームだけ遅くなる。これに応じて音声Aのスプリット量525とフェード時間長527、そして音声Aと音声B間の音声トランジション時間長529も例えば1フレーム分減少し、これにより音声Aは、図5(a)のときよりも速やかに減衰するようになる。
【0091】
次に、白丸図形130を、図5(a)の位置522から、図5(c)に示すように、位置530に移動させたとすると、今度は音声Aの減衰終了が例えば1フレームだけ遅くなり、音声Aのフェード時間長、音声Aと音声B間の音声トランジション時間長が例えば1フレーム分増加し、音声Aは、図5(a)の場合より緩やかに減衰するようになる。
【0092】
一方、白丸図形131を、図5(a)の位置523から、図5(d)に示すように、位置521に移動させたとすると、音声Bの増加開始時間が例えば1フレームだけ早くなり、音声Bのスプリット量とフェード時間長が例えば1フレーム分増加し、この結果、音声Bは、より早い時点からより緩やかに増加するようになる。
【0093】
また、白丸図形132を、図5(a)の位置522から、図5(e)に示すように、位置524に移動させたとすると、音声Bの増加終了時間が例えば1フレームだけ早くなり、音声Bのフェード時間長と音声Aと音声B間の音声トランジション時間長が例えば1フレーム分減少し、音声Bは、より速やかに増加するようになる。
【0094】
従って、このようにすることにより、この実施形態によれば、シーンのつなぎ目でも音声がよりスムースに聞こえるように、容易に編集を進めて行くことができることになる。
【0095】
ところで、この実施形態では、4点の白丸図形129、130、131、132の移動は、画面420上でフィルムイメージで表示されている画像列121、122の各画像上をマウスでクリックすることによっても与えられるように構成してある。さらに、横バー表示部126そのものの位置をマウスでドラッグすることもでき、映像と音声との対応付けをずらすことも可能にしてある。
【0096】
次に、作業を終わり、編集結果を決定する場合には、OKボタン135をマウスでクリックすることにより、与えられるように構成してある。
これにより、上記操作結果が反映され編集された動画像が磁気記憶装置506に格納され、同時にツリー構造情報の変更が行われ、この結果、動画像編集装置のメインウィンドウ上でのツリー構造の表示は図11に示すように変わる。このとき、音声も含めて編集を実施したという情報は、図11の図形1001として、同じく動画像編集装置のメインウィンドウ上に表示される。
【0097】
また、この編集決定前に、編集状態について確認したい場合には、図1のプレビューボタン133をマウスでクリックしてやれば良い。
これにより、図14に示すように、画像圧縮伸張部511で圧縮して格納してある640×480サイズの映像がモニタ508のウインドウ430に再生されるように構成してあり、編集状態を容易に確認することができる。
【0098】
次に、この実施形態では、シーンのつなぎ目に、ワイプ、ディゾルブ等の画像の特殊効果処理を同時に行いたい場合も、同様の方法で編集を行うことができるように構成されている。以下、映像のエフェクト編集に伴う音声編集の動作について説明する。
【0099】
このときの、編集モードへの移行は、前述のオーバーラップ編集と同様な動作による。図4に示すメインウィンドウ上で、アイコン422とアイコン425をマウス509でクリックした後、ボタン群426の中のワイプ、ディゾルブ等の特殊効果処理ボタン428、429をクリックすることで行う。これにより、移行後の編集画面420は図6に示すようになる。
【0100】
図21の表示画面は、オペレータによりワイプ処理が選択された場合の編集画面である。ここで画像列121、122と、音声A、音声Bの波形表示部123、124、横バー表示部126、横バー126A、126B、表示間隔設定アイコン128、表示位置設定アイコン127、それに白丸図形129〜132は、図1で説明した通りである。
【0101】
この図6において、まず605は、画像A、画像Bに対してワイプ処理を行った結果、得られた編集後の画像をフィルムイメージ状の縮小動画像列として表示したものである。このときのワイプ効果の種類は、オペレータによるワイプパターン606の選択により決定される。
【0102】
607は、画像Aと画像Bの間のワイプの長さを表わす横バー表示部で、ここでの2本の横バー607A、607Bが、それぞれ画像Aと画像Bが表示されている部分の長さを表わすようになっている。従って、これらの横バー607A、607Bが重なっている部分でワイプの長さが表わされることになる。
【0103】
そこで、これらの重なり部分における音声Aの減衰、音声Bの増大の度合いを決定する機能は、横バー表示部126によって実現される。このとき、白丸図形129が音声Aの減衰開始点を、白丸図形130は音声Aの減衰終了点を与えるものである。同様に、白丸図形131は音声Bの増大開始点を、白丸図形132は音声Bの増大終了点を与えるものである。
【0104】
そして、これらの表示において、オペレータは、表示間隔設定アイコン128を操作することで、任意の範囲を選択して表示させることができる。また、表示位置設定アイコン127を操作することで、任意の区間を選択して表示させることができる。このとき、フィルムイメージのカット列や音声波形表示、各バーや各アイコンは、互いに連動し、各バーや各アイコンに対する操作結果は、即時に互いへ反映される。
【0105】
次に、横バー表示部126によるエフェクト編集処理について、図7と図8により説明する。
オペレータは、図6に示すフィルムイメージ状に表示された動画像列121、122と音声波形表示部123、124を見ながら、横バー表示部607と横バー表示部126を操作することによりワイプ、ディゾルブなど、画像の特殊効果処理時のオーバーラップ編集を行う。
【0106】
まず図7(a)は、オペレータが横バー607A、607Bをマウスにより操作し、画像Aと画像Bに重なり部分を与えた状態を示したものである。この重なり部分の長さがワイプの長さとなる。
このとき、横バー126A、126Bは、横バー607A、607Bに与えられた操作に連動し、自動的に図7(a)に示す状態になる。
【0107】
次に、図7(a)に示す状態から、白丸図形129をマウスドラッグして、図7(b)に示す位置に移動させたとすると、音声Aのスプリット量715が例えば1フレーム分発生し、フェード時間長717と、音声Aと音声B間の音声トランジション時間長719はそれぞれ例えば1フレーム分増加し、ワイプ開始より早い時点から音声Aの減衰開始が始まるようにすることができる。
【0108】
一方、白丸図形点130を、図7(a)の状態から、図8(a)の位置に移動させると、音声Aのフェード時間長717と、音声Aと音声B間の音声トランジション時間長719がそれぞれ例えば1フレーム分増加し、ワイプ終了後も音声Aが聞こえるという効果を与えることができる。
【0109】
また、図7(a)の状態から、白丸図形131を、図8(b)の位置に移動させたとすると、音声Bのスプリット量716が例えば1フレーム分発生し、音声Bのフェード時間長708が例えば1フレーム分減少し、ワイプ開始位置からの音声Bの増大開始が遅くなる。
【0110】
さらに、図7(a)の状態から、白丸図形132を、図8(c)の位置に移動させると、音声Bのフェード時間長718が例えば1フレーム分減少し、ワイプ終了時点よりも早く音声Bは増大を完了する。
この結果、画像のエフェクト編集においても、音声がよりスムースに聞こえるようにすることができる。
このときでも、編集結果の決定と、決定前の画像再生による確認は、前述のシーンのつなぎ目におけるオーバーラップ編集と同じ方法で行なうことができる。
【0111】
次に、この実施形態による音声ミキシング編集動作について、具体的な事例として、同じく図13に示したツリー構造で表示されたアイコン1303に代表されるシーンに、BGM(バック・グラウンド・ミュージック)をミキシング編集する場合を挙げて説明する。
【0112】
最初に、音声ミキシング編集モードへの移行前の操作について説明する。
この場合、まず、BGMが含まれている音声データが、予め磁気記憶装置506に格納してあることが要件となる。
そして、この前提のもとで、この音声データを本編集装置上へ読み出すための指示が、マウス又はキーボード509により行われる。
【0113】
そうすると、CPU501は、図13に示す動画像のアイコン1302〜アイコン1304と同様に表示されるアイコン1305(以下、音声アイコンと記す)を作成する。
【0114】
音声データを編集装置上で扱うために必要な音声アイコン1305を設定した後、動画像のア
イコンと同様に、この音声アイコン1305をマウスでクリックすることにより、音声再生や挿入作業が行なえるようになる。
【0115】
次に、音声ミキシング編集モードへの移行方法について説明する。
編集モードへの移行の方法は、例えば、以下に述べる2通りがある。第1の方法は、音声アイコン1305をマウスでドラッグし、アイコン1303にドロップする。第2の方法は音声アイコン1305とアイコン1303を選択し、ボタン群426の所定のボタンをマウスでクリックすることにより画面表示が移行し、移行後の編集画面は図9に示すようになる。
【0116】
この図9において、931は、図13のアイコン1303に代表されるシーンに属する動画像の一定区間の各フレームを、前述の場合と同様、フィルムイメージ状に表示させた縮小動画像列である。このとき、アイコン1303に代表されるシーンに属する音声は、波形表示部932に示され、ミキシングすべき音声の波形は波形表示部933に表示される。
【0117】
横バー表示部934に表示される横バー934Mの黒ぬりされた垂直方向の幅がミキシングすべき音声の所定の期間ごとのボリューム・コントロール・レベルを表わし、白丸図形905がミキシング増大完了点を表わす。
【0118】
なお、ここでの表示位置設定アイコン127や表示間隔設定アイコン128、それにOKボタン135、プレビューボタン133は、何れも前述の場合と同じ機能を持ち、これらとフィルムイメージや音声波形表示とは互いに連動し、各バーや各アイコンに対する操作結果は即時に互いに反映される。
【0119】
図9のミキシング編集画面で、まずオペレータは、フィルムイメージで表示された動画像列931を見ながら、マウスにより白丸図形935を指定して横バー934M上を動かすことにより、音声のミキシング増大完了点を設定することができる。
【0120】
このとき、横バー934Mには、図示のように、音声を不自然なくミキシングできるように、ミキシング開始時には徐々にミキシング音声が増大し、図示してないが、ミキシング終了時にはミキシング音声を徐々に減衰させる機能も備えている。
【0121】
なお、この実施形態では、フィルムイメージで表示された動画像列931の上をマウスでクリックすることでも、音声のミキシング増大完了点を与えることができる。
すなわち、図10(a)に示す状態において、いま、画像列931の中のフレーム931Fを音声情報のミキシング増大開始点にしたい場合には、このフレーム931Fの上をマウスでクリックする。そうすると、ミキシングすべき音声のレベルを表わす横バー934M上の図形935が連動してフレーム931Fに移動し、図10(b)に示すようになる。
【0122】
そこで、今度は、白丸図形935をマウスで移動させ、図10(c)に示す状態にすると、区間906において、音声のボリューム・コントロール・レベルが徐々に増加していくようにミキシングされることになる。
【0123】
なお、図示はしてないが、音声ミキシングの終了時点もマウスにより音声の横バー934M上で指定することができる。
【0124】
編集処理を終わり、編集結果を決定する場合には、図9のOKボタン135をマウスでクリックする。
以上の編集処理の結果を反映させた動画像が磁気記憶装置506に格納されると同時にツリー構造情報の変更が行われる。この結果、表示は元のメインウィンドウ1301に戻る。このときのツリー構造の表示は図12に示すようになり、ここで、音声情報1305のミキシング編集が実施されたという情報は、前述の場合と同様、図形1101としてメインウィンドウ1301上に表示される。
【0125】
一方、この編集作業完了前に、編集状態について確認したい場合には、プレビューボタン133をマウスでクリックしてやれば、画像圧縮伸張部511で圧縮して格納してある640×480サイズの映像がモニタ508に再生され、前述の場合と同じく、編集状態を容易に確認することができる。
【0126】
次に、図1、図6、図9に示した編集画面を使用する編集処理をコンピュータの制御により行う場合の手順を図16〜図21のフローチャートを参照して説明する。図16および図17は、図1に示すオーバーラップ編集の手順を示すフローチャートである。オーバーラップ編集のモードがオペレータにより選択されると、ステップ140で、メモリ502中に設定されているREDRAW_FLAGを”0”値に初期設定する。ステップ141で、図1に示すウインドウ420をモニタ508で表示させる。ステップ142で、マウス509からの割込入力処理を行う。
【0127】
ステップ143で、設定アイコン127が押されるイベントが発生したか否かの判定を行う。表示位置設定アイコン127が押された場合には、ステップ144でREDRAW_FLAGを”1”値にセットする。さらにステップ145で、メモリ502にオペレータにより指定された表示位置を書き込む。
【0128】
ステップ143で、イベント発生がないと判断された場合には、ステップ146で、表示間隔設定アイコン128が押されるイベントの発生があるかないかの判定を行う。表示位置設定アイコン128が押された場合には、ステップ147でREDRAW_FLAGを”1”値にセットする。さらにステップ148で、メモリ502にオペレータにより指定された表示間隔を書き込む。
【0129】
ステップ146で、イベント発生がないと判断された場合には、ステップ149で、音声パラメータアイコン631〜633のどれかが押されるイベントの有無の判定を行う。パラメータアイコン631〜633のいずれかが押された場合には、ステップ150でREDRAW_FLAGを“1”値にセットする。さらにステップ151で、メモリ502にオペレータにより指定されたコントロールパラメータの種類を書き込む。
【0130】
ステップ149で、イベント発生がないと判断された場合には、ステップ152で、エコーアイコン634が押されるイベントの有無の判定を行う。エコーアイコン634が押された場合には、ステップ153でREDRAW_FLAGを”1”値にセットする。さらにステップ154で、メモリ502にエコー効果の情報を書き込む。
【0131】
ステップ152で、イベント発生がないと判断された場合には、ステップ155で、白丸図形129が押されるイベントの有無の判定を行う。白丸図形129が押された場合には、ステップ156でREDRAW_FLAGを”1”値にセットする。さらにステップ157で、メモリ502に音声Aのフェードアウト開始時間を書き込む。
【0132】
ステップ155で、イベント発生がないと判断された場合には、ステップ158で、白丸図形130が押されるイベントの有無の判定を行う。白丸図形130が押された場合には、ステップ159でREDRAW_FLAGを”1”値にセットする。さらにステップ160で、メモリ502に音声Aのフェードアウト終了時間を書き込む。
【0133】
ステップ158で、イベント発生がないと判断された場合には、ステップ161で、白丸図形131が押されるイベントの有無の判定を行う。白丸図形131が押された場合には、ステップ162でREDRAW_FLAGを”1”値にセットする。さらにステップ163で、メモリ502に音声Bのフェードイン開始時間を書き込む。
【0134】
ステップ161で、イベント発生がないと判断された場合には、ステップ164で、白丸図形132が押されるイベントの有無の判定を行う。白丸図形132が押された場合には、ステップ165でREDRAW_FLAGを”1”値にセットする。さらにステップ166で、メモリ502に音声Bのフェードイン終了時間を書き込む。
【0135】
ステッブ164で、イベント発生がないと判断された場合には、ステップ167で、画像列121が押されるイベントの有無の判定を行う。画像列121が押された場合には、ステップ168でREDRAW_FLAGを”1”値にセットする。さらにステップ169で、予め選択されている各白丸図形の状態に応じて、メモリ502に音声Aあるいは音声Bのフェードイン時間情報やフェードアウト時間情報を書き込む。
【0136】
ステップ167で、イベント発生がないと判断された場合には、ステップ170で、画像列122が押されるイベントの有無の判定を行う。画像列122が押された場合には、ステップ171でREDRAW_FLAGを”1”値にセットする。さらにステップ172で、予め選択されている各白丸図形の状態に応じて、メモリ502に音声Aあるいは音声Bのフェードイン時間情報やフェードアウト時間情報を書き込む。
【0137】
ステップ170で、イベント発生がないと判断された場合には、ステップ173で、横バー表示部126が押されるイベントの有無の判定を行う。横バー表示部126が押された場合には、ステップ174でREDRAW_FLAGを”1”値にセットする。さらにステップ175で、メモリ502に映像と音声の対応関係の値を書き込む。
【0138】
ステップ173で、イベント発生がないと判断された場合には、ステップ176で、プレビューボタン133が押されるイベントの有無の判定を行う。ブレビューボタン133が押された場合には、ステップ177でブレビューウインドウ430を開く。さらにステップ178で、ウインドウ420を閉じる。
【0139】
ステップ176で、イベント発生がないと判断された場合には、ステップ179で、OKボタン135が押されるイベントの有無の判定を行う。0Kボタン135が押された場合には、ステップ180で編集結果の画像をモニタで表示させて、その編集結果を磁気記憶装置506に格納する。
【0140】
ステップ179で、イベント発生がないと判断された場合あるいはステップ180の処理が行われた後には、ステップ181で、CANCELボタン134が押されるイベントの有無の判定を行う。CANCELボタン134が押された場合には、ステッブ178の処理を行う。
【0141】
ステップ181で、イベント発生がないと判断された場合あるいはステップ145、148、151、154、157、160、163、166、169、172および175の内いずれか一つの処理が行われた後には、ステップ182で、REDRAW_FLAGが”1”かどうかの判定を行う。ステップ182でREDRAW_FLAG=”1”と判定された場合には、ステップ183で編集された内容に応じた画面をモニタで表示させる。ステツプ182でREDRAW_FLAGが”1”でないと判定された場合には、ステップ140に戻る。
もしステップ178の処理が行われた場合は、オーバーラップ編集モードは一旦終了される。
【0142】
次に、図18及び図19は、図6に示すワイプ編集の手順を示すフローチャートである。ワイプ編集のモードがオペレータにより選択されると、ステップ240で、メモリ502中に設定されているREDRAW_FLAGを”0”値に初期設定する。ステップ241で、図6に示すウインドウ420をモニタ508で表示させる。ステップ242で、マウス509からの割込入力処理を行う。
【0143】
ステップ243で、設定アイコン127が押されるイベントの有無の判定を行う。表示位置設定アイコン127が押された場合には、ステップ244でREDRAW_FLAGを”1”値にセットする。さらにステップ245で、メモリ502にオペレータにより指定された表示位置を書き込む。
【0144】
ステップ243で、イベント発生がないと判断された場合には、ステップ246で、表示間隔設定アイコン128が押されるイベントの有無の判定を行う。表示位置設定アイコン128が押された場合には、ステップ247でREDRAW_FLAGを”1”値にセットする。さらにステップ248で、メモリ502にオペレータにより指定された表示間隔を書き込む。
【0145】
ステップ246で、イベント発生がないと判断された場合には、ステップ249で、横バー607が押されるイベントの有無の判定を行う。横バー607が押された場合には、ステップ250でREDRAW_FLAGを”1”値にセットする。さらにステップ251で、メモリ502にオペレータにより指定された映像の重ね合わせ量を書き込む。
【0146】
ステップ249で、イベント発生がないと判断された場合には、ステップ252で、白丸図形129が押されるイベントの有無の判定を行う。白丸図形129が押された場合には、ステップ253でREDRAW_FLAGを”1”値にセットする。さらにステップ254で、メモリ502に音声Aのフェードアウト開始時間を書き込む。
【0147】
ステップ252で、イベント発生がないと判断された場合には、ステップ255で、白丸図形130が押されるイベントの有無の判定を行う。白丸図形130が押された場合には、ステップ256でREDRAW_FLAGを”1”値にセットする。さらにステップ257で、メモリ502に音声Aのフェードアウト終了時間を書き込む。
【0148】
ステップ255で、イベント発生がないと判断された場合には、ステップ258で、白丸図形131が押されるイベントの有無の判定を行う。白丸図形131が押された場合には、ステップ259でREDRAW_FLAGを”1”値にセットする。さらにステップ260で、メモリ502に音声Bのフェードイン開始時間を書き込む。
【0149】
ステップ258で、イベント発生がないと判断された場合には、ステップ261で、白丸図形132が押されるイベントの有無の判定を行う。白丸図形132が押された場合には、ステップ262でREDRAW_FLAGを”1”値にセットする。さらにステツブ263で、メモリ502に音声Bのフェードイン終了時間を書き込む。
【0150】
ステップ261で、イベント発生がないと判断された場合には、ステップ264で、画像列121が押されるイベントの有無の判定を行う。画像列121が押された場合には、ステップ265でREDRAW_FLAGを”1”値にセットする。さらにステップ266で、予め選択されている各白丸図形の状態に応じて、メモリ502に音声Aまたは音声Bのフェードイン時間情報またはフェードアウトの時間情報を書き込む。
【0151】
ステップ264で、イベント発生がないと判断された場合には、ステップ267で、画像列122が押されるイベントの有無の判定を行う。画像列122が押された場合には、ステップ268でREDRAW_FLAGを”1”値にセットする。さらにステップ269で、予め選択されている各白丸図形の状態に応じて、メモリ502に音声Aまたは音声Bのフェードイン時間情報またはフェードアウトの時間情報を書き込む。
【0152】
ステップ267で、イベント発生がないと判断された場合には、ステップ270で、横バー表示部126が押されるイベントの有無の判定を行う。横バー表示部126が押された場合には、ステップ271でREDRAW_FLAGを”1”値にセットする。さらにステップ272で、メモリ502に映像と音声の対応関係の値を書き込む。
【0153】
ステップ270で、イベント発生がないと判断された場合には、ステップ273で、プレビューボタン133が押されるイベントの有無の判定を行う。プレビューボタン133が押された場合には、ステップ274でプレビューウインドウを開く。さらにステップ275で、ウインドウ420を閉じる。
【0154】
ステップ273で、イベント発生がないと判断された場合には、ステップ276で、OKボタン135が押されるイベントの有無の判定を行う。OKボタン135が押された場合には、ステップ277で編集結果の画像をモニタで表示させて、その編集結果を磁気記憶装置506に格納する。
【0155】
ステップ276で、イベント発生がないと判断された場合またはステップ275の処理が行われた後には、ステップ278で、CANCELボタン134が押されるイベントの有無の判定を行う。CANCELボタン134が押された場合には、ステップ275の処理を行う。
【0156】
ステップ278で、イベント発生がないと判断された場合またはステップ245、248、251、254、257、260、263,266、269及び272の内いずれか一つの処理が行われた後には、ステップ279で、REDRAW_FLAGが”1”かどうかの判定を行う。ステップ279で、REDRAW_FLAG=”1”と判定された場合には、ステップ280で編集された内容に応じた画面をモニタで表示させる。ステップ280でREDRAW_FLAGが”1”でないと判定された場合には、ステップ240に戻る。
もしステップ275の処理が行われた場合は、ワイプ編集モードは一旦終了される。
【0157】
次に、図20及び図21は、図9に示すミキシング編集の手順を示すフローチャートである。ミキシング編集のモードがオペレータにより選択されると、ステップ340で、メモリ502中に設定されているREDRAW_FLAGを”0”値に初期設定する。ステップ341で、図9に示すウインドウ420をモニタ508で表示させる。ステップ342で、マウス509からの割込入力処理を行う。
【0158】
ステップ343で、設定アイコン127が押されるイベントの発生の有無の判定を行う。表示位置設定アイコン127が押された場合には、ステップ344でREDRAW_FLAGを”1”値にセットする。さらにステップ345で、メモリ502にオペレータにより指定された表示位置を書き込む。
【0159】
ステップ343で、イベント発生がないと判断された場合には、ステップ346で、表示間隔設定アイコン128が押されるイベントの発生の有無の判定を行う。表示間隔設定アイコン128が押された場合には、ステップ347でREDRAW_FLAGを”1”値にセットする。さらにステップ348で、メモリ502にオペレータにより指定された表示間隔を書き込む。
【0160】
ステップ346で、イベント発生がないと判断された場合には、ステップ349で、横バー表示部934が押されるイベントの有無の判定を行う。横バー表示部934が押された場合には、ステップ350でREDRAW_FLAGを”1”値にセットする。さらにステップ351で、メモリ502にオペレータにより指定されたミキシング音声のフェードイン開始点を書き込む。
【0161】
ステップ349で、イベント発生がないと判断された場合には、ステップ352で画像列931が押されるイベントの有無の判定を行う。イベント発生がないと判断された場合には、ステップ353でREDRAW_FLAGを”1”値にセットする。さらにステップ354で、メモリ502に音声のフェードイン開始時間を書き込む。
【0162】
ステップ352で、イベント発生がないと判断された場合には、ステップ355で、白丸図形935が押されるイベントの有無の判定を行う。白丸図形935が押された場合には、ステップ356でREDRAW_FLAGを”1”値にセットする。さらにステップ357で、メモリ502に音声フェードイン終了時間を書き込む。
【0163】
ステップ355で、イベント発生がないと判断された場合には、ステップ358で、ブレビューボタン133が押されるイベントの有無の判定を行う。プレビューボタン133が押された場合には、ステップ359でブレビューウンイドウ430を開く。さらにステップ360で、ウインドウ420を閉じる。
【0164】
ステップ358で、イベント発生がないと判断された場合には、ステップ361で、OKボタン135が押されるイベントの有無の判定を行う。OKボタン135が押された場合には、ステップ362で編集結果の画像をモニタで表示させて、その編集結果を磁気記憶装置506に格納する。
【0165】
ステップ361で、イベント発生がないと判断された場合あるいはステップ362の処理が行われた後には、ステップ363で、CANCELボタン134が押されるイベントの有無の判定を行う。CANCELボタン134が押された場合には、ステップ360の処理を行う。
【0166】
ステップ363で、イベント発生がないと判断された場合またはステップ345、348、351、354及び357の内いずれか一つの処理が行われた後には、ステップ364で、REDRAW_FLAGが”1”かどうかの判定を行う。ステップ364で、REDRAW_FLAG=”1”と判定された場合には、ステップ365で編集された内容に応じた画面をモニタで表示させる。ステップ364でREDRAW_FLAGが”1”でないと判定された場合には、ステップ340に戻る。
もしステップ360の処理が行われた場合は、ミキシング編集モードを一旦終了する。
【0167】
図16〜図21に示したフローチャートで表される編集処理プログラムは、CPU501により読み取り可能なコード信号形式でメモリ502に格納されている。メモリ502は半導体メモリやCD−ROMあるいは磁気ディスクや光ディスクのような記録媒体であってもよい。
【0168】
本発明は、以上説明した実施例に限るものではなく、上記の開示に基づき当業者であれば様々な改良や変更が可能であることは明らかである。
【0169】
【発明の効果】
本発明によれば、映像と音声の関係が一目瞭然に得られるので、映像を見ながらの音声の編集点の決定・修正・変更を容易に得ることができる。
また、本発明によれば、編集に使用する画像が人間の感性に近い直感的な表示として得られるので、音声の編集に際して特に熟練度を要せず、この点でも容易に編集を行なうことができる。
【図面の簡単な説明】
【図1】本発明の実施形態による編集画面表示の一例を示す摸式図である。
【図2】本発明の実施形態で使用されている動画編集装置の一例を示すブロック図である。
【図3】本発明の実施形態で使用されている動画編集装置による動作を示す説明図である。
【図4】本発明の実施形態による編集画面表示の一例を示す摸式図である。
【図5】本発明の実施形態でオーバーラップ音声編集を行う際の動作説明図である。
【図6】本発明の実施形態による編集画面表示の他の一例を示す摸式図である。
【図7】本発明の実施形態でワイプ・ディゾルブ等の映像の特殊効果がなされていた場合にオーバーラップ音声編集を行う際の動作説明図である。
【図8】本発明の実施形態でワイプ・ディゾルブ等の映像の特殊効果がなされていた場合にオーバーラップ音声編集を行う際の動作説明図である。
【図9】本発明の実施形態による編集画面表示の更に別の一例を示す摸式図である。
【図10】本発明の実施形態で音声ミキシング編集を行う際の動作説明図である。
【図11】本発明の実施形態でオーバーラップ音声編集を行った後での表示画面の摸式図である。
【図12】本発明の実施形態で音声ミキシング編集を行った後での表示画面の摸式図である。
【図13】本発明の実施形態で編集用表示の前での表示画面の摸式図である。
【図14】本発明の実施形態で編集状態を確認するための再生表示画面の摸式図である。
【図15】本発明の実施形態による編集画面表示の別の例を示す摸式図である。
【図16】図1に示すオーバーラップ編集の手順を示すフローチャートである。
【図17】図1に示すオーバーラップ編集の手順を示すフローチャートである。
【図18】図6に示すワイプ編集の手順を示すフローチャートである。
【図19】図6に示すワイプ編集の手順を示すフローチャートである。
【図20】図9に示すミキシング編集の手順を示すフローチャートである。
【図21】図9に示すミキシング編集の手順を示すフローチャートである。
【図22】エフェクト編集の画面表示の一例を示す説明図である。
【図23】エフェクト編集の画面表示の他の例を示す説明図である。
【図24】従来技術による動画像編集装置の一例を示すブロック構成図である。
【符号の説明】
121、122 フィルムイメージによる画像列
123、124 音声信号波形表示部
125 つなぎ目
126 横バー表示部
126A、126B 音声信号のレベルを表わす横バー
421 ツリー構造表示用ウィンドウ
501 CPU
502 メインメモリ
503 シーン変化点検出部
504 ビデオインターフェイス
505 VTR
506 磁気記憶装置
507 フレームバッファメモリ
508 モニタ
509 マウス(キーボード)
510 バス
511 画像圧縮伸張部
512 オーディオインターフェイス
513 画像縮小部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a moving image editing method used for moving image production such as a television broadcast program or a video program, and more particularly to a method for editing audio information attached to a moving image.
[0002]
[Prior art]
In recent years, methods for producing highly functional television broadcast programs and video programs using a computer have been rapidly developed. Using a video tape recorder and relying on its tape counter, editing is performed using images stored on a hard disk that is inexpensive and easy to handle and save, rather than video editing techniques that repeat fast forward and rewind operations. Recently, a moving image editing apparatus using the technique of the method has been attracting attention.
[0003]
By the way, the moving image referred to here is composed of a plurality of frame-by-frame images arranged independently in time series, and image information and audio information that can be displayed as a moving image or the two pieces of information. It is information consisting of.
[0004]
By the way, the image editing work is centered on the work to be judged by the editor's feeling in any case. As an image editing method, an apparatus that edits an image by using a display for operating a video on an edited video screen, that is, a so-called icon display (hereinafter referred to as an icon) in association with image information is used.
[0005]
FIG. 22 and FIG. 23 are diagrams showing a desired cut (a sequence of a plurality of frame unit images) or a plurality of other cuts of time-series video material (moving images) in the prior art of such an image editing apparatus. An example of a screen display when effect editing between a configured scene and another desired cut or scene, that is, editing in which the content of an image is switched while changing the content of the image is shown.
[0006]
Here, FIG. 22 is a display example of a computer-assisted editing work screen, and FIG. 23 is another display example of a computer-assisted editing work screen. These editing operations use typical image editing software that is commercially available.
[0007]
The general configuration of the editing device used at this time is a computer-based system, and more specifically, a typical and general-purpose device including a central processing unit, a memory, and various devices operated by an operator. This is due to a simple computer configuration.
[0008]
FIG. 24 shows an example of an image editing system (according to the prior art), which includes a computer 401, to which a monitor 407 having a display screen having a size of 19 inches, for example, is connected.
[0009]
A video playback unit (VTR) 402 can play back any video information (image information) of the NTSC system, PAL system, or other format system. The video information reproduced from the video reproduction unit 402 is a video capture / frame. Memory It is sent to the unit 403 where it is converted into digital information and stored.
[0010]
The video information thus stored in the video capture / frame storage unit 403 is then supplied to the disk accelerator 405 via the decompressor / compressor 404.
The decompressor / compressor 404 compresses and decompresses video information, and currently, a decompression / compression processor using a JPEG (Joint Photographic Coding Experts Group) chip, which is the fastest, is often used.
[0011]
The disk accelerator 405 then transmits the video information sent from the video playback unit 402 to the video capture / frame storage unit 403 and stored therein to one or more disk storage units 406 or receives from it. Is.
[0012]
The computer 401 controls each component of the image editing apparatus, that is, the video capture / frame storage unit 403, the decompressor / compressor 404, and the disk accelerator 405 according to the control signals 408, 409, and 410.
[0013]
Then, the video information stored in the disk storage unit 406 is read from the disk storage unit 406 by the control signals 408, 409, and 410 from the computer 401 for editing work and other work to be executed from now on. The video capture / frame storage unit 403 can be read through the accelerator 405 and the decompressor / compressor 404.
[0014]
Unlike the conventional sequential file device, which in principle requires a video tape winding operation to access desired video information, the device shown in FIG. 24 accesses video information “immediately” ( Random access), and as described above, the technique of the direct method is used.
[0015]
22 and 23 described above are examples of screens for the first and second editing operations displayed on the monitor 407 during the editing operation. 22 and 23, vertical lines 210 and 313 are figures called a current position bar for displaying a reference position at the time of editing work.
[0016]
Reference numerals 302 and 303 on the screen in FIG. 23 are timelines for relatively displaying the position and range of the cut or scene to be edited based on the position of the current position bar. By assigning a track for timeline display to each image information to which each cut or scene to be edited belongs, the corresponding track name is given.
[0017]
22 is a timeline for relatively displaying the position and range of the cut or scene after editing, and 304 is a composite editing of the images of the two timelines 302 and 303. It is a timeline showing a range sometimes combined.
[0018]
Reference numerals 201 (FIG. 22) and 301 (FIG. 23) denote timeline windows on which the timeline is displayed. Note that the timelines 203, 302, and 303 can be scrolled by screen operations.
[0019]
Reference numeral 205 denotes a program window, which displays the image based on the video information read from the disk storage unit 406 in order to confirm the scene of the image on the timeline 203 displayed in the timeline window 201. Note that a mark-in position and a mark-out position, which are positions for starting and stopping playback of image display, are indicated by a mouse (not shown) which is an instruction device to which the computer 401 in FIG. 24 is connected. The buttons are displayed together.
[0020]
Reference numerals 206 and 306 denote windows called working bin windows or project windows, which display video information (image information) recorded in the disk storage unit 406 and edited image information mainly edited.
[0021]
In order to perform effect editing, a window 305 for displaying a list of various video effect patterns and an effect setting window 312 for setting the type of effect and its effect amount, or these two windows are displayed. A video effect panel window 207 having both functions is provided.
[0022]
The effect editing is an editing in which special effect processing such as a wipe effect and a dissolve effect is applied to an image. Wipe effect is a process of changing from image A to image B, and wipes off image A by wiping image A with a certain changing pattern. Instead, another image B appears in the area where image A was erased. Image processing that comes. The dissolve effect is image processing in which the image B gradually appears during the process of converting the image A into the image B until the luminance of the image A gradually decreases and disappears. Effect editing includes special effects processing other than wipe effects and dissolve effects.
[0023]
Next, operations necessary for effect editing will be described in more detail with reference to FIGS.
[0024]
<In the case of FIG. 22>
First, two of the video materials different for each scene or cut displayed in the working bin window 206 are selected by the operation of the mouse, and arranged in the order for joining them on the timeline 203.
Subsequently, the bar 210 is moved to the position where the two video materials are joined by the mouse, and the effect editing at the moved position is started.
[0025]
That is, the effect time can be set by inputting a numerical value from the menu bar 208 for selecting the effect type displayed on the video effect panel window 207 or a keyboard (not shown) connected to the computer 401 like the mouse. By editing the window 209 and other settings, such as the width of the vertical wipe border that changes the scene from left to right, and a slider that can set the amount of blurring, etc., editing can be performed to the user's preference. is there.
[0026]
At this time, the state of the edited scene or cut effect can be known by displaying a plurality of edited still images 202 side by side on the timeline window 201 at predetermined frame intervals. It can be done. Here, the predetermined number of frame intervals can be variably set. This setting is performed by selecting a predetermined menu from the menu bar in the program window 205.
[0027]
<In the case of FIG. 23>
First, two of the video materials with different scenes or cuts displayed in the project window 306 are selected and placed on the timelines 302 and 303 as A roll and B roll, respectively.
Here, the A roll and B roll are used to distinguish and call two scenes or cuts when they are combined and edited, and the combined editing in this case is also referred to as AB roll editing.
[0028]
Next, in order to set the effect time, the timeline 303 is moved by the mouse so that the timeline 302 and the horizontal axis (time axis) have a predetermined overlapping width.
[0029]
Further, when any one of the various effect patterns displayed in the video effect pattern display window 305 is selected by the user, an effect setting window 312 is displayed and an effect pattern symbol representing the selected pattern is a time. It is displayed in the overlapping range on the line 304.
[0030]
Therefore, the effect setting window 312 is operated so as to change the effect setting amount, and the user's favorite editing is performed.
[0031]
At this time, still image display before editing is performed at predetermined frame intervals on the timelines 302 and 303 in the timeline window 301, and this frame interval number setting is performed by the slider 315. .
[0032]
By the way, it is common that a moving image is accompanied by sound. In this case, editing of the sound is also necessary, but the sound editing mode at this time is roughly divided into the following two types. There is a form.
[0033]
First, in the first embodiment, when a scene of video A is connected to a scene of video A, sound A is gradually attenuated and audio B is gradually increased at the joint. This is so-called overlap editing that superimposes the states.
[0034]
This overlap editing is used for the purpose of preventing unnaturalness caused by a sudden change in sound at a joint and enabling smooth scene switching.
[0035]
Next, the second mode is so-called mixing editing, in which new audio is added to the video separately from the audio accompanying the video.
This mixing editing is used when it is desired to add BGM (Background Music) or the like to a video.
[0036]
By the way, when performing these edits, the method that has become the mainstream in the conventional broadcast program production site is to prepare two VTRs, input these two playback outputs to the mixer, and the editor can play them back. This was a method in which the mixer was operated while listening to the incoming sound, and the degree of attenuation and increase of each sound was determined during playback.
[0037]
[Problems to be solved by the invention]
The above-described prior art is not sufficiently considered in terms of facilitating editing work, and has a problem that editing work requires high skill and requires a great deal of labor and time.
[0038]
That is, as described above, when editing these, the conventional technology prepares two VTRs, inputs the playback outputs of these two to the mixer, and the editor uses the mixer while listening to the reproduced sound. It is necessary to operate and determine the degree of attenuation and the degree of increase during playback. Therefore, high skill is required for the work, and when editing or changing the editing, the VTR is rewound once, It is necessary to start over from the beginning, which requires a great deal of labor and time.
[0039]
Further, in so-called non-linear editing that has been used conventionally, an editing mode based on a timeline method has become mainstream.
In this method, editing is performed by inserting video / audio materials using a mouse operation in a window displayed in a strip shape with the time axis direction replaced with the horizontal direction of the display screen.
[0040]
However, even with this timeline method, both video and audio are displayed in a band having a length corresponding to the length of each time, so the edit point in overlap editing and the mixing start point in mixing edit can be set. When deciding, there is a problem that it is difficult to work while checking the video.
[0041]
The present invention provides an editing method, an editing system, and a recording medium storing a program for executing the editing process, which can easily and quickly perform image effect editing and audio editing by operation on a computer graphical user interface screen.
[0042]
The present invention provides an editing method and an editing system for editing video information material including audio information and moving image information with the aid of a computer.
[0043]
In the editing method and editing system according to the present invention, the information of the video information material is stored in the storage device, the video information is read from the storage device, and the read video information is displayed on the screen of the display device. In response to the instruction, the editing position of the video information is displayed on the video information display on the screen. When the user gives an instruction, the editing position is changed, and the user designates the video information at the displayed editing position. The edited processing is performed, and the edited video information is displayed on the screen.
[0044]
Therefore, the user can perform editing processing while simultaneously confirming both the editing material and the editing result on the screen.
[0045]
According to another embodiment of the present invention, display of related audio information is changed in conjunction with editing of moving image information.
[0046]
According to another embodiment of the present invention, a reduced moving image is created by thinning out pixels of moving image information, stored in the storage device, and a moving image of a film image is created from the reduced moving image read from the storage device. Then it is displayed as editing material on the screen.
[0047]
Furthermore, an object of the present invention is to provide a moving image sound editing method in which a sound editing operation accompanying a moving image can be easily performed by an icon operation on an image display screen.
[0048]
[Means for Solving the Problems]
The object is to select a portion to be edited in the moving image information in the moving image audio editing method in which the editing of the moving image information and the audio information included in the video information is performed by a screen display operation. A plurality of frame-unit images arranged in a predetermined direction of the screen, for example, in a horizontal direction, and an audio information that is arranged side by side in the image sequence and whose graphic width is related to the image sequence Display at least two horizontal bar graphics corresponding to the level setting value, and edit the audio information at the portion to be edited in the moving image information on the screen display operation on the horizontal bar graphic Is achieved by
[0049]
Since the image of the part to be edited in the video information is displayed as a film image arranged side by side on the display screen, the image information and the audio information can be handled by viewing this image display. Since the screen display operation of the corresponding part on the horizontal bar figure may be performed, editing of the voice information is facilitated.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to illustrated embodiments.
FIG. 2 shows an example of an apparatus used for editing such a moving image, and this apparatus is composed of parts described below.
[0051]
CPU 501 for processing various controls, monitor 508 for displaying various information such as a hierarchical structure (tree structure) representing scene and cut image information used for image editing and editing states, and a memory for storing various control programs for CPU 501 502, a storage device for storing the image information, audio information, and information related thereto, for example, a magnetic recording device 506, a frame buffer memory 507 for storing an image to be displayed on the monitor 508, and an image or scene in a plurality of scenes From a scene change point detection unit 503 that detects a scene change point that is a change point between cuts, a mouse (or keyboard) 509 as an input device, and a video tape recorder (hereinafter referred to as VTR) 505 Compress image information to generate compressed image data, and compress Is constituted by a respective connected video interface 504 and an audio interface 512 to the image information equivalent to the image information to the decompression unit 511, VTR505 to play from VTR505 decompresses the image data.
[0052]
Further, from the image information stored in the magnetic storage device 506, a high-speed display reduced image having an information amount of, for example, 1/64 is generated from the original image material under the control of the CPU 501, and is stored in the magnetic storage device 506. Remembered.
[0053]
The CPU 501, memory 502, scene change point detection unit 503, video interface 504, audio interface 512, magnetic recording device 506, and frame buffer 507 are each connected to the bus 510, thereby allowing access from the CPU 501. Each part is controlled.
[0054]
The scene change point detection unit 503 analyzes the change in color distribution of the input moving image for each frame.
Then, a scene change point that is a change point between cuts is detected.
The image reduction unit 513 creates a high-speed display moving image by thinning out pixels from the original video material.
The magnetic storage device 506 stores the moving image for high-speed display, and also stores moving image analysis information describing the relationship between the detection result from the detection unit 503 and the moving image for high-speed display.
[0055]
The monitor 508 displays the high-speed display moving image stored in the magnetic storage device 506 based on the analysis information and allows the user to operate a GUI (graphical user interface), that is, an input device such as a mouse or a keyboard. Provides an edit screen for realizing an interface that allows various data input operations and output display corresponding to the operations to be performed on the basis of selecting a predetermined display area displayed as an image. To do.
[0056]
The frame buffer 507 stores an image to be displayed on the monitor 508.
The main memory 502 stores various control programs and the like.
A mouse or keyboard 509 is used as an instruction input device for various operations.
[0057]
A video interface 504 inputs a video signal from a VTR (video tape recorder) 505 and converts it into a moving image format handled by this apparatus.
The image compression / decompression unit 511 compresses the original video information, and decompresses the compressed information.
The audio interface 512 performs a conversion process related to the audio signal so that the audio signal data can be exchanged between the VTR 505 and the computer.
The CPU 501 controls the above units and manages their operations.
[0058]
The scene change point detection unit 503, the magnetic storage device 506, the monitor 508, the frame buffer 507, the main memory 502, the mouse or keyboard 509, the video interface 512, the image compression / decompression unit 511, and the audio interface 512 together with the CPU 501 are connected to the bus. 510 and is controlled by an access signal from the CPU 501.
[0059]
Instead of the magnetic storage device 506, another storage medium such as a magneto-optical storage device may be used, or a remote file connected to the bus 510 via a network may be used.
[0060]
Based on the scene change point detection information detected by the scene change point detection unit 503, the CPU 501 extracts a scene or cut change image from the high-speed display moving image, and the scene or cut to which the image belongs. Are displayed on the monitor 508 as icon images 1302 to 1304 in the tree structure display window 1301 shown in FIG. The icon is a small image or figure for screen display operation.
[0061]
Therefore, the user (editing operator) proceeds with editing by making the image shown in FIG. 13 displayed on the screen of the monitor 508 the object of editing operation and assembling it as a hierarchical structure (tree structure) on this icon editing screen. To go.
[0062]
In the tree structure of FIG. 13, an image in the middle hierarchy, for example, image 1303, represents a plurality of images 1302 in the lower hierarchy belonging thereto as one unit, and corresponds to a chapter / section in the story. Similarly, the image 1304 at the highest level represents, for example, a plurality of images 1303 at the middle level, and corresponds to the entire story.
[0063]
According to this method, since editing can be performed in units of scenes and cuts, it is easy to assemble a story, and the scenes or cut units of the input moving image are almost automatically divided. In addition, there is an advantage in that it is possible to store and manage moving images in a hierarchical structure, which makes it easy to search for necessary scenes and cuts. Can be reduced.
[0064]
The editing system of the embodiment shown in FIG. 2 is a moving image sound editing method in which audio editing work accompanying moving images, for example, overlap editing and mixing editing can be easily performed by icon operation on the image display screen. I will provide a.
[0065]
In the audio editing according to the embodiment of FIG. 2, the image of the portion to be edited of the video information is displayed as a film image arranged side by side on the display screen. By viewing this image display, it is possible to make correspondence between image information and audio information. Here, it is only necessary to perform a screen display operation of the corresponding portion on the horizontal bar graphic, so that audio information can be easily edited.
[0066]
Next, the operation of the embodiment of the present invention using the moving image editing apparatus of FIG. 2 will be described with reference to FIGS. At this time, in FIG. 3, an arrow represents a control process by the CPU 501.
[0067]
First, in response to an instruction from the mouse or keyboard 509 from the operator, a video signal and a video signal are output from a video tape mounted on the VTR 505, and processing for registering the video signal and the audio signal in the magnetic storage device 506 is started. At this time, a moving image of one frame unit is supplied from the VTR 505 to the scene change point detection unit 503 via the video interface 504 and the bus 510 (process 701 in FIG. 3).
[0068]
The scene change point detection unit 503 digitizes the input moving image, analyzes color distribution information between the images, and detects a scene change point (processing 702).
Thereby, the moving image analysis information including the frame number of the scene change point generated by the scene change point detection unit 503 is stored in the magnetic storage device 506 (process 703).
[0069]
At the same time, the high-speed display moving image is stored in the magnetic storage device 506 (process 704).
The high-speed display moving image is reduced according to the size of a GUI (graphical user interface) environment for performing various displays of the same data as the moving image input to the scene change point detection unit 503 on the image. (Processing 705), which is an operation target in the editing apparatus.
[0070]
Generally, it is necessary to decode an encoded moving image in order to reproduce an image from an encoded moving image by returning it to a video signal. The CPU 501 decodes the encoded moving image. Processing time for.
Therefore, in this embodiment, as described above, since the reduced image for high-speed display is stored in advance, the decoding process is not performed, and the decoding process time for that is unnecessary, and the entire processing time is reduced. It can be made shorter.
[0071]
Furthermore, simultaneously with the scene change point detection process (process 702) and the storage of the high-speed display moving image in the magnetic storage device 506 (process 704), the moving image is encoded by the image compression / decompression unit 511 using an image compression technique ( Process 706), the encoded moving image is stored in the magnetic storage device 506 (process 707).
Note that the stored encoded moving image is used when high-speed display is not required, for example, when the final editing result is desired to be viewed in detail.
[0072]
On the other hand, the audio output signal reproduced by the VTR 505 is also converted into digital audio information via the audio interface 512 and stored in the magnetic storage device 506 (process 708).
[0073]
Next, the editing operator (operator) instructs to read out the high-speed display moving image registered in the magnetic recording device 506 using the mouse or the keyboard 509.
As a result, the CPU 501 reads scene analysis information of the corresponding moving image from the magnetic storage device 506, and based on that information, for example, reads only the first frame image of each scene from the high-speed display moving image, as shown in FIG. In this way, it is displayed on the main window 421 of the monitor 508.
[0074]
An icon such as a moving image display on the main window at this time is an operation target in this embodiment.
Then, the operator operates this icon on the monitor display screen, and creates a moving image according to the story by assembling the hierarchical structure (tree structure) shown in the tree structure display window 421 of FIG. It will do.
Hereinafter, as a specific example, overlap editing for the tree structure shown in FIG. 4 will be described as an example.
[0075]
When performing audio overlap editing between a scene represented by the icon 422 (hereinafter referred to as “scene A”) and a scene represented by the icon 425 (hereinafter referred to as “scene B”), first, transition to the editing mode is performed. Is performed by clicking the icon 422 and the icon 425 with the mouse 509 and then clicking the overlap editing button in the button group 426. As a result, an edit screen 420 is displayed. When this screen is enlarged, it is as shown in FIG.
[0076]
In FIG. 1, reference numerals 121 and 122 denote high-speed display moving images of respective frames in a predetermined section of moving images belonging to the scene A and the scene B (hereinafter referred to as images A and B), respectively, from left to right. 6 is a reduced video sequence arranged and displayed in a film image form.
[0077]
Next, reference numerals 123 and 124 denote waveform display sections of sounds corresponding to the scene A and the scene B (hereinafter referred to as sounds A and B), respectively, which are read from the recording device 506. At this time, the joint of the scene is represented by 125.
[0078]
In these displays, the operator operates an icon (hereinafter referred to as a setting icon) 128 for setting the adjacent frame interval of the images displayed in the image sequence, whereby a reduced image is displayed every set number of frames. Is done. Furthermore, by operating the display position setting icon 127, an arbitrary section can be displayed in the entire image sequence 121, 122.
[0079]
Next, a volume control level (volume control level) is used to perform overlap editing in which the volume is adaptively variably controlled so that the voice A is attenuated and the voice B is increased at and around the joint 125. Is set according to each audio information. The CPU 501 reads the audio information to be edited for each of the audio A and the audio B from the magnetic storage device 506, and newly adds the audio information attenuated at a predetermined attenuation rate to the edit object portion based on the read audio information. The generated audio information is rewritten from the CPU 501 to the magnetic storage device 506.
[0080]
In this case, as an operation function for enabling the volume control by selecting the range of the edit target portion of each audio information and setting a predetermined attenuation rate, a display graphic comprising the horizontal bar graphic display unit 126 is provided. Is to be obtained. Here, first, the horizontal bar 126A corresponds to the sound A, and the vertical width of each blackened portion represents the volume control level set for each predetermined period of the sound A. Next, the horizontal bar 126B indicates the volume control level corresponding to the sound B, and the vertical width of each blackened portion is set for each predetermined period of the sound B.
[0081]
According to the voice editing of the present invention, not only the voice amplitude level but also other voice parameters, for example, one of various sound quality levels and pitch level can be adjusted in an arbitrarily designated editing section. For example, the white circle 129 to the white circle 132 on the bar graphic 126 are icons for designating such an adjustment section of the audio parameter, and the inclination of the diagonal portion of the bar graphic 126 indicates that the audio parameter gradually changes. . Button icons 631, 632, and 633 for designating parameters of the audio amplitude level, sound quality level, and pitch level can be provided in the window of FIG. The operator selects an audio parameter to be edited by clicking one of the button icons 631, 632, and 633 with the mouse. If button icon 634 is designated with a mouse, an echo effect is applied to the sound in the editing section (during fading).
[0082]
Next, a white circle graphic 129 is a setting icon for setting a level attenuation start point of the sound A. A white circle figure 130 is a setting icon for setting a level attenuation end point of the sound A. A white circle figure 131 is a setting icon for setting the level B increase start point of the sound B. A white circle figure 132 is a setting icon for setting the end point for increasing the level of the sound B.
[0083]
The image sequences 121 and 122 of the film image, the audio waveform display units 123 and 124, the horizontal bar display unit 126, the display position setting icon 127, and the display interval setting icon 128 are display-controlled in conjunction with each other. Is reflected immediately.
[0084]
Therefore, the operator performs overlap editing by operating the horizontal bars 126A and 126B while viewing the film image-like image sequences 121 and 122 and the audio waveform.
[0085]
Further, FIG. 15 shows a state of the editing screen 420 of another embodiment.
In FIG. 15, reference numerals 121 and 122 denote high-speed display moving images of frames in a predetermined section of moving images belonging to scene A and scene B (hereinafter referred to as images A and B), respectively, from left to right in time series. 6 is a reduced video sequence arranged and displayed in a film image form.
[0086]
A portion indicated by a dotted line in each reduced moving image sequence represents a video portion that is not included in the edited image sequence, that is, has no influence.
[0087]
Next, reference numerals 123 and 124 denote waveform display sections of sounds corresponding to the scene A and the scene B (hereinafter referred to as sounds A and B), respectively, which are read from the recording device 506. At this time, the joint of the scene is represented by 125.
[0088]
In the following, in FIG. 15, the same reference numerals as those in FIG. Reference numerals 136 and 137 denote edited image image sequences and edited audio image (audio waveform) sequences, respectively.
[0089]
Here, the sound editing processing by the horizontal bars 126A and 126B according to this embodiment will be described with reference to FIG. The operator simply designates the four white circles 129 to 132 while viewing the video and moves them horizontally, so that the voice A attenuation start point position 521, the same end point position 522, and the voice B increase start point position. Various parameters required for editing such as 523, end point position 524, split amounts 525 and 526, fade time lengths 527 and 528, and transition time length 529 can be arbitrarily set.
[0090]
For example, if the white circle figure 129 is now dragged with the mouse and moved from the position 521 in FIG. 5A to the position 523 as shown in FIG. 5B, the attenuation start time position 521 of the sound A is For example, it is delayed by one frame of the image. Accordingly, the split amount 525 and the fade time length 527 of the voice A and the voice transition time length 529 between the voice A and the voice B are also reduced by, for example, one frame, so that the voice A is as shown in FIG. It will decay more quickly.
[0091]
Next, if the white circle figure 130 is moved from the position 522 in FIG. 5A to the position 530 as shown in FIG. 5C, the end of attenuation of the sound A is now delayed by one frame, for example. The fade time length of the voice A and the voice transition time length between the voice A and the voice B are increased by, for example, one frame, and the voice A attenuates more slowly than in the case of FIG.
[0092]
On the other hand, if the white circle figure 131 is moved from the position 523 in FIG. 5A to the position 521 as shown in FIG. 5D, the increase start time of the sound B is accelerated by one frame, for example. The split amount of B and the fade time length are increased by, for example, one frame, and as a result, the audio B increases more gradually from an earlier time point.
[0093]
Further, if the white circle figure 132 is moved from the position 522 in FIG. 5A to the position 524 as shown in FIG. 5E, the increase end time of the sound B is accelerated by one frame, for example. The fade time length of B and the voice transition time length between the voice A and the voice B are reduced by, for example, one frame, and the voice B increases more quickly.
[0094]
Therefore, according to this embodiment, it is possible to easily proceed with editing so that the sound can be heard more smoothly even at the joint of scenes.
[0095]
By the way, in this embodiment, the movement of the four white circles 129, 130, 131, 132 is performed by clicking with the mouse on each image in the image row 121, 122 displayed as a film image on the screen 420. Is also provided. Furthermore, the position of the horizontal bar display unit 126 itself can be dragged with a mouse, and the association between video and audio can be shifted.
[0096]
Next, when the work is finished and the editing result is determined, the OK button 135 is given by clicking with the mouse.
As a result, the edited moving image reflecting the operation result is stored in the magnetic storage device 506, and at the same time, the tree structure information is changed. As a result, the tree structure is displayed on the main window of the moving image editing device. Changes as shown in FIG. At this time, the information that the editing including the sound is performed is displayed as a graphic 1001 in FIG. 11 on the main window of the moving image editing apparatus.
[0097]
Further, if it is desired to confirm the editing state before this editing decision, the preview button 133 in FIG. 1 may be clicked with the mouse.
As a result, as shown in FIG. 14, the 640 × 480 size video compressed and stored by the image compression / decompression unit 511 is reproduced on the window 430 of the monitor 508, and the editing state is easy. Can be confirmed.
[0098]
Next, in this embodiment, even when it is desired to simultaneously perform special effect processing of an image such as wipe or dissolve at a joint between scenes, editing can be performed by the same method. The audio editing operation associated with video effect editing will be described below.
[0099]
At this time, the transition to the edit mode is performed by the same operation as the above-described overlap editing. On the main window shown in FIG. 4, the icon 422 and the icon 425 are clicked with the mouse 509 and then the special effect processing buttons 428 and 429 such as wipe and dissolve in the button group 426 are clicked. Thereby, the edited edit screen 420 becomes as shown in FIG.
[0100]
The display screen of FIG. 21 is an edit screen when the wipe process is selected by the operator. Here, the image sequences 121 and 122, the sound A and sound B waveform display parts 123 and 124, the horizontal bar display part 126, the horizontal bars 126A and 126B, the display interval setting icon 128, the display position setting icon 127, and the white circle figure 129 are displayed. ˜132 are as described in FIG. 1.
[0101]
In FIG. 6, reference numeral 605 denotes an image after editing, which is obtained as a result of wiping the images A and B, and is displayed as a reduced moving image sequence in the form of a film image. The type of wipe effect at this time is determined by selection of the wipe pattern 606 by the operator.
[0102]
Reference numeral 607 denotes a horizontal bar display portion that represents the length of the wipe between the image A and the image B. The two horizontal bars 607A and 607B are the lengths of the portions where the image A and the image B are displayed, respectively. It is designed to represent the height. Therefore, the length of the wipe is represented by the portion where these horizontal bars 607A and 607B overlap.
[0103]
Therefore, the function of determining the degree of attenuation of the sound A and the increase of the sound B in these overlapping portions is realized by the horizontal bar display unit 126. At this time, the white circle figure 129 gives the attenuation start point of the voice A, and the white circle figure 130 gives the attenuation end point of the voice A. Similarly, the white circle figure 131 gives the increase start point of the sound B, and the white circle figure 132 gives the increase end point of the sound B.
[0104]
In these displays, the operator can select and display an arbitrary range by operating the display interval setting icon 128. Further, by operating the display position setting icon 127, an arbitrary section can be selected and displayed. At this time, the cut sequence of the film image, the audio waveform display, each bar and each icon are linked to each other, and the operation result for each bar and each icon is immediately reflected on each other.
[0105]
Next, effect editing processing by the horizontal bar display unit 126 will be described with reference to FIGS.
The operator wipes by operating the horizontal bar display unit 607 and the horizontal bar display unit 126 while viewing the moving image sequences 121 and 122 and the audio waveform display units 123 and 124 displayed in a film image form shown in FIG. Perform overlap editing when processing special effects such as dissolves.
[0106]
First, FIG. 7A shows a state in which the operator operates the horizontal bars 607A and 607B with a mouse to give an overlapping portion between the image A and the image B. FIG. The length of this overlapping portion is the length of the wipe.
At this time, the horizontal bars 126A and 126B automatically enter the state shown in FIG. 7A in conjunction with the operation given to the horizontal bars 607A and 607B.
[0107]
Next, from the state shown in FIG. 7A, if the white circle figure 129 is dragged with the mouse and moved to the position shown in FIG. 7B, the split amount 715 of the voice A is generated for one frame, for example. The fade time length 717 and the voice transition time length 719 between the voice A and the voice B are increased by, for example, one frame, so that the decay start of the voice A can be started from a point earlier than the start of the wipe.
[0108]
On the other hand, when the white circle figure point 130 is moved from the state of FIG. 7A to the position of FIG. 8A, the fade time length 717 of the voice A and the voice transition time length 719 between the voice A and the voice B are shown. Can be increased by one frame, for example, and the effect that the voice A can be heard even after the end of the wipe can be provided.
[0109]
If the white circle figure 131 is moved from the state shown in FIG. 7A to the position shown in FIG. 8B, a split amount 716 of the audio B is generated, for example, for one frame, and the fade time length 708 of the audio B is generated. Decreases by one frame, for example, and the increase start of the voice B from the wipe start position is delayed.
[0110]
Further, when the white circle figure 132 is moved from the state of FIG. 7A to the position of FIG. 8C, the fade time length 718 of the voice B is reduced by, for example, one frame, and the voice is earlier than the end of the wipe. B completes the increase.
As a result, sound can be heard more smoothly even in the effect editing of images.
Even at this time, the determination of the editing result and the confirmation by the image reproduction before the determination can be performed by the same method as the overlap editing at the scene joint described above.
[0111]
Next, as a specific example of the audio mixing editing operation according to this embodiment, BGM (background music) is mixed into a scene represented by the icon 1303 displayed in the tree structure shown in FIG. The case of editing will be described.
[0112]
First, an operation before shifting to the audio mixing edit mode will be described.
In this case, first, it is a requirement that audio data including BGM is stored in the magnetic storage device 506 in advance.
Under this assumption, an instruction for reading out the audio data onto the editing apparatus is given by the mouse or the keyboard 509.
[0113]
Then, the CPU 501 creates icons 1305 (hereinafter referred to as voice icons) that are displayed in the same manner as the moving image icons 1302 to 1304 shown in FIG.
[0114]
After setting the audio icon 1305 necessary for handling the audio data on the editing apparatus,
As with the icon, clicking the sound icon 1305 with the mouse allows the sound reproduction and insertion work to be performed.
[0115]
Next, a method for shifting to the audio mixing edit mode will be described.
There are, for example, the following two methods for shifting to the edit mode. In the first method, the audio icon 1305 is dragged with the mouse and dropped on the icon 1303. The second method is to select a voice icon 1305 and an icon 1303 and click a predetermined button of the button group 426 with a mouse to shift the screen display, and the edited editing screen is as shown in FIG.
[0116]
In FIG. 9, reference numeral 931 denotes a reduced moving image sequence in which each frame in a certain section of a moving image belonging to the scene represented by the icon 1303 in FIG. 13 is displayed in the form of a film image as in the case described above. At this time, the sound belonging to the scene represented by the icon 1303 is displayed on the waveform display unit 932, and the waveform of the sound to be mixed is displayed on the waveform display unit 933.
[0117]
The blackened vertical width of the horizontal bar 934M displayed on the horizontal bar display unit 934 represents the volume control level for each predetermined period of the audio to be mixed, and the white circle 905 represents the mixing increase completion point. .
[0118]
Note that the display position setting icon 127, the display interval setting icon 128, the OK button 135, and the preview button 133 here all have the same functions as those described above, and these and the film image and audio waveform display are linked to each other. The operation results for each bar and each icon are immediately reflected in each other.
[0119]
On the mixing editing screen of FIG. 9, first, the operator designates a white circle figure 935 with the mouse and moves it on the horizontal bar 934M while looking at the moving image sequence 931 displayed as a film image, thereby completing the increase of the audio mixing. Can be set.
[0120]
At this time, in the horizontal bar 934M, the mixing sound gradually increases at the start of mixing so that the sound can be mixed unnaturally as shown in the figure. It also has a function to make it.
[0121]
In this embodiment, the completion point of increased audio mixing can also be given by clicking on the moving image sequence 931 displayed as a film image with a mouse.
That is, in the state shown in FIG. 10A, when it is desired to set the frame 931F in the image sequence 931 as the start point for increasing the mixing of audio information, the user clicks on the frame 931F with the mouse. Then, the graphic 935 on the horizontal bar 934M indicating the level of the sound to be mixed moves in conjunction with the frame 931F, and is as shown in FIG.
[0122]
Therefore, this time, when the white circle 935 is moved with the mouse to the state shown in FIG. 10C, the volume control level of the sound is mixed so as to gradually increase in the section 906. Become.
[0123]
Although not shown, the end point of audio mixing can also be specified on the audio horizontal bar 934M with the mouse.
[0124]
When the editing process is finished and the editing result is determined, the OK button 135 in FIG. 9 is clicked with the mouse.
The moving image reflecting the result of the editing process described above is stored in the magnetic storage device 506, and at the same time, the tree structure information is changed. As a result, the display returns to the original main window 1301. The display of the tree structure at this time is as shown in FIG. 12. Here, the information that the mixing editing of the audio information 1305 is performed is displayed on the main window 1301 as the graphic 1101 as in the case described above. .
[0125]
On the other hand, if it is desired to check the editing state before the editing operation is completed, if the preview button 133 is clicked with the mouse, the video of 640 × 480 size compressed and stored by the image compression / decompression unit 511 is displayed on the monitor 508. As in the case described above, the editing state can be easily confirmed.
[0126]
Next, a procedure in the case of performing editing processing using the editing screen shown in FIGS. 1, 6, and 9 under the control of a computer will be described with reference to the flowcharts of FIGS. 16 and 17 are flowcharts showing the procedure of the overlap editing shown in FIG. When the overlap editing mode is selected by the operator, REDRAW_FLAG set in the memory 502 is initialized to a value of “0” in step 140. In step 141, the window 420 shown in FIG. In step 142, an interrupt input process from the mouse 509 is performed.
[0127]
In step 143, it is determined whether or not an event for pressing the setting icon 127 has occurred. If the display position setting icon 127 is pressed, REDRAW_FLAG is set to a “1” value in step 144. In step 145, the display position designated by the operator is written in the memory 502.
[0128]
If it is determined in step 143 that no event has occurred, it is determined in step 146 whether or not an event has occurred in which the display interval setting icon 128 is pressed. If the display position setting icon 128 is pressed, REDRAW_FLAG is set to the value “1” in step 147. In step 148, the display interval designated by the operator is written in the memory 502.
[0129]
If it is determined in step 146 that no event has occurred, it is determined in step 149 whether or not there is an event in which any of the audio parameter icons 631 to 633 is pressed. If any of the parameter icons 631 to 633 is pressed, REDRAW_FLAG is set to “1” in step 150. In step 151, the control parameter type designated by the operator is written in the memory 502.
[0130]
If it is determined in step 149 that no event has occurred, it is determined in step 152 whether there is an event in which the echo icon 634 is pressed. If the echo icon 634 is pressed, REDRAW_FLAG is set to “1” in step 153. In step 154, the echo effect information is written in the memory 502.
[0131]
If it is determined in step 152 that no event has occurred, it is determined in step 155 whether or not there is an event in which the white circle graphic 129 is pressed. If the white circle graphic 129 is pressed, REDRAW_FLAG is set to “1” in step 156. In step 157, the fade-out start time of voice A is written in the memory 502.
[0132]
If it is determined in step 155 that no event has occurred, it is determined in step 158 whether there is an event in which the white circle graphic 130 is pressed. If the white circle figure 130 is pressed, REDRAW_FLAG is set to “1” in step 159. In step 160, the fade-out end time of voice A is written in the memory 502.
[0133]
If it is determined in step 158 that no event has occurred, it is determined in step 161 whether there is an event in which the white circle graphic 131 is pressed. If the white circle graphic 131 is pressed, REDRAW_FLAG is set to the value “1” in step 162. In step 163, the fade-in start time of the sound B is written in the memory 502.
[0134]
If it is determined in step 161 that no event has occurred, it is determined in step 164 whether there is an event in which the white circle graphic 132 is pressed. If the white circle graphic 132 is pressed, REDRAW_FLAG is set to the value “1” in step 165. In step 166, the fade-in end time of audio B is written in the memory 502.
[0135]
If it is determined in step 164 that no event has occurred, it is determined in step 167 whether or not there is an event in which the image sequence 121 is pressed. If the image sequence 121 is pressed, REDRAW_FLAG is set to the value “1” in step 168. Further, in step 169, the fade-in time information and fade-out time information of the voice A or the voice B are written in the memory 502 in accordance with the state of each white circle figure selected in advance.
[0136]
If it is determined in step 167 that no event has occurred, it is determined in step 170 whether there is an event in which the image sequence 122 is pressed. If the image sequence 122 is pressed, REDRAW_FLAG is set to the value “1” in step 171. Further, in step 172, the fade-in time information and fade-out time information of voice A or voice B are written in the memory 502 in accordance with the state of each white circle figure selected in advance.
[0137]
If it is determined in step 170 that no event has occurred, it is determined in step 173 whether or not there is an event for which the horizontal bar display unit 126 is pressed. If the horizontal bar display unit 126 is pressed, REDRAW_FLAG is set to the value “1” in step 174. Further, in step 175, the value of the correspondence between video and audio is written in the memory 502.
[0138]
If it is determined in step 173 that no event has occurred, it is determined in step 176 whether there is an event for which the preview button 133 is pressed. If the review button 133 is pressed, the review window 430 is opened at step 177. In step 178, the window 420 is closed.
[0139]
If it is determined in step 176 that no event has occurred, it is determined in step 179 whether there is an event in which the OK button 135 is pressed. If the 0K button 135 is pressed, the edited result image is displayed on the monitor in step 180, and the edited result is stored in the magnetic storage device 506.
[0140]
If it is determined in step 179 that no event has occurred or after the processing in step 180 is performed, it is determined in step 181 whether there is an event in which the CANCEL button 134 is pressed. When the CANCEL button 134 is pressed, the process of step 178 is performed.
[0141]
When it is determined in step 181 that no event has occurred, or after any one of steps 145, 148, 151, 154, 157, 160, 163, 166, 169, 172 and 175 has been performed, In step 182, it is determined whether REDRAW_FLAG is “1”. If it is determined in step 182 that REDRAW_FLAG = “1”, a screen corresponding to the contents edited in step 183 is displayed on the monitor. If it is determined in step 182 that REDRAW_FLAG is not “1”, the process returns to step 140.
If the process of step 178 is performed, the overlap editing mode is temporarily ended.
[0142]
Next, FIGS. 18 and 19 are flowcharts showing the wipe editing procedure shown in FIG. When the wipe editing mode is selected by the operator, REDRAW_FLAG set in the memory 502 is initialized to a value of “0” in step 240. In step 241, the window 420 shown in FIG. 6 is displayed on the monitor 508. In step 242, interrupt input processing from the mouse 509 is performed.
[0143]
In step 243, it is determined whether there is an event for which the setting icon 127 is pressed. If the display position setting icon 127 is pressed, REDRAW_FLAG is set to “1” in step 244. In step 245, the display position designated by the operator is written in the memory 502.
[0144]
If it is determined in step 243 that no event has occurred, it is determined in step 246 whether there is an event for which the display interval setting icon 128 is pressed. If the display position setting icon 128 is pressed, REDRAW_FLAG is set to a “1” value in step 247. In step 248, the display interval designated by the operator is written in the memory 502.
[0145]
If it is determined in step 246 that no event has occurred, it is determined in step 249 whether there is an event in which the horizontal bar 607 is pressed. If the horizontal bar 607 is pressed, REDRAW_FLAG is set to the value “1” in step 250. In step 251, the image overlay amount designated by the operator is written in the memory 502.
[0146]
If it is determined in step 249 that no event has occurred, it is determined in step 252 whether there is an event in which the white circle graphic 129 is pressed. If the white circle graphic 129 is pressed, REDRAW_FLAG is set to the value “1” in step 253. In step 254, the fade-out start time of voice A is written in the memory 502.
[0147]
If it is determined in step 252 that no event has occurred, it is determined in step 255 whether or not there is an event in which the white circle graphic 130 is pressed. If the white circle figure 130 is pressed, REDRAW_FLAG is set to the value “1” in step 256. In step 257, the fade-out end time of voice A is written in the memory 502.
[0148]
If it is determined in step 255 that no event has occurred, it is determined in step 258 whether or not there is an event in which the white circle graphic 131 is pressed. If the white circle 131 is pressed, REDRAW_FLAG is set to “1” in step 259. In step 260, the fade-in start time of audio B is written in the memory 502.
[0149]
If it is determined in step 258 that no event has occurred, it is determined in step 261 whether there is an event in which the white circle graphic 132 is pressed. If the white circle graphic 132 is pressed, REDRAW_FLAG is set to the value “1” in step 262. In step 263, the fade-in end time of audio B is written in the memory 502.
[0150]
If it is determined in step 261 that no event has occurred, it is determined in step 264 whether there is an event in which the image sequence 121 is pressed. If the image sequence 121 is pressed, REDRAW_FLAG is set to the value “1” in step 265. Furthermore, in step 266, the fade-in time information of the voice A or the voice B or the fade-out time information is written in the memory 502 according to the state of each white circle figure selected in advance.
[0151]
If it is determined in step 264 that no event has occurred, it is determined in step 267 whether there is an event in which the image sequence 122 is pressed. If the image sequence 122 is pressed, REDRAW_FLAG is set to the value “1” in step 268. Further, in step 269, the fade-in time information of the sound A or the sound B or the time information of the fade-out is written in the memory 502 according to the state of each white circle figure selected in advance.
[0152]
If it is determined in step 267 that no event has occurred, it is determined in step 270 whether or not there is an event for which the horizontal bar display unit 126 is pressed. If the horizontal bar display unit 126 has been pressed, REDRAW_FLAG is set to the value “1” in step 271. In step 272, the value of the correspondence between video and audio is written in the memory 502.
[0153]
If it is determined in step 270 that no event has occurred, it is determined in step 273 whether there is an event for which the preview button 133 is pressed. If the preview button 133 is pressed, a preview window is opened at step 274. In step 275, the window 420 is closed.
[0154]
If it is determined in step 273 that no event has occurred, it is determined in step 276 whether there is an event in which the OK button 135 is pressed. If the OK button 135 is pressed, the edited result image is displayed on the monitor in step 277 and the edited result is stored in the magnetic storage device 506.
[0155]
If it is determined in step 276 that no event has occurred or after the processing in step 275 has been performed, it is determined in step 278 whether there is an event in which the CANCEL button 134 is pressed. If the CANCEL button 134 is pressed, the process of step 275 is performed.
[0156]
If it is determined in step 278 that no event has occurred, or after any one of steps 245, 248, 251, 254, 257, 260, 263, 266, 269, and 272 has been performed, step 279 is performed. Then, it is determined whether REDRAW_FLAG is “1”. If it is determined in step 279 that REDRAW_FLAG = “1”, a screen corresponding to the contents edited in step 280 is displayed on the monitor. If it is determined in step 280 that REDRAW_FLAG is not “1”, the process returns to step 240.
If the process of step 275 has been performed, the wipe edit mode is temporarily terminated.
[0157]
Next, FIG. 20 and FIG. 21 are flowcharts showing the mixing editing procedure shown in FIG. When the mixing edit mode is selected by the operator, REDRAW_FLAG set in the memory 502 is initialized to a value of “0” in step 340. In step 341, the window 420 shown in FIG. 9 is displayed on the monitor 508. In step 342, an interrupt input process from the mouse 509 is performed.
[0158]
In step 343, it is determined whether or not an event for pressing the setting icon 127 has occurred. If the display position setting icon 127 is pressed, REDRAW_FLAG is set to “1” in step 344. In step 345, the display position designated by the operator is written in the memory 502.
[0159]
If it is determined in step 343 that no event has occurred, it is determined in step 346 whether or not an event that causes the display interval setting icon 128 to be pressed has occurred. If the display interval setting icon 128 is pressed, REDRAW_FLAG is set to the value “1” in step 347. In step 348, the display interval designated by the operator is written in the memory 502.
[0160]
If it is determined in step 346 that no event has occurred, it is determined in step 349 whether or not there is an event for which the horizontal bar display unit 934 is pressed. If the horizontal bar display unit 934 is pressed, REDRAW_FLAG is set to the value “1” in step 350. In step 351, the fade-in start point of the mixing sound designated by the operator is written in the memory 502.
[0161]
If it is determined in step 349 that no event has occurred, it is determined in step 352 whether there is an event in which the image sequence 931 is pressed. If it is determined that no event has occurred, REDRAW_FLAG is set to “1” in step 353. In step 354, the audio fade-in start time is written in the memory 502.
[0162]
If it is determined in step 352 that no event has occurred, it is determined in step 355 whether there is an event in which the white circle graphic 935 is pressed. If the white circle graphic 935 is pressed, REDRAW_FLAG is set to the value “1” in step 356. In step 357, the audio fade-in end time is written in the memory 502.
[0163]
If it is determined in step 355 that no event has occurred, it is determined in step 358 whether or not there is an event for which the review button 133 is pressed. If the preview button 133 is pressed, the preview window 430 is opened at step 359. In step 360, the window 420 is closed.
[0164]
If it is determined in step 358 that no event has occurred, it is determined in step 361 whether there is an event in which the OK button 135 is pressed. If the OK button 135 is pressed, the edited result image is displayed on the monitor in step 362, and the edited result is stored in the magnetic storage device 506.
[0165]
If it is determined in step 361 that no event has occurred or after the processing in step 362 has been performed, it is determined in step 363 whether there is an event in which the CANCEL button 134 is pressed. If the CANCEL button 134 has been pressed, the process of step 360 is performed.
[0166]
If it is determined in step 363 that no event has occurred, or after any one of steps 345, 348, 351, 354, and 357 has been performed, whether or not REDRAW_FLAG is “1” in step 364. Make a decision. If it is determined in step 364 that REDRAW_FLAG = “1”, a screen corresponding to the contents edited in step 365 is displayed on the monitor. If it is determined in step 364 that REDRAW_FLAG is not “1”, the process returns to step 340.
If the process of step 360 is performed, the mixing edit mode is once ended.
[0167]
The editing processing program represented by the flowcharts shown in FIGS. 16 to 21 is stored in the memory 502 in a code signal format readable by the CPU 501. The memory 502 may be a recording medium such as a semiconductor memory, a CD-ROM, a magnetic disk, or an optical disk.
[0168]
The present invention is not limited to the embodiments described above, and it is apparent that various improvements and modifications can be made by those skilled in the art based on the above disclosure.
[0169]
【The invention's effect】
According to the present invention, since the relationship between video and audio can be obtained at a glance, it is possible to easily determine, modify, and change audio editing points while viewing the video.
In addition, according to the present invention, since an image used for editing can be obtained as an intuitive display that is close to human sensitivity, no special skill is required for editing audio, and editing can be easily performed in this respect. it can.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an example of an edit screen display according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an example of a moving image editing apparatus used in the embodiment of the present invention.
FIG. 3 is an explanatory diagram showing an operation by the moving image editing apparatus used in the embodiment of the present invention.
FIG. 4 is a schematic diagram showing an example of an edit screen display according to the embodiment of the present invention.
FIG. 5 is an operation explanatory diagram when performing overlap voice editing in the embodiment of the present invention.
FIG. 6 is a schematic diagram showing another example of the edit screen display according to the embodiment of the present invention.
FIG. 7 is an operation explanatory diagram when performing overlap audio editing when special effects of video such as wipe dissolve are performed in the embodiment of the present invention.
FIG. 8 is an operation explanatory diagram when performing overlap audio editing in the case where special effects of video such as wipe dissolve are performed in the embodiment of the present invention.
FIG. 9 is a schematic diagram showing still another example of the edit screen display according to the embodiment of the present invention.
FIG. 10 is an operation explanatory diagram when performing audio mixing editing in the embodiment of the present invention;
FIG. 11 is a schematic diagram of a display screen after performing overlap voice editing in the embodiment of the present invention.
FIG. 12 is a schematic diagram of a display screen after performing audio mixing editing in the embodiment of the present invention.
FIG. 13 is a schematic diagram of a display screen before editing display in the embodiment of the present invention.
FIG. 14 is a schematic diagram of a reproduction display screen for confirming an editing state according to the embodiment of the present invention.
FIG. 15 is a schematic diagram showing another example of an edit screen display according to the embodiment of the present invention.
FIG. 16 is a flowchart showing a procedure for overlap editing shown in FIG. 1;
FIG. 17 is a flowchart showing a procedure for overlap editing shown in FIG. 1;
FIG. 18 is a flowchart showing a procedure of wipe editing shown in FIG. 6;
FIG. 19 is a flowchart showing a procedure of wipe editing shown in FIG. 6;
20 is a flowchart showing a procedure for mixing editing shown in FIG. 9;
FIG. 21 is a flowchart showing the mixing editing procedure shown in FIG. 9;
FIG. 22 is an explanatory diagram illustrating an example of a screen display for effect editing.
FIG. 23 is an explanatory diagram showing another example of effect edit screen display;
FIG. 24 is a block configuration diagram illustrating an example of a moving image editing apparatus according to a conventional technique.
[Explanation of symbols]
121, 122 Image sequence by film image
123, 124 Audio signal waveform display section
125 joints
126 Horizontal bar display
126A, 126B Horizontal bar indicating the level of the audio signal
421 Tree structure display window
501 CPU
502 Main memory
503 Scene change point detector
504 video interface
505 VTR
506 Magnetic storage device
507 Frame buffer memory
508 monitor
509 Mouse (keyboard)
510 bus
511 Image compression / decompression unit
512 audio interface
513 Image reduction unit

Claims (3)

動画情報および該動画情報に関連した音声情報を含む映像情報を、該映像情報のシーンとシーンとが変化する変化点の情報を関連づけて記憶する記憶装置と、表示装置を含む前記記憶装置からのシーン変化点の情報および前記映像情報を編集する装置および前記各装置を制御する装置とからなる動画像音声編集装置であって、
前記映像情報の編集時に前記音声情報の音量を適応的に可変制御する編集を行なうために音量制御レベルの値を前記音声情報に応じて設定する動画像音声編集装置に用いられる動画像編集方法において、
前記動画情報の中の編集を施すべき部分を選択し、その部分にある複数のフレーム単位の画像を配置したフイルムイメージ状の画像列と、
該画像列に並べて配置されるようにした、前記画像列に関係する音声情報の上記音量制御レベルの設定値に対応させた図形幅を有するバー図形とを表示し、
前記動画情報の中の編集を施こすべき部分での音声情報の編集を、前記バー図形上に表示された設定用図形表示の表示位置を変更することにより行なうようにしたことを特徴とする動画像音声編集方法。
The video information including audio information related to the video information and the video information, a storage device for storing in association with information of a change point at which a change in the scene and scene of the video information, from the storage device that includes a display device device and said edit information and the video information of the scene change points a video and audio editing apparatus comprising a device for controlling each device,
In the video editing method for use in video and audio editing apparatus is set according to the value of the volume control level to the voice information in order to perform adaptive editing for variably controlling the volume of the audio information when editing the video information ,
In the video information, a portion to be edited is selected, and a plurality of frame unit images in the portion are arranged in a film image-like image sequence,
A bar graphic having a graphic width corresponding to the set value of the volume control level of the audio information related to the image string, arranged in line with the image string;
A moving image characterized in that editing of audio information at a portion to be edited in the moving image information is performed by changing a display position of a setting graphic display displayed on the bar graphic. Image audio editing method.
請求項の発明において、
前記バー図形上に表示された設定用図形表示は、変化開始点設定用図形表示と変化終了点設定用図形表示の少なくとも2つが用いられることを特徴とする動画像音声編集方法。
In the invention of claim 1 ,
The moving picture audio editing method characterized in that at least two of the graphic display for setting displayed on the bar graphic are graphic display for changing start point setting and graphic display for changing end point setting.
動画情報および該動画情報に関連した音声情報を含む映像情報を、該映像情報のシーンとシーンとが変化する変化点の情報を関連づけて記憶する記憶装置と、表示装置を含む前記記憶装置からのシーン変化点の情報および前記映像情報を編集する装置および前記各装置を制御する装置と、前記映像情報の編集時に前記音声情報の音量を適応的に可変制御する編集を行なうために音量制御レベルの値を前記音声情報に応じて設定する動画像音声編集装置において、Video information including moving image information and audio information related to the moving image information is stored in association with information on a change point at which the scene of the video information changes, and a storage device including the display device. A device for editing scene change point information and the video information, a device for controlling each device, and a volume control level for performing variable variable control of the volume of the audio information when editing the video information. In the moving image audio editing apparatus for setting a value according to the audio information,
前記動画情報の中から編集を施すべき複数のフレーム単位の画像列を選択する手段と、前記画像列をフイルムイメージ状に表示する手段と、前記画像列に関係する音声情報の前記音量制御レベルの設定値に対応させた図形幅を有するバー図形を表示する手段と、前記フイルムイメージ状に表示した画像列と前記バー図形を並べて配置する手段と、前記バー図形の図形幅を変更する手段とを有することを特徴とする動画像音声編集装置。Means for selecting a plurality of frame-by-frame image sequences to be edited from the moving image information, means for displaying the image sequences in a film image form, and the volume control level of the audio information related to the image sequences. Means for displaying a bar graphic having a graphic width corresponding to a set value; means for arranging the bar graphic side by side with the image sequence displayed in the form of a film image; and means for changing the graphic width of the bar graphic. A moving image audio editing apparatus comprising:
JP31569097A 1996-11-15 1997-11-17 Image editing method and image editing apparatus Expired - Lifetime JP3687942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31569097A JP3687942B2 (en) 1996-11-15 1997-11-17 Image editing method and image editing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-304945 1996-11-15
JP30494596 1996-11-15
JP31569097A JP3687942B2 (en) 1996-11-15 1997-11-17 Image editing method and image editing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005125127A Division JP2005278212A (en) 1996-11-15 2005-04-22 Image editing method and image editing system

Publications (2)

Publication Number Publication Date
JPH10200855A JPH10200855A (en) 1998-07-31
JP3687942B2 true JP3687942B2 (en) 2005-08-24

Family

ID=26564102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31569097A Expired - Lifetime JP3687942B2 (en) 1996-11-15 1997-11-17 Image editing method and image editing apparatus

Country Status (1)

Country Link
JP (1) JP3687942B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4103192B2 (en) * 1998-09-17 2008-06-18 ソニー株式会社 Editing system and editing method
WO2002082379A1 (en) 2001-04-05 2002-10-17 Fujitsu Limited Information processing device, information processing method, medium, and program
TW520602B (en) 2001-06-28 2003-02-11 Ulead Systems Inc Device and method of editing video program
JP4582427B2 (en) * 2008-04-02 2010-11-17 ソニー株式会社 Image editing apparatus and method
US8276074B2 (en) * 2008-05-15 2012-09-25 Apple Inc. User interfaces for editing video clips
EP3557415B1 (en) 2018-04-17 2024-07-10 Casio Computer Co., Ltd. Display control apparatus, program and display controlling method
KR20230037329A (en) * 2021-09-09 2023-03-16 네이버 주식회사 Computer system for rendering event-customized audiod content, and method thereof
CN115460455B (en) * 2022-09-06 2024-02-09 上海硬通网络科技有限公司 Video editing method, device, equipment and storage medium

Also Published As

Publication number Publication date
JPH10200855A (en) 1998-07-31

Similar Documents

Publication Publication Date Title
US6154601A (en) Method for editing image information with aid of computer and editing system
JP2775127B2 (en) Video editing operation interface method
US6292620B1 (en) Edited-list creating apparatus, editing apparatus and editing method
US7055100B2 (en) Editing system, editing method, clip management apparatus, and clip management method
EP0843311A2 (en) Method for editing image information with aid of computer and editing system
JPH11203837A (en) Editing system and method therefor
JP4168334B2 (en) Editing apparatus and editing method
JPH1175150A (en) Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation
JP3773229B2 (en) Moving image display method and apparatus
JP3687942B2 (en) Image editing method and image editing apparatus
JP3419645B2 (en) Moving image editing method
JP3791869B2 (en) Image editing method, image editing apparatus, and medium storing program for causing computer to execute image editing processing operation
JP2005278212A (en) Image editing method and image editing system
JPH05242143A (en) Multi-media presentation system
JP4281120B2 (en) Editing apparatus and method, and recording medium
JP4108086B2 (en) Moving image display method and apparatus
JPH1098675A (en) Image editing device
JP4102944B2 (en) Editing apparatus and method, and recording medium
JP4077525B2 (en) Multimedia information reproducing apparatus and multimedia information recording apparatus
JP4101258B2 (en) Image editing method, image editing apparatus, and medium storing program for causing computer to execute image editing processing operation
JP4281121B2 (en) Editing apparatus and method, and recording medium
JPH09116860A (en) Moving image range selection method and video editing device
JP5050424B2 (en) Effect switcher and control method of video playback device in effect switcher
JP4891520B2 (en) Video editing device
JP3923630B2 (en) Non-linear video editing system with batch digitizing function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050606

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090617

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100617

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110617

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120617

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130617

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 9

EXPY Cancellation because of completion of term