JP4009922B2 - Editing apparatus and editing method - Google Patents

Editing apparatus and editing method Download PDF

Info

Publication number
JP4009922B2
JP4009922B2 JP15975299A JP15975299A JP4009922B2 JP 4009922 B2 JP4009922 B2 JP 4009922B2 JP 15975299 A JP15975299 A JP 15975299A JP 15975299 A JP15975299 A JP 15975299A JP 4009922 B2 JP4009922 B2 JP 4009922B2
Authority
JP
Japan
Prior art keywords
video
time
displayed
data
clip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15975299A
Other languages
Japanese (ja)
Other versions
JP2000348469A (en
Inventor
重哉 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP15975299A priority Critical patent/JP4009922B2/en
Priority to US09/587,438 priority patent/US6618058B1/en
Publication of JP2000348469A publication Critical patent/JP2000348469A/en
Application granted granted Critical
Publication of JP4009922B2 publication Critical patent/JP4009922B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal

Description

【0001】
【発明の属する技術分野】
本発明は編集装置及び編集方法に関し、例えば1つの撮像対象を複数のビデオカメラを用いて様々な角度から撮像した各映像を編集し得るようになされた編集システムに適用して好適なものである。
【0002】
【従来の技術】
従来、この種の編集システムとしては、編集装置及びビデオサーバから構成されたものがあり、編集装置は、ビデオサーバに記憶されている映像データの中からオペレータによって順次指定された映像をそれぞれクリップとして登録し、当該登録した各クリップ同士の順番や、繋ぎ合わせ方などの編集内容を規定する編集リストを作成するようにして、当該編集リストに基づきビデオサーバを制御することによりいわゆるノンリニア編集を行うようになされている。
【0003】
【発明が解決しようとする課題】
ところでこの編集システムでは、例えばビデオカメラを用いて固有のタイムコードに基づいて撮像した撮像結果としての映像データを、所定の入力処理を施した後、当該映像データに付随する所定のテキストデータと共にビデオサーバに記録するようになされている。
【0004】
従って例えばこのビデオカメラを複数用いて、1つの撮像対象を様々な角度から撮像した場合、当該撮像された各映像は、それぞれ個別のタイムコードに基づいて撮像されることになる。
【0005】
しかしながらかかる編集システムでは、このように1つの撮像対象について各ビデオカメラで撮像した各映像を編集する場合、当該各映像の時間的経過の同期がとれていないため、各映像の時間的相関関係を把握するのが困難な問題があった。
【0006】
このため例えばこの撮像対象がカーレース等の一連のシーンである場合、各映像データの中から選出したクリップの映像がそれぞれどの場面のどの部分であるか把握し難く、当該クリップ同士の時間的なタイミングを合わせるのが困難な問題があった。
【0007】
またこの編集システムでは、編集リストを作成する際、選出したクリップ同士を時間軸上で一本に連なったタイムラインを形成するように繋ぎ合わせて表示するため、クリップ同士の繋ぎ目が判り難くなる問題もあった。
【0008】
本発明は以上の点を考慮してなされたもので、編集の作業効率を格段的に向上させ得る編集装置及び編集方法を提案しようとするものである。
【0009】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、編集装置において、複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1の表示手段と、表示された各タイムラインのうち、時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2の表示手段と、表示された各映像の中から時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3の表示手段とを設け、第3の表示手段では、指定された所望部分を構成する各撮像結果に応じたクリップの中から所望するクリップのみが選択されるようにした。
【0010】
この結果この編集装置では、各映像の中から時間軸上で順次指定された所望部分の映像ごとに抽出するクリップ同士の時間的相関関係を容易に把握することができる。
【0011】
また本発明においては、編集方法において、複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1のステップと、表示された各タイムラインのうち、時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2のステップと、表示された各映像の中から時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3のステップと、指定された所望部分を構成する各撮像結果に応じたクリップの中から選択されたクリップのみを表示する第4のステップとを設けるようにした。
【0012】
この結果この編集方法では、各映像の中から時間軸上で順次指定された所望部分の映像ごとに抽出するクリップ同士の時間的相関関係を容易に把握することができる。
【0013】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0014】
(1)本実施の形態による編集システムの構成
図1において、1は全体として本実施の形態による編集システムを示し、撮像装置2の複数のビデオカメラ2A〜2Dによって例えば1つの撮像対象を様々な角度から撮像されてなる各映像データD1〜D4を例えばMPEG2(Moving Picture Experts Group Phase 2)等の規格に基づいてそれぞれ圧縮符号化し、これらをそれぞれエンコードデータD5〜D8としてディスクアレイ構成の記録再生部を有するAV(Audio Video )サーバでなるビデオサーバ3に格納する。
【0015】
またこのときビデオサーバ3には、図示しないテキストデータ入力部からオペレータにより入力された各映像データD1〜D4のタイトルや、ID、取材日、取材場所等のテキスト情報がテキストデータDT1〜DT4として与えられる。かくしてビデオサーバ3は、これら映像データD1〜D4のテキストデータDT1〜DT4を順次データベース化して格納する。
【0016】
そしてビデオサーバ3に格納された各映像データD1〜D4のエンコードデータD5〜D8及び対応するテキストデータDT1〜DT4は、編集装置4のプロセッサ5を用いてオペレータにより必要に応じて読み出すことができる。
【0017】
実際上このプロセッサ5は、データ検索及び選択モード時、操作部6にオペレータによって所望する映像データD1〜D4のID等の検索条件が入力され、その映像データD1〜D4の検索命令が入力されると、ビデオサーバ3に格納されている各映像データD1〜D4のテキスト情報のデータベースに基づいて対応する映像データD1〜D4を検索し、検索により選出した当該映像データD1〜D4のテキストデータDT1〜DT4を読み出させる。
【0018】
またプロセッサ5は、検索結果に基づいて対応する映像データD1〜D4のエンコードデータD5〜D8をビデオサーバ3に読み出させ、当該エンコードデータD5〜D8と、テキストデータDT1〜DT4とに基づいて対応する各映像データD1〜D4の映像をそれぞれモニタ部7に例えば当該映像数分、分割して表示させると共に、一部のテキスト情報を液晶ディスプレイ8に表示させる。
【0019】
この結果オペレータは、このモニタ部7と液晶ディスプレイ8とに表示された対応する映像データD1〜D4の映像と、テキスト情報とに基づいて所望する映像を選択することができる。
【0020】
さらにプロセッサ5は、データ検索及び選択モードに続く編集リスト作成モード時、上述のようにして選択された映像データD1〜D4の再生命令が入力されると、ビデオサーバ3に映像データD1〜D4のエンコードデータD5〜D8及びテキストデータDT1〜DT4を読み出させ、当該エンコードデータD5〜D8に基づく映像をそれぞれモニタ部7に当該映像数分分割表示させると共に、当該テキストデータDT1〜DT4に基づくテキスト情報の一部を液晶ディスプレイ8に表示させる。
【0021】
この結果オペレータは、モニタ部7に表示された各映像を目視しながら液晶ディスプレイ8に表示されるテキスト情報に基づいて操作部6を操作することにより、イン点及びアウト点を指定するようにして当該映像データD1〜D4の映像の中から所望部分をそれぞれクリップとして順次登録することができる。
【0022】
またオペレータは、このようにして登録した各クリップをどのような順番でどのように繋ぎ合わせるかといった編集内容を規定した編集リストをプロセッサ5を用いて作成することができ、このようにして作成された編集リストのデータ(以下、これを編集リストデータと呼ぶ)がプロセッサ5から編集処理系(図示せず)に与えられ、当該編集処理系において編集リストデータに基づいて実際の編集処理が実行される。
【0023】
(2)撮像部2のビデオカメラ2A〜2Dの構成
ここで実際上撮像部2のビデオカメラ2A〜2Dは、それぞれ例えば図2に示すように構成されており、外部の制御部10の制御に基づいて撮像部2A1、2B1、2C1及び2D1によって撮像した撮像対象の映像を撮像信号S1A、S1B、S1C及びS1Dとして対応する記録信号処理部2A2、2B2、2C2及び2D2に与える。
【0024】
記録信号処理部2A2〜2D2は、与えられる撮像信号S1A〜S1Dに対して所定の信号処理を施した後、これを記録処理信号S2A、S2B、S2C及びS2Dとしてそれぞれ対応する磁気テープや、DVD(Disital Vidio Disc)、ハードディスク等でなる記録媒体2A3、2B3、2C3及び2D3に与える。
【0025】
このとき各記録媒体2A3〜2D3には、それぞれ対応するタイムコード生成部2A4、2B4、2C4及び2D4からタイムコード信号S3が与えられており、当該各タイムコード生成部2A4〜2D4では、外部の制御部10の制御により外部の基準クロック生成部11から基準クロック信号CLKが与えられることに基づいて、各ビデオカメラ2A〜2Dにそれぞれ同期したタイムコードを生成している。
【0026】
因みにこの実施の場合、各タイムコード生成部2A4〜2D4は時計でなり、これらは全て基準クロック生成部から与えられる基準クロック信号CLKに基づいて同期することにより、同時刻を刻むようになされている。
【0027】
これにより記録媒体2A3〜2D3では、記録信号処理部2A2〜2D2から与えられた記録処理信号S2A〜S2Dと、タイムコード生成部2A4〜2D4から与えられるタイムコード信号S3とを一体に記録信号S4A、S4B、S4C及びS4Dとして記録する。
【0028】
また記録媒体2A3〜2D3では、それぞれ外部の制御部10の制御に基づき必要に応じて記録している記録信号S4A〜S4Dを読み出し、これを再生信号処理部2A5、2B5、2C5及び2D5に与える。
【0029】
これにより再生信号処理部2A5〜2D5は、それぞれ対応して与えられる記録信号S4A〜S4Dに対して所定の信号処理を施し、得られた映像データD1〜D4を編集システム1のビデオサーバ3に与える。
【0030】
このようにして各ビデオカメラ2A〜2Dでは、それぞれ撮像した撮像対象の映像をそれぞれ同期したタイムコード信号S3と一体に記録すると共に、必要に応じてこれを読み出し、再生するようになされている。
【0031】
(3)編集装置4のプロセッサ5の構成
ここで編集装置4のプロセッサ5は、図3に示すように、CPU(Central Processing Unit )20、ROM(Read Only Memory)21、RAM(Random Access Memory)22、表示処理回路23、信号処理回路24、インターフェース回路25、26及びSCSI(Small Computer System Interface )インターフェース回路27がCPUバス28を介して接続されることにより構成されており、各インターフェース回路25、26をそれぞれ介して操作部6及びビデオサーバ3と接続され、SCSIインターフェース回路27を介してハードディスク装置29と接続されている。
【0032】
この場合CPU20は、ROM21に格納されたプログラムに基づいて、必要に応じてROM21内の画像データを読み出し、これを表示処理回路23を介して映像信号S10として液晶ディスプレイ8に与えることにより、GUI画面30や、操作部6を介して入力された数字や文字等を液晶ディスプレイ8に表示させる。
【0033】
またCPU20は、操作部6が操作されることにより第1のインターフェース回路25を介して所定処理の実行命令が与えられると、ROM21に格納されたプログラムに基づいて、必要に応じて第2のインターフェース回路26を介してビデオサーバ3にアクセスすることにより必要な映像データD1〜D4のエンコードデータD5〜D8やそのテキストデータDT1〜DT4を再生させる。
【0034】
さらにCPU20は、このようにしてビデオサーバ3に再生させた映像データD1〜D4のエンコードデータD5〜D8及びテキストデータDT1〜DT4を信号処理回路24及び第2のインターフェース回路26を介して取り込み、エンコードデータD5〜D8を当該信号処理回路24においてMPEG2等の規格に基づいて復号化し、デコードデータD9〜D12を得る。
【0035】
そしてCPU20は、このデコードデータD9〜D12及びテキストデータDT1〜DT4を表示処理回路23を介して、それぞれ映像信号S11、S12としてモニタ7及び液晶ディスプレイ8に与えることにより、対応する映像データD1〜D4の映像及びこれに対応するテキスト情報をモニタ7及び液晶ディスプレイ8に表示させる。
【0036】
さらにCPU20は、このようにして得られた映像データD1〜D4のデコードデータD9〜D12及び対応するテキストデータDT1〜DT4をSCSIインターフェース回路27を介して必要に応じてハードディスク装置29に格納し、又当該ハードディスク装置29に格納した映像素材のデコードデータD9〜D12及び対応するテキストデータDT1〜DT4をSCSIインターフェース回路27を介して必要に応じて読み出す。
【0037】
実際上液晶ディスプレイ8に表示されるテキスト情報は、図4に示すように、オペレータにより選択された各映像データD1〜D4のテキストデータDT1〜DT4に基づく当該各映像データD1〜D4の全撮像時間などの撮像内容がそれぞれタイムコード信号S3に基づくタイムラインでなるタイムデータDTIME1〜DTIME4Bとして同一時間軸上にそれぞれ並列に表示されるデータ表示エリア30Aと、このデータ表示エリア30Aにおいてオペレータにより指定された各映像データD1〜D4の所望部分がクリップとしてそれぞれ所定のタイムラインを用いて並列したAロール側とBロール側とに順次交互に表示するABロール形式で表示されるクリップ表示エリア30BとからなるGUI(Graphical User Interface)画面30により構成されている。
【0038】
因みにデータ表示エリア30Aは、ビデオカメラ2A〜2Dの時計に基づく時間表示であるため、この実施の形態の場合、約18時から21時過ぎまでの撮像時間を示している。
【0039】
そしてオペレータは、編集リスト作成モード時、図5(A)に示すように、データ表示エリア30A上で約18時から21時過ぎまで表示されている各映像データD1〜D4のタイムデータDTIME1〜DTIME4Bの中から所望する時間帯の映像を、対応してモニタ7に4分割画面で表示されている各映像データD1〜D4の映像を目視しながらイン点PIN1及びアウト点POUT 1を指定するようにしてクリップ群C1として抽出する。
【0040】
このときこのイン点PIN1及びアウト点POUT 1によって指定された領域は、別表示されるようになされている。
【0041】
これにより抽出されたクリップ群C1は、クリップ表示エリア30BのAロール側にタイムデータDTIME1〜DTIME4Bの時間に対応させた長さのタイムラインを用いてクリップC1A、C1B、C1C及びC1Dとして表示される。
【0042】
このような手順を順次繰り返すようにしてオペレータは、図5(B)に示すように、データ表示エリア30A上のタイムデータDTIME1〜DTIME4Bの中から所望する時間帯の映像を順次イン点PIN2、PIN3及びアウト点POUT 2、POUT 3を指定するようにしてクリップ群C2、C3として抽出する。
【0043】
これによりこれらクリップ群C2、C3は、クリップ表示エリア30BのBロール側及びAロール側に順次交互にクリップC2A〜C2C並びにC3A、C3B及びC3Dとして表示される。
【0044】
このときクリップ表示エリア30Bに表示されるクリップ群C1〜C3の各クリップC1A〜C3Dの長さは、それぞれデータ表示エリア30Aにおいて指定したイン点PIN1〜PIN3及びアウト点POUT 1〜POUT 3間の時間に比例すると共に、それぞれ繋ぎ合わせ用ののりしろとして前後に所定の時間分(5秒程度)長く設定されている。
【0045】
この後オペレータは、図6に示すように、クリップ表示エリア30BにABロール形式で所定状態に並べられて繋ぎ合わされた各クリップ群C1〜C3に対応してモニタ7に表示される当該各クリップC1A〜C3Dの映像を目視しながら、当該各クリップ群C1〜C3毎にその中で所望のクリップC1A〜C3Dの映像を選択し、これらをどのタイミングで切り換えるか順次スイッチングポイントPSW1〜PSW4を用いて指定する。
【0046】
このときオペレータによって指定されたクリップC1A〜C3Dは、別表示されるようになされている。
【0047】
因みにこの編集システム1では、繋ぎ合わされたクリップ群C1〜C3の中でこれらスイッチングポイントPSW1〜PSW4を移動したり、追加したり又は消去したりすることにより、この繋ぎ合わされたクリップ群C1〜C3の時間の流れを保ったまま簡単に編集し得るようになされている。
【0048】
このようにして編集システム1では、オペレータがGUI画面30を用いてビデオサーバ3に格納されている映像データの中から所望の映像データD1〜D4を選出した後、当該各映像データD1〜D4の中から所望部分をクリップ群C1〜C3として抽出する際、当該各映像データD1〜D4をタイムコード信号S3に基づいて同一時間軸上に並列に並べることができる分、抽出するクリップ群C1〜C3同士の時間的相関関係を容易に把握することができると共に、クリップ群C1〜C3同士がタイムコード信号S3に基づいて同期しているため、当該クリップ群C1〜C3同士の時間的なタイミングを容易に合わせることができる。
【0049】
(4)CPU20の編集リスト作成処理手順
ここで実際上プロセッサ5のCPU20は、編集リスト作成モード時、図7に示す編集リスト作成処理手順RT1に従って上述のような映像データD1〜D4の編集処理を実行する。
【0050】
すなわちCPU20は、オペレータによりビデオサーバ3に格納されている映像データの中から所望の映像データD1〜D4が指定され、それらの再生命令が入力されると、この編集リスト作成処理手順RT1をステップSP0において開始し、続くステップSP1において、液晶ディスプレイ8のGUI画面30のデータ表示エリア30Aに当該映像データD1〜D4の所要時間を対応するテキストデータDT1〜DT4に基づいて同一時間軸に同期させて並列に表示させる。
【0051】
この後CPU20は、次のステップSP2に進んでオペレータによりデータ表示エリア30Aの映像データD1〜D4の中から所望部分をイン点PIN1及びアウト点POUT 1を用いて指定する命令が入力されると、これをクリップ群C1として抽出し、続くステップSP3に進む。
【0052】
そしてCPU20は、ステップSP3においてステップSP2で抽出したクリップ群C1を対応するタイムラインを用いてクリップC1A〜C1Dとしてクリップ表示エリア30Bに表示させ、ステップSP4に進んでデータ表示エリア30Aの映像データD1〜D4からクリップを抽出するのを終了するか否かを判断する。
【0053】
そしてCPU20は、ステップSP4においてオペレータによるクリップを抽出するためのイン点PIN2及びアウト点POUT 2の指定命令が入力されることにより否定結果を得ると、ステップSP2に戻り、この後ステップSP4において肯定結果を得るまでステップSP2−SP3−SP4のループを繰り返し、やがてオペレータによってクリップの抽出を終了する命令が入力されることによりステップSP4において肯定結果を得ると、次のステップSP5に進む。
【0054】
このときCPU20は、ステップSP2−SP3−SP4のループを繰り返して抽出したクリップ群C1〜C3を順次クリップ表示エリア30BにABロール形式でAロール側から交互になるように表示させることにより、当該抽出したクリップ群C1〜C3を所定状態に繋ぎ合わせる。
【0055】
そしてCPU20は、ステップSP5においてオペレータにより繋ぎ合わせた各クリップ群C1〜C3の中でどの映像を選択し、これをどのタイミングで切り換えるかを指定する命令が入力されると、当該各クリップ群C1〜C3の指定された位置にスイッチングポイントPSW1〜PSW4を設け各領域ごとに区分すると共に、当該領域内で指定された映像に対応するクリップC1A〜C3Dを指示する。
【0056】
そしてCPU20は、この後ステップSP6に進んでこの編集リスト作成処理手順RT1を終了する。
【0057】
(5)本実施の形態の動作及び効果
以上の構成において、この編集システム1では、複数のビデオカメラ2A〜2Dを用いて一つの撮像対象を様々な角度からそれぞれ同期したタイムコード信号S3を付加して撮像しておく。
【0058】
そして編集システム1は、編集リスト作成モード時、撮像結果としての映像データD1〜D4をそれぞれタイムコード信号S3に基づいてタイムデータDTIME1〜DTIME4Bに変換してGUI画面30のデータ表示エリア30Aに同一時間軸上で並列に表示させる。
【0059】
またこの編集システム1では、データ表示エリア30Aに表示されるタイムデータDTIME1〜DTIME4Bの中から時間軸上で順次指定された所望部分に対応する映像ごとに抽出されるクリップC1A〜C3Dをそれぞれ当該所望部分に対応するクリップC1A〜C3Dごとにクリップ群C1〜C3としてクリップ表示エリア30BにABロール形式で表示させて繋ぎ合わせる。
【0060】
従ってこの編集システム1では、各クリップC1A〜C3Dの時間的相関関係を容易に把握することができると共に、繋ぎ合わせるクリップ群C1〜C3同士の繋ぎ目を明確にすることができる。
【0061】
以上の構成によれば、この編集システム1では、編集リスト作成モード時、複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換してデータ表示エリア30Aに並列に表示させるようにしたことにより、当該各映像の中から時間軸上で順次指定された所望部分の映像ごとに抽出するクリップ同士の時間的相関関係を容易に把握することができ、かくして編集の作業効率を格段的に向上させ得る編集システム1を実現することができる。
【0062】
(6)他の実施の形態
なお上述の実施の形態においては、本発明を編集システム1に適用するようにした場合について述べたが、本発明はこれに限らず、要は映像データの中から選出したクリップ同士の時間的相関関係が容易に把握することができるようになされたこの他種々の編集装置に広く適用することができる。
【0063】
また上述の実施の形態においては、ビデオサーバ3に格納する映像データとして、ビデオカメラ2A〜2Dを用いて撮像した映像データD1〜D4を用いるようにした場合について述べたが、本発明はこれに限らず、要はそれぞれ同期したタイムコードに基づいて撮像された複数の映像データであれば、ビデオサーバ3に格納する映像データとしては、この他種々のものを広く適用することができる。
【0064】
さらに上述の実施の形態においては、GUI画面30のデータ表示エリア30Aと、クリップ表示エリア30Bとを図4に示すように表示するようにした場合について述べたが、本発明はこれに限らず、GUI画面30の表示方法としては、この他種々の表示方法を広く適用することができる。
【0065】
さらに上述の実施の形態においては、モニタ7における映像の表示方法として、オペレータによりビデオサーバ3に格納されている映像データD1〜D4の中から選択された映像データD1〜D4に基づく映像数分分割表示するようにした場合について述べたが、本発明はこれに限らず、映像データD1〜D4の映像の表示方法としては、この他種々の表示方法を適用することができ、例えば選択した映像データD1〜D4の映像数分モニタ7を容易してそれぞれに対応する当該映像を表示するようにしても良い。
【0066】
さらに上述の実施の形態においては、ビデオカメラ2A〜2Dのタイムコード生成部2A4〜2D4として時計を用いるようにした場合について述べたが、本発明はこれに限らず、要は、基準クロック信号CLKに基づいてそれぞれ同期したタイムコードを生成するものであれば、タイムコード生成部2A4〜2D4としては、この他種々のものを広く適用することができる。
【0067】
【発明の効果】
上述のように本発明によれば、編集装置において、複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1の表示手段と、表示された各タイムラインのうち、時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2の表示手段と、表示された各映像の中から時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3の表示手段とを設け、第3の表示手段では、指定された所望部分を構成する各撮像結果に応じたクリップの中から所望するクリップのみが選択されるようにしたことにより、各映像の中から時間軸上で順次指定された所望部分の映像ごとに抽出するクリップ同士の時間的相関関係を容易に把握することができ、かくして編集の作業効率を格段的に向上させ得る編集装置を実現することができる。
【0068】
また本発明によれば、編集方法において、複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1のステップと、表示された各タイムラインのうち、時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2のステップと、表示された各映像の中から時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3のステップと、指定された所望部分を構成する各撮像結果に応じたクリップの中から選択されたクリップのみを表示する第4のステップとを設けるようにしたことにより、各映像の中から時間軸上で順次指定された所望部分の映像ごとに抽出するクリップ同士の時間的相関関係を容易に把握することができ、かくして編集の作業効率を格段的に向上させ得る編集方法を実現することができる。
【図面の簡単な説明】
【図1】本実施の形態による編集システムの全体構成を示すブロック図である。
【図2】ビデオカメラの構成を示すブロック図である。
【図3】プロセッサの構成を示すブロック図である。
【図4】GUI画面の構成を示す略線図である。
【図5】GUI画面における編集リスト作成の様子を示す略線図である。
【図6】GUI画面における編集リスト作成の様子を示す略線図である。
【図7】編集リスト作成処理手順を示すフローチャートである。
【符号の説明】
1……編集システム、2……撮像装置、2A〜2D……ビデオカメラ、2A1〜2D1……撮像部、2A2〜2D2……記録信号処理部、2A3〜2D3……記録媒体、2A4〜2D4……タイムコード生成部、2A5〜2D5……再生信号処理部、3……ビデオサーバ、4……編集装置、5……プロセッサ、6……操作部、7……モニタ、8……液晶ディスプレイ、10……制御部、11……基準クロック生成部、20……CPU、21……ROM、22……RAM、23……表示処理回路、24……信号処理回路、25、26……インターフェース回路、27……SCSIインターフェース回路、28……CPUバス、29……ハードディスク装置、30……GUI画面、30A……データ表示エリア、30B……クリップ表示エリア、C1〜C3……クリップ群、C1A〜C3D……クリップ、D1〜D4……映像データ、D5〜D8……エンコードデータ、DT1〜DT4……テキストデータ、DTIME1〜DTIME4B……タイムデータ、PIN1〜PIN3……イン点、POUT 1〜POUT 3……アウト点、PSW1〜PSW4……スイッチングポイント、RT1……編集リスト作成処理手順。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an editing apparatus and an editing method, and is suitable for application to an editing system configured to be able to edit each video imaged from various angles using, for example, a plurality of video cameras. .
[0002]
[Prior art]
Conventionally, this type of editing system includes an editing device and a video server, and the editing device clips each of the images sequentially specified by the operator from the video data stored in the video server. Create an edit list that defines the edit contents such as the order of each registered clip and how to connect them, and perform so-called nonlinear editing by controlling the video server based on the edit list Has been made.
[0003]
[Problems to be solved by the invention]
By the way, in this editing system, for example, video data obtained as a result of imaging based on a specific time code using a video camera is subjected to predetermined input processing, and then video together with predetermined text data associated with the video data. It is made to record on the server.
[0004]
Therefore, for example, when a plurality of video cameras are used and one imaging target is imaged from various angles, each captured image is captured based on an individual time code.
[0005]
However, in such an editing system, when each video image captured by each video camera for one imaging target is edited in this way, since the time course of each video image is not synchronized, the temporal correlation of each video image is determined. There was a problem that was difficult to grasp.
[0006]
For this reason, for example, when this imaging target is a series of scenes such as car races, it is difficult to grasp which part of each scene the video of the clip selected from each video data. There was a problem that it was difficult to adjust the timing.
[0007]
Also, in this editing system, when creating an edit list, the selected clips are connected and displayed so as to form a timeline that is continuous on the time axis, making it difficult to understand the connection between clips. There was also a problem.
[0008]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose an editing apparatus and an editing method that can greatly improve the work efficiency of editing.
[0009]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, in the editing apparatus, each video based on a plurality of imaging results is respectively set to a timeline based on a time code added in synchronization with each video on the same time axis. First display means for converting and displaying, second display means for displaying each video corresponding to a time code designated on the time axis among the displayed timelines, and each displayed video For each desired portion of the image sequentially specified on the time axis, and a third display means for displaying the image as a clip. In the third display means, each imaging result constituting the specified desired portion is provided. Only the desired clip is selected from the clips according to.
[0010]
As a result, in this editing apparatus, it is possible to easily grasp the temporal correlation between clips extracted for each video of a desired portion sequentially designated on the time axis from each video.
[0011]
In the present invention, in the editing method, each video based on a plurality of imaging results is converted into a timeline based on a time code added in synchronization with each video on the same time axis and displayed. A first step, a second step of displaying each video corresponding to a time code specified on the time axis among the displayed timelines, and a time axis from among the displayed videos. A third step of displaying each of the images of the desired portion sequentially designated as a clip, and a fourth step of displaying only the clip selected from the clips corresponding to the respective imaging results constituting the designated desired portion. And steps.
[0012]
As a result, with this editing method, it is possible to easily grasp the temporal correlation between clips extracted for each video of a desired portion sequentially designated on the time axis from each video.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0014]
(1) Configuration of editing system according to this embodiment
In FIG. 1, reference numeral 1 denotes an editing system according to the present embodiment as a whole, and each video data D1 to D4 obtained by imaging a single imaging target from various angles by a plurality of video cameras 2A to 2D of the imaging apparatus 2, for example. A video server composed of an AV (Audio Video) server having a recording / reproducing unit having a disk array configuration, each of which is compressed and encoded based on a standard such as MPEG2 (Moving Picture Experts Group Phase 2), for example, and encoded data D5 to D8, respectively. 3 is stored.
[0015]
At this time, the video server 3 is provided with text information DT1 to DT4 as text data DT1 to DT4, such as the title of each video data D1 to D4 input by an operator from a text data input unit (not shown), ID, date of coverage, and location of coverage. It is done. Thus, the video server 3 sequentially stores the text data DT1 to DT4 of the video data D1 to D4 as a database.
[0016]
The encoded data D5 to D8 of the video data D1 to D4 and the corresponding text data DT1 to DT4 stored in the video server 3 can be read as necessary by the operator using the processor 5 of the editing device 4.
[0017]
In practice, in the processor 5 in the data search and selection mode, a search condition such as an ID of video data D1 to D4 desired by the operator is input to the operation unit 6 and a search command for the video data D1 to D4 is input. The corresponding video data D1 to D4 is searched based on the text information database of each video data D1 to D4 stored in the video server 3, and the text data DT1 to DT1 of the video data D1 to D4 selected by the search is retrieved. Read DT4.
[0018]
Further, the processor 5 causes the video server 3 to read out the encoded data D5 to D8 of the corresponding video data D1 to D4 based on the search result, and responds based on the encoded data D5 to D8 and the text data DT1 to DT4. Each of the video data D1 to D4 to be displayed is divided and displayed on the monitor unit 7 by the number of the videos, for example, and some text information is displayed on the liquid crystal display 8.
[0019]
As a result, the operator can select a desired video based on the video of the corresponding video data D1 to D4 displayed on the monitor unit 7 and the liquid crystal display 8 and the text information.
[0020]
Further, in the edit list creation mode following the data search and selection mode, the processor 5 inputs the video data D1 to D4 to the video server 3 when a playback command for the video data D1 to D4 selected as described above is input. The encoded data D5 to D8 and the text data DT1 to DT4 are read, and the video based on the encoded data D5 to D8 is divided and displayed on the monitor unit 7 by the number of the videos, and the text information based on the text data DT1 to DT4. Is displayed on the liquid crystal display 8.
[0021]
As a result, the operator operates the operation unit 6 based on the text information displayed on the liquid crystal display 8 while visually observing each image displayed on the monitor unit 7 so as to designate the in point and the out point. Desired portions can be sequentially registered as clips from the video data D1 to D4.
[0022]
In addition, the operator can create an edit list that defines the editing contents such as how and in what order the clips registered in this way are connected, and is created in this way. Edit list data (hereinafter referred to as edit list data) is provided from the processor 5 to an edit processing system (not shown), and the edit processing system performs actual editing processing based on the edit list data. The
[0023]
(2) Configuration of video cameras 2A to 2D of the imaging unit 2
Here, the video cameras 2A to 2D of the imaging unit 2 are actually configured as shown in FIG. 2, for example, and images are taken by the imaging units 2A1, 2B1, 2C1, and 2D1 based on the control of the external control unit 10. The video to be imaged is given to the corresponding recording signal processing units 2A2, 2B2, 2C2 and 2D2 as the imaging signals S1A, S1B, S1C and S1D.
[0024]
The recording signal processing units 2A2 to 2D2 perform predetermined signal processing on the applied image pickup signals S1A to S1D, and then perform recording signal processing S2A, S2B, S2C, and S2D on the corresponding magnetic tape or DVD ( Distal Vidio Disc) and recording media 2A3, 2B3, 2C3, and 2D3 including hard disks.
[0025]
At this time, each of the recording media 2A3 to 2D3 is provided with the time code signal S3 from the corresponding time code generators 2A4, 2B4, 2C4, and 2D4, and each of the time code generators 2A4 to 2D4 has an external control. The time code synchronized with each of the video cameras 2 </ b> A to 2 </ b> D is generated based on the reference clock signal CLK supplied from the external reference clock generation unit 11 under the control of the unit 10.
[0026]
Incidentally, in this embodiment, each of the time code generation units 2A4 to 2D4 is a clock, and all of them are synchronized on the basis of the reference clock signal CLK given from the reference clock generation unit so as to keep the same time.
[0027]
Thereby, in the recording media 2A3 to 2D3, the recording processing signals S2A to S2D given from the recording signal processing units 2A2 to 2D2 and the time code signal S3 given from the time code generating units 2A4 to 2D4 are integrated into the recording signal S4A, Record as S4B, S4C and S4D.
[0028]
Further, in the recording media 2A3 to 2D3, the recording signals S4A to S4D recorded as necessary are read based on the control of the external control unit 10, and are supplied to the reproduction signal processing units 2A5, 2B5, 2C5 and 2D5.
[0029]
As a result, the reproduction signal processing units 2A5 to 2D5 perform predetermined signal processing on the corresponding recording signals S4A to S4D, and give the obtained video data D1 to D4 to the video server 3 of the editing system 1. .
[0030]
In this manner, each of the video cameras 2A to 2D records the imaged images to be imaged together with the synchronized time code signal S3, and reads and reproduces them as necessary.
[0031]
(3) Configuration of the processor 5 of the editing device 4
Here, the processor 5 of the editing device 4 includes a CPU (Central Processing Unit) 20, a ROM (Read Only Memory) 21, a RAM (Random Access Memory) 22, a display processing circuit 23, and a signal processing circuit 24, as shown in FIG. , Interface circuits 25 and 26 and a SCSI (Small Computer System Interface) interface circuit 27 are connected via a CPU bus 28, and the operation unit 6 and the video server are connected via the interface circuits 25 and 26, respectively. 3 and a hard disk device 29 via a SCSI interface circuit 27.
[0032]
In this case, the CPU 20 reads out the image data in the ROM 21 as necessary based on the program stored in the ROM 21, and gives it to the liquid crystal display 8 as the video signal S 10 through the display processing circuit 23. 30 and numbers and characters input via the operation unit 6 are displayed on the liquid crystal display 8.
[0033]
In addition, when an operation command for a predetermined process is given through the first interface circuit 25 by operating the operation unit 6, the CPU 20 is provided with a second interface as needed based on a program stored in the ROM 21. By accessing the video server 3 via the circuit 26, the necessary encoded data D5 to D8 of the video data D1 to D4 and the text data DT1 to DT4 are reproduced.
[0034]
Further, the CPU 20 takes in the encoded data D5 to D8 and the text data DT1 to DT4 of the video data D1 to D4 reproduced by the video server 3 through the signal processing circuit 24 and the second interface circuit 26 and encodes them. Data D5 to D8 are decoded by the signal processing circuit 24 based on a standard such as MPEG2 to obtain decoded data D9 to D12.
[0035]
The CPU 20 supplies the decoded data D9 to D12 and the text data DT1 to DT4 to the monitor 7 and the liquid crystal display 8 as the video signals S11 and S12 through the display processing circuit 23, respectively, thereby corresponding video data D1 to D4. And the text information corresponding thereto are displayed on the monitor 7 and the liquid crystal display 8.
[0036]
Further, the CPU 20 stores the decoded data D9 to D12 of the video data D1 to D4 thus obtained and the corresponding text data DT1 to DT4 in the hard disk device 29 as necessary via the SCSI interface circuit 27, or The video material decode data D9 to D12 and the corresponding text data DT1 to DT4 stored in the hard disk device 29 are read out via the SCSI interface circuit 27 as necessary.
[0037]
As shown in FIG. 4, the text information actually displayed on the liquid crystal display 8 is the total imaging time of each video data D1 to D4 based on the text data DT1 to DT4 of each video data D1 to D4 selected by the operator. Time data D in which the imaging content such as is a time line based on the time code signal S3 TIME 1 to D TIME 4B, a data display area 30A displayed in parallel on the same time axis, and desired portions of the video data D1 to D4 designated by the operator in the data display area 30A are each used as a clip using a predetermined timeline. It is configured by a GUI (Graphical User Interface) screen 30 including a clip display area 30B displayed in an AB roll format that is alternately displayed on the A roll side and the B roll side in parallel.
[0038]
Incidentally, since the data display area 30A is a time display based on the clocks of the video cameras 2A to 2D, in this embodiment, the imaging time from about 18:00 to past 21:00 is shown.
[0039]
Then, in the edit list creation mode, the operator, as shown in FIG. 5A, time data D of each video data D1 to D4 displayed from about 18:00 to past 21:00 on the data display area 30A. TIME 1 to D TIME In point P while viewing the image of each video data D1 to D4 displayed on the monitor 7 in a 4-split screen correspondingly to the video of the desired time zone from 4B. IN 1 and out point P OUT 1 is specified and extracted as a clip group C1.
[0040]
At this time, this in point P IN 1 and out point P OUT The area designated by 1 is displayed separately.
[0041]
The clip group C1 thus extracted is time data D on the A roll side of the clip display area 30B. TIME 1 to D TIME The clips are displayed as clips C1A, C1B, C1C, and C1D using a timeline having a length corresponding to the time of 4B.
[0042]
As shown in FIG. 5B, the operator repeats such a procedure sequentially, and the time data D on the data display area 30A is displayed. TIME 1 to D TIME The video in the desired time zone is sequentially selected from the 4B in points P. IN 2, P IN 3 and out point P OUT 2, P OUT 3 is specified and clip groups C2 and C3 are extracted.
[0043]
As a result, the clip groups C2 and C3 are displayed as clips C2A to C2C and C3A, C3B, and C3D alternately and sequentially on the B roll side and the A roll side of the clip display area 30B.
[0044]
At this time, the lengths of the clips C1A to C3D of the clip group C1 to C3 displayed in the clip display area 30B are the in points P specified in the data display area 30A. IN 1 to P IN 3 and out point P OUT 1 to P OUT In addition to being proportional to the time between the three, it is set longer by a predetermined time (about 5 seconds) before and after as a margin for joining.
[0045]
Thereafter, as shown in FIG. 6, the operator displays each clip C1A displayed on the monitor 7 corresponding to each clip group C1 to C3 arranged and connected in a predetermined state in the AB roll format in the clip display area 30B. While viewing the C3D video, select the video of the desired clips C1A to C3D for each of the clip groups C1 to C3, and at what timing to switch these, the switching point P SW 1 to P SW Use 4 to specify.
[0046]
At this time, the clips C1A to C3D designated by the operator are displayed separately.
[0047]
Incidentally, in this editing system 1, these switching points P in the clip groups C1 to C3 connected together. SW 1 to P SW By moving, adding, or erasing 4, the clip groups C1 to C3 connected together can be easily edited while maintaining the flow of time.
[0048]
In this way, in the editing system 1, after the operator selects desired video data D1 to D4 from the video data stored in the video server 3 using the GUI screen 30, the video data D1 to D4 is selected. When extracting desired portions as clip groups C1 to C3, the clip groups C1 to C3 to be extracted are equivalent to the fact that the video data D1 to D4 can be arranged in parallel on the same time axis based on the time code signal S3. The time correlation between the clip groups C1 to C3 can be easily grasped and the clip groups C1 to C3 are synchronized based on the time code signal S3. Can be adapted to
[0049]
(4) Edit list creation processing procedure of CPU 20
Here, in practice, the CPU 20 of the processor 5 executes the editing processing of the video data D1 to D4 as described above in accordance with the editing list creation processing procedure RT1 shown in FIG. 7 in the editing list creation mode.
[0050]
That is, when desired video data D1 to D4 are designated from the video data stored in the video server 3 by the operator and those playback commands are input, the CPU 20 executes the edit list creation processing procedure RT1 in step SP0. In the subsequent step SP1, the time required for the video data D1 to D4 is synchronized with the data display area 30A of the GUI screen 30 of the liquid crystal display 8 in synchronization with the same time axis based on the corresponding text data DT1 to DT4. To display.
[0051]
Thereafter, the CPU 20 proceeds to the next step SP2, and the operator selects an in-point P from the video data D1 to D4 in the data display area 30A. IN 1 and out point P OUT When a command to designate using 1 is input, it is extracted as a clip group C1, and the process proceeds to the subsequent step SP3.
[0052]
The CPU 20 displays the clip group C1 extracted in step SP2 in step SP3 as clips C1A to C1D in the clip display area 30B using the corresponding timeline, and proceeds to step SP4 to display the video data D1 to D1 in the data display area 30A. It is determined whether or not to finish extracting the clip from D4.
[0053]
In step SP4, the CPU 20 extracts the in point P for extracting the clip by the operator. IN 2 and out point P OUT If a negative result is obtained by inputting the designation command 2, the process returns to step SP 2, and thereafter, the loop of steps SP 2 -SP 3 -SP 4 is repeated until a positive result is obtained in step SP 4. If an affirmative result is obtained in step SP4 due to the input of the instruction to perform, the process proceeds to next step SP5.
[0054]
At this time, the CPU 20 repeatedly displays the clip groups C1 to C3 extracted by repeating the loop of steps SP2-SP3-SP4 in the clip display area 30B so that they are alternately displayed from the A roll side in the AB roll format. The clip groups C1 to C3 are joined to a predetermined state.
[0055]
When the CPU 20 receives an instruction to select which video is selected from the clip groups C1 to C3 connected by the operator in step SP5 and at which timing, the clip group C1 to C1 is input. Switching point P at the specified position of C3 SW 1 to P SW 4 is provided to divide each area, and clips C1A to C3D corresponding to the video designated in the area are designated.
[0056]
Then, the CPU 20 proceeds to step SP6 and ends the editing list creation processing procedure RT1.
[0057]
(5) Operation and effect of the present embodiment
In the above configuration, the editing system 1 uses a plurality of video cameras 2 </ b> A to 2 </ b> D to capture an image by adding a time code signal S <b> 3 that is synchronized with each other from various angles.
[0058]
Then, in the edit list creation mode, the editing system 1 converts the video data D1 to D4 as imaging results into time data D based on the time code signal S3, respectively. TIME 1 to D TIME It is converted into 4B and displayed in parallel on the same time axis in the data display area 30A of the GUI screen 30.
[0059]
In the editing system 1, the time data D displayed in the data display area 30A. TIME 1 to D TIME A clip display area in which clips C1A to C3D extracted for each video corresponding to a desired portion sequentially designated on the time axis from 4B are clip groups C1 to C3 corresponding to the clips C1A to C3D corresponding to the desired portion, respectively. 30B is displayed in AB roll format and connected.
[0060]
Therefore, in the editing system 1, the temporal correlation between the clips C1A to C3D can be easily grasped, and the joint between the clip groups C1 to C3 to be joined can be clarified.
[0061]
According to the above configuration, in the editing system 1, in the edit list creation mode, each video based on a plurality of imaging results is based on the time code added in synchronization with each video on the same time axis. By converting each to a timeline and displaying it in parallel in the data display area 30A, temporal correlation between clips extracted for each desired portion of the image sequentially designated on the time axis from the respective images It is possible to realize the editing system 1 that can easily grasp the relationship and thus can greatly improve the work efficiency of editing.
[0062]
(6) Other embodiments
In the above-described embodiment, the case where the present invention is applied to the editing system 1 has been described. However, the present invention is not limited to this, and the time correlation between clips selected from video data is important. The present invention can be widely applied to various other editing apparatuses that can easily grasp the relationship.
[0063]
Further, in the above-described embodiment, the case where the video data D1 to D4 captured using the video cameras 2A to 2D is used as the video data stored in the video server 3 has been described. Not limited to this, as long as a plurality of pieces of video data are captured based on synchronized time codes, various other types of video data stored in the video server 3 can be widely applied.
[0064]
Furthermore, in the above-described embodiment, the case where the data display area 30A and the clip display area 30B of the GUI screen 30 are displayed as shown in FIG. 4 is described, but the present invention is not limited to this. Various other display methods can be widely applied as the display method of the GUI screen 30.
[0065]
Furthermore, in the above-described embodiment, as the video display method on the monitor 7, the number of videos is divided based on the video data D1 to D4 selected from the video data D1 to D4 stored in the video server 3 by the operator. Although the case of displaying is described, the present invention is not limited to this, and various other display methods can be applied as a method of displaying the video data D1 to D4. For example, the selected video data You may make it display the said image | video corresponding to each easily by the monitor 7 for the image | video number of D1-D4.
[0066]
Further, in the above-described embodiment, the case where a timepiece is used as the time code generation units 2A4 to 2D4 of the video cameras 2A to 2D has been described. However, the present invention is not limited to this, and the point is that the reference clock signal CLK is important. Various time codes can be widely applied as the time code generation units 2A4 to 2D4 as long as they generate synchronized time codes based on the above.
[0067]
【The invention's effect】
As described above, according to the present invention, each video based on a plurality of imaging results is converted into a timeline based on a time code added in synchronization with each video on the same time axis in the editing apparatus. First display means for displaying, a second display means for displaying a video corresponding to a time code designated on the time axis among the displayed timelines, and each of the displayed video A third display means for displaying each image as a clip for each desired portion sequentially designated on the time axis from the inside is provided, and the third display means displays each imaging result constituting the designated desired portion. By selecting only the desired clip from the corresponding clips, the temporal correlation between the clips extracted for each desired portion of the video specified sequentially on the time axis from each video Engaging the can easily grasp, thus it is possible to realize an editing system capable of dramatically improving the efficiency of editing.
[0068]
According to the invention, in the editing method, each video based on a plurality of imaging results is converted into a timeline based on a time code added in synchronization with each video on the same time axis and displayed. A first step of displaying a video corresponding to a time code designated on the time axis in each of the displayed timelines, and a time axis from among the displayed videos. A third step of displaying each image of the desired portion sequentially designated in step 3 as a clip, and a step of displaying only the clip selected from the clips corresponding to the respective imaging results constituting the designated desired portion. 4 steps are provided so that the temporal correlation between clips extracted for each video of a desired portion sequentially designated on the time axis from each video is easy. It can be grasped, thus it is possible to realize an editing method that can dramatically improving the efficiency of editing.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of an editing system according to an embodiment.
FIG. 2 is a block diagram illustrating a configuration of a video camera.
FIG. 3 is a block diagram illustrating a configuration of a processor.
FIG. 4 is a schematic diagram illustrating a configuration of a GUI screen.
FIG. 5 is a schematic diagram showing how an edit list is created on a GUI screen.
FIG. 6 is a schematic diagram showing how an edit list is created on a GUI screen.
FIG. 7 is a flowchart showing an edit list creation processing procedure.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Editing system, 2 ... Imaging device, 2A-2D ... Video camera, 2A1-2D1 ... Imaging part, 2A2-2D2 ... Recording signal processing part, 2A3-2D3 ... Recording medium, 2A4-2D4 ... ... time code generation unit, 2A5 to 2D5 ... reproduction signal processing unit, 3 ... video server, 4 ... editing device, 5 ... processor, 6 ... operation unit, 7 ... monitor, 8 ... liquid crystal display, DESCRIPTION OF SYMBOLS 10 ... Control part, 11 ... Reference clock generation part, 20 ... CPU, 21 ... ROM, 22 ... RAM, 23 ... Display processing circuit, 24 ... Signal processing circuit, 25, 26 ... Interface circuit , 27... SCSI interface circuit, 28... CPU bus, 29... Hard disk device, 30... GUI screen, 30 A... Data display area, 30 B. 1~C3 ...... clips group, C1A~C3D ...... clips, D1~D4 ...... video data, D5~D8 ...... encoded data, DT1~DT4 ...... text data, D TIME 1 to D TIME 4B …… Time data, P IN 1 to P IN 3 …… In point, P OUT 1 to P OUT 3 …… Out point, P SW 1 to P SW 4 ... Switching point, RT1 ... Edit list creation processing procedure.

Claims (4)

複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1の表示手段と、
上記第1の表示手段に表示された各上記タイムラインのうち、上記時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2の表示手段と、
上記第2の表示手段に表示された各上記映像の中から上記時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3の表示手段と
を具え、
上記第3の表示手段では、上記指定された所望部分を構成する各上記撮像結果に応じたクリップの中から所望するクリップのみが選択される
ことを特徴とする編集装置。
First display means for converting and displaying each video based on a plurality of imaging results on a timeline based on a time code added in synchronization with each video on the same time axis;
A second display means for displaying a video corresponding to a time code designated on the time axis among the timelines displayed on the first display means;
Third display means for displaying each of the desired portion of the image sequentially designated on the time axis from the respective images displayed on the second display means as a clip,
The editing apparatus according to claim 3, wherein in the third display means, only a desired clip is selected from clips corresponding to the respective imaging results constituting the designated desired portion.
上記第3の表示手段では、
上記第2の表示手段に表示された各上記映像の中から上記時間軸上で順次上記所望部分が指定されるごとに、各上記クリップがそれぞれ上記時間軸と平行にずれて時系列的に順次表示される
ことを特徴とする請求項1に記載の編集装置。
In the third display means,
Each time the desired portion is sequentially specified on the time axis from the images displayed on the second display means, the clips are sequentially shifted in time series in parallel with the time axis. The editing apparatus according to claim 1, wherein the editing apparatus is displayed.
複数の撮像結果に基づく各映像を、同一時間軸上で当該各映像に同期して付加されたタイムコードを基準とするタイムラインにそれぞれ変換して表示する第1のステップと、
上記表示された各上記タイムラインのうち、上記時間軸上で指定されたタイムコードに対応する映像をそれぞれ表示する第2のステップと、
上記表示された各上記映像の中から上記時間軸上で順次指定された所望部分の映像ごとに、それぞれクリップとして表示する第3のステップと、
上記指定された上記所望部分を構成する各上記撮像結果に応じたクリップの中から選択されたクリップのみを表示する第4のステップと
を具えることを特徴とする編集方法。
A first step of converting and displaying each video based on a plurality of imaging results into a timeline based on a time code added in synchronization with each video on the same time axis;
A second step of displaying each of the images corresponding to the time code specified on the time axis in each of the displayed timelines;
A third step of displaying as a clip for each desired portion of the image sequentially designated on the time axis from among the displayed images;
An editing method comprising: a fourth step of displaying only a clip selected from clips corresponding to each of the imaging results constituting the designated desired portion.
上記第3のステップでは、
上記表示された各上記映像の中から上記時間軸上で順次上記所望部分が指定されるごとに、各上記クリップがそれぞれ上記時間軸と平行にずれて時系列的に順次表示される
ことを特徴とする請求項3に記載の編集方法。
In the third step,
Each time the desired portion is sequentially specified on the time axis from the displayed images, the clips are sequentially displayed in a time-sequential manner shifted in parallel with the time axis. The editing method according to claim 3.
JP15975299A 1999-06-07 1999-06-07 Editing apparatus and editing method Expired - Fee Related JP4009922B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15975299A JP4009922B2 (en) 1999-06-07 1999-06-07 Editing apparatus and editing method
US09/587,438 US6618058B1 (en) 1999-06-07 2000-06-05 Editing device and editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15975299A JP4009922B2 (en) 1999-06-07 1999-06-07 Editing apparatus and editing method

Publications (2)

Publication Number Publication Date
JP2000348469A JP2000348469A (en) 2000-12-15
JP4009922B2 true JP4009922B2 (en) 2007-11-21

Family

ID=15700497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15975299A Expired - Fee Related JP4009922B2 (en) 1999-06-07 1999-06-07 Editing apparatus and editing method

Country Status (2)

Country Link
US (1) US6618058B1 (en)
JP (1) JP4009922B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7240286B2 (en) * 2000-08-25 2007-07-03 Matsushita Electric Industrial Co., Ltd. Content editing apparatus, content editing method, content editing program, and computer-readable storage medium
US20020156881A1 (en) * 2000-10-03 2002-10-24 Klopp Lemon Ana H. Von HTTP transaction monitor with replay capacity
US6774919B2 (en) * 2000-12-06 2004-08-10 Microsoft Corporation Interface and related methods for reducing source accesses in a development system
US7114162B2 (en) * 2000-12-06 2006-09-26 Microsoft Corporation System and methods for generating and managing filter strings in a filter graph
US7103677B2 (en) * 2000-12-06 2006-09-05 Microsoft Corporation Methods and systems for efficiently processing compressed and uncompressed media content
US7447754B2 (en) 2000-12-06 2008-11-04 Microsoft Corporation Methods and systems for processing multi-media editing projects
US6983466B2 (en) * 2000-12-06 2006-01-03 Microsoft Corporation Multimedia project processing systems and multimedia project processing matrix systems
US7287226B2 (en) * 2000-12-06 2007-10-23 Microsoft Corporation Methods and systems for effecting video transitions represented by bitmaps
US6959438B2 (en) 2000-12-06 2005-10-25 Microsoft Corporation Interface and related methods for dynamically generating a filter graph in a development system
WO2002082379A1 (en) * 2001-04-05 2002-10-17 Fujitsu Limited Information processing device, information processing method, medium, and program
JPWO2004021701A1 (en) * 2002-08-27 2005-12-22 ソニー株式会社 Data processing apparatus and method, and program
KR20040033663A (en) * 2002-10-14 2004-04-28 삼성전자주식회사 Information storage medium having data structure for multi-angle and apparatus therefor
EP1567988A1 (en) * 2002-10-15 2005-08-31 University Of Southern California Augmented virtual environments
KR20060086527A (en) * 2005-01-26 2006-08-01 삼성전자주식회사 Digital video recording apparatus
GB0509047D0 (en) * 2005-05-04 2005-06-08 Pace Micro Tech Plc Television system
US7831111B2 (en) * 2005-10-31 2010-11-09 Yahoo! Inc. Method and mechanism for retrieving images
US20070098257A1 (en) * 2005-10-31 2007-05-03 Shesha Shah Method and mechanism for analyzing the color of a digital image
CN101506892B (en) * 2006-08-25 2012-11-14 皇家飞利浦电子股份有限公司 Method and apparatus for generating a summary
US8249153B2 (en) * 2007-06-12 2012-08-21 In Extenso Holdings Inc. Distributed synchronized video viewing and editing
JP2009278465A (en) 2008-05-15 2009-11-26 Sony Corp Recording control apparatus, recording control method, program, and, recording device
US9646648B2 (en) * 2008-10-23 2017-05-09 Google Technology Holdings LLC Method and apparatus for creating short video clips of important events
FR2940481B1 (en) * 2008-12-23 2011-07-29 Thales Sa METHOD, DEVICE AND SYSTEM FOR EDITING ENRICHED MEDIA
US20150128195A1 (en) * 2011-12-29 2015-05-07 Sony Computer Entertainment Inc. Video reproduction system
KR101879166B1 (en) 2017-03-06 2018-07-23 (주)잼투고 A real-world studio system capable of producing contents using the control of a virtual studio and its operating method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69222102T2 (en) * 1991-08-02 1998-03-26 Grass Valley Group Operator interface for video editing system for the display and interactive control of video material
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
US5339393A (en) * 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
US5613909A (en) * 1994-07-21 1997-03-25 Stelovsky; Jan Time-segmented multimedia game playing and authoring system
WO1996031829A1 (en) * 1995-04-06 1996-10-10 Avid Technology, Inc. Graphical multimedia authoring system
US5732184A (en) * 1995-10-20 1998-03-24 Digital Processing Systems, Inc. Video and audio cursor video editing system
US5760767A (en) * 1995-10-26 1998-06-02 Sony Corporation Method and apparatus for displaying in and out points during video editing
US5786814A (en) * 1995-11-03 1998-07-28 Xerox Corporation Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
US5889519A (en) * 1996-03-26 1999-03-30 International Business Machines Corp. Method and system for a multimedia application development sequence editor using a wrap corral
US5956453A (en) * 1996-04-12 1999-09-21 Hitachi Denshi Kabushiki Kaisha Method of editing moving image and apparatus of editing the same
US6064379A (en) * 1996-06-24 2000-05-16 Sun Microsystems, Inc. System and method for synchronizing presentation of media stream playlists with real time
US5781188A (en) * 1996-06-27 1998-07-14 Softimage Indicating activeness of clips and applying effects to clips and tracks in a timeline of a multimedia work
CA2202106C (en) * 1997-04-08 2002-09-17 Mgi Software Corp. A non-timeline, non-linear digital multimedia composition method and system
US6353461B1 (en) * 1997-06-13 2002-03-05 Panavision, Inc. Multiple camera video assist control system
GB2344453B (en) * 1998-12-01 2002-12-11 Eidos Technologies Ltd Multimedia editing and composition system having temporal display

Also Published As

Publication number Publication date
JP2000348469A (en) 2000-12-15
US6618058B1 (en) 2003-09-09

Similar Documents

Publication Publication Date Title
JP4009922B2 (en) Editing apparatus and editing method
JP4629173B2 (en) Recording apparatus, recording method, and recording medium
JP2007208477A (en) Video reproduction device, data structure of bookmark data, storage medium storing bookmark data, and bookmark data generation method
US20030016254A1 (en) Video edititing apparatus and method
JP2000308005A (en) Device and method for processing information and medium
JP2003308675A (en) Information recording apparatus and information recording method
CN102027742A (en) Recording/playback device
JPH11215458A (en) Image recorder and its method, image reproducing device and its method, image recording and reproducing device and its method, and recording medium for these
JP3835554B2 (en) FILE RECORDING DEVICE, FILE REPRODUCTION DEVICE, FILE RECORDING METHOD, FILE RECORDING METHOD PROGRAM, RECORDING MEDIUM RECORDING THE FILE RECORDING METHOD PROGRAM, FILE PLAYING METHOD, FILE PLAYING METHOD PROGRAM, AND RECORDING MEDIUM RECORDING THE PROGRAM
JP2005033381A (en) Moving picture recording apparatus and its method
JP2004005344A (en) Index management method, index display method, recording/reproducing device, and storage medium
JP2004054981A (en) Data processing device, data processing method and program
JP4645910B2 (en) Editing apparatus, editing method, and program
JP3833149B2 (en) Playback device
JP2005285301A (en) Recorder, reproducer, recording method, reproducing method and program
JP2000217055A (en) Image processor
JP2002237973A (en) Recorder, recording method and imaging device
JP4594161B2 (en) Video processing apparatus and video processing method
JP2009171345A (en) Information processing apparatus and information processing method
JP2003264773A (en) Data processor, data processing method, program storage medium and program
JP2003186885A (en) Dvd production system
JP4208022B2 (en) Information editing apparatus, information editing method, and program recording medium
JPH09247607A (en) Audio and image recording and reproducing method, recording and reproducing device and information recording medium
JP2000175139A (en) Video editing device
JP4787206B2 (en) Information recording apparatus and information recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees