JP4164993B2 - Non-linear editing device - Google Patents

Non-linear editing device Download PDF

Info

Publication number
JP4164993B2
JP4164993B2 JP2000213257A JP2000213257A JP4164993B2 JP 4164993 B2 JP4164993 B2 JP 4164993B2 JP 2000213257 A JP2000213257 A JP 2000213257A JP 2000213257 A JP2000213257 A JP 2000213257A JP 4164993 B2 JP4164993 B2 JP 4164993B2
Authority
JP
Japan
Prior art keywords
time code
editing
unit
video data
universal time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000213257A
Other languages
Japanese (ja)
Other versions
JP2002032978A (en
Inventor
匡弘 大畑
惠子 阿部
泰史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000213257A priority Critical patent/JP4164993B2/en
Publication of JP2002032978A publication Critical patent/JP2002032978A/en
Application granted granted Critical
Publication of JP4164993B2 publication Critical patent/JP4164993B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、映像データ記録編集システムを構成するノンリニア編集装置に関する。
【0002】
【従来の技術】
コンサートや各種スポーツイベント(例えば、ゴルフ、野球、サッカー、オリンピック)の収録には複数台の撮像カメラを用いるのが一般的である。これら複数台の撮像カメラで収録された映像はそのままでも貴重な映像資産であるが、一般には用途に応じた編集作業によって一つの映像資産へと加工される。
【0003】
この編集作業では、編集場面の前後で時間軸のずれが生じないように、編集対象とする映像を互いに同期させることが重要となる。このため従来は、撮像時に撮像カメラ間を同軸ケーブルで接続し、ビデオテープ上に記録されるタイムコードの同期を確保する方法が採られている。図2に一例を示す。なお、図2はゴルフ場で選手のプレーを収録する場合の例である。この図2の例では、複数台の撮像カメラ100間を同軸ケーブル101で接続している。
【0004】
【発明が解決しようとする課題】
ところが、同軸ケーブルで撮像カメラ間を接続する方法は、現場での事前準備に要する作業負担が大きく、かつ、用意するケーブルが膨大で資材の負担も大きくなるという問題がある。また、同軸ケーブルで接続するため、撮像カメラの移動範囲に制約がある。
【0005】
このため、同軸ケーブルで撮像カメラ間を接続せずに済む方法が望まれるが、撮像カメラに搭載されている内蔵タイマの時刻を映像データにスタンプする方法では、図3の(A)〜(C)に示すように同期の保証がないため用いることができない。
【0006】
【課題を解決するための手段】
かかる課題を解決するため、以下の手段を提案する。
【0007】
(1)撮像部と、当該撮像部から与えられる映像データ(例えば、フレームデータ、フィールドデータ、ブロックデータその他の単位データ)にGPS受信機(内蔵のものに限らず、外付けのものもあり得る。)から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部とを備える撮像装置を提案する。
【0008】
ここでの撮像装置には、カメラ一体型のビデオレコーダの他、カメラ単独のものやスチルカメラも含まれる。また、ユニバーサルタイムコードを付与した映像データの出力先は、撮像装置内部の記憶装置でも良いし、外部の記憶装置でも良い。なお、記憶媒体には、磁気テープの他、ハードディスク等の磁気記憶媒体、読み書き可能型のコンパクトディスク等の光又は光磁気記憶媒体、メモリカード等の半導体記憶媒体を用い得る。
【0009】
このように映像データに付与するタイムコードをユニバーサルタイムコードとすることにより、複数の撮像装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。この結果、撮像時に要する作業の簡略化と資材の減量を可能とできる。また、同軸ケーブルに接続しなくて済むため、現場での撮像装置の移動の自由度を向上できる。
【0010】
なお、かかる撮像装置を用いてイベントの収録に使用すれば、複数の撮像装置を使用する場合でも、各撮像装置で撮像された映像データの時間軸はユニバーサルタイムコードに統一されるため、映像再生機間における位置決め誤差を無視できる限り、ユニバーサルタイムコードを基準に編集場面の前後でずれのない編集を実現できる。もっとも、映像再生機間に位置決め誤差がある場合でも、そのオフセット量を見越した時間指定を行うことにより、ずれのない編集を実現できる。
【0011】
また、ユニバーサルタイムコードで特定可能な時間位置(最小桁の変更位置)よりも細かい時間位置を編集点として指定する場合には、ユニバーサルタイムコードと共に記憶されている記録単位情報(例えば、フレーム番号)を参照することにより、同期のとれた編集を実現できる。
【0012】
(2)撮像部と、当該撮像部から与えられる映像データ(例えば、フレームデータ、フィールドデータ、ブロックデータその他の単位データ)にGPS受信機(内蔵のものに限らず、外付けのものもあり得る。)から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部とを備える映像データ処理装置を提案する。
【0013】
ここでの映像データ処理装置には、撮像部を有する携帯情報機器(例えば、携帯情報端末、ノートパソコン、携帯電話機も含む。)、その他の電子機器も含まれる。この場合もユニバーサルタイムコードを付与した映像データの出力先は、映像データ処理装置内部の記憶装置でも良いし、外部の記憶装置でも良い。記憶媒体についても同じである。
【0014】
またこの場合にも、映像データに付与するタイムコードをユニバーサルタイムコードとすることにより、複数の映像データ処理装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。この結果、撮像時に要する作業の簡略化と資材の減量を可能とできる。また、同軸ケーブルに接続しなくて済むため、現場での映像データ処理装置の移動の自由度を向上できる。
【0015】
なお、かかる撮像装置を用いてイベントの収録に使用すれば、複数の撮像装置を使用する場合でも、各撮像装置で撮像された映像データの時間軸はユニバーサルタイムコードに統一されるため、映像再生機間における位置決め誤差を無視できる限り、ユニバーサルタイムコードを基準に編集場面の前後でずれのない編集を実現できる。もっとも、映像再生機間に位置決め誤差がある場合でも、そのオフセット量を見越した時間指定を行うことにより、ずれのない編集を実現できる。
【0016】
また、ユニバーサルタイムコードで特定可能な時間位置(最小桁の変更位置)よりも細かい時間位置を編集点として指定する場合には、ユニバーサルタイムコードと共に記憶されている記録単位情報(例えば、フレーム番号)を参照することにより、同期のとれた編集を実現できる。
【0017】
(3)撮像装置より与えられる映像データ(例えば、フレームデータ、フィールドデータ、ブロックデータその他の単位データ)にGPS受信機(内蔵のものに限らず、外付けのものもあり得る。)から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部を備える映像データ処理装置を提案する。
【0018】
ここでの映像データ処理装置には、撮像装置を搭載しない携帯情報機器(例えば、携帯情報端末、ノートパソコン、携帯電話機も含む。)、その他の電子機器も含まれる。この場合もユニバーサルタイムコードを付与した映像データの出力先は、映像データ処理装置内部の記憶装置でも良いし、外部の記憶装置でも良い。記憶媒体についても同じである。
【0019】
またこの場合にも、映像データに付与するタイムコードをユニバーサルタイムコードとすることにより、複数の映像データ処理装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。この結果、撮像時に要する作業の簡略化と資材の減量を可能とできる。また、同軸ケーブルに接続しなくて済むため、現場での映像データ処理装置の移動の自由度を向上できる。
【0020】
なお、かかる撮像装置を用いてイベントの収録に使用すれば、複数の撮像装置を使用する場合でも、各撮像装置で撮像された映像データの時間軸はユニバーサルタイムコードに統一されるため、映像再生機間における位置決め誤差を無視できる限り、ユニバーサルタイムコードを基準に編集場面の前後でずれのない編集を実現できる。もっとも、映像再生機間に位置決め誤差がある場合でも、そのオフセット量を見越した時間指定を行うことにより、ずれのない編集を実現できる。
【0021】
また、ユニバーサルタイムコードで特定可能な時間位置(最小桁の変更位置)よりも細かい時間位置を編集点として指定する場合には、ユニバーサルタイムコードと共に記憶されている記録単位情報(例えば、フレーム番号)を参照することにより、同期のとれた編集を実現できる。
【0022】
(4)映像データと共に記憶されているユニバーサルタイムコード(UTC:Universal Time Code)を参照し、複数の映像データを同期させる編集部と、複数の映像データ毎にユニバーサルタイムコードの最小単位よりも細かい単位でのオフセット量が記憶されるオフセット情報記憶部とを備え、オフセット量は、ユニバーサルタイムコードに対する映像データの読み出し位置の誤差を補正するための情報であるノンリニア編集装置を提案する。
【0023】
このように編集対象とする映像データのいずれにもユニバーサルタイムコード(UTC:Universal Time Code)が記憶されている場合、編集部は、映像再生機間における位置決め誤差を無視できる限り、ユニバーサルタイムコードを基準に編集場面の前後でずれのない編集を実現できる。もっとも、映像再生機間にテープの位置決め誤差がある場合でも、そのオフセット量を見越した時間指定を行うことにより、ずれのない編集を実現できる。
【0024】
なお、ユニバーサルタイムコードで特定可能な時間位置(最小桁の変更位置)よりも細かい時間位置が編集点として指定された場合でも、ユニバーサルタイムコードと共に記憶されている記録単位情報(例えば、フレーム番号)を参照することにより、同期のとれた編集を実現できる。
【0025】
【発明の実施の形態】
以下、上述の解決手段の実施形態例として、本発明の好ましい実施の形態について、図面を参照しながら説明する。
【0026】
(1)撮像装置
図1に、撮像装置の実施形態例を示す。ここでは、カメラ一体型ビデオテープレコーダの場合について説明する。ただし、図1においては、カメラ一体型ビデオテープレコーダのうち本願発明に関連する機能ブロック部分のみを表わすこととし、表示に直接関係しない部分についてはその表示を省略している。
【0027】
図1の場合、カメラ一体型ビデオテープレコーダ10は、GPS受信機11と、撮像部12と、マイク部13と、タイムスタンプ部14と、記憶部15と、外部インターフェース(I/F)16とを有している。
【0028】
GPS受信機11は、受信可能な複数のGPS衛星の位置情報(仰角と水平角)とそれらより受信された原始時計の値から各GPS衛星までの距離と伝播遅延量を計算し、これらよりユニバーサルタイムコードを算出する。この実施形態では、ユニバーサルタイムコードとして「時:分:秒」(例えば「00:00:00」)を出力する。勿論、出力形式はこれに限るものではなく、1秒以下の時間まで出力させることは可能である。
【0029】
因みに、算出されるユニバーサルタイムコードの誤差は、この種の用途で用いる範囲において無視できるものである。従って、異なる地点でGPS信号を受信する場合でも、同一時刻には同一のユニバーサルタイムコードが得られる。
【0030】
GPS受信機11は、カメラ一体型ビデオテープレコーダ10に内蔵されていても、外部に設けられていても良い。GPS受信機11をカメラ一体型ビデオテープレコーダ10の外部に設ける場合には、算出されたユニバーサルタイムコードを有線伝送路又は無線伝送路を通じて本体側に通知すれば良い。勿論、他の用途で使用する場合には、位置情報についても本体側に伝送される。無線による伝送方法としては、赤外線などの光を使用するもの、ブルートゥース方式その他の方式のように高周波帯域の無線波を使用するものがある。
【0031】
撮像部12は、撮像光学系と映像処理系で構成されている。この映像処理系は、撮像光学系で撮像された映像信号をディジタル信号として処理する。なお、映像処理系には圧縮符号化機能が内蔵されている。圧縮符号化された映像データはフレーム単位で出力される。従って、1秒間に30フレーム分の映像データが出力される。
【0032】
マイク部13は、マイクロホンと音声処理系で構成される。音声処理系は、マイクロホンから入力される音声信号をディジタル信号として処理する。この音声処理系にも圧縮符号化機能が内蔵されている。圧縮符号化された音声データがフレーム単位で出力される点は映像データと同じである。
【0033】
なお本実施形態はカメラ一体型ビデオテープレコーダを対象としているため、マイク部13を設けているが、適用する電子機器(例えば、電子スチルカメラ)によっては、マイク部13を用いない構成もあり得る。
【0034】
タイムスタンプ部14は、GPS受信機11から入力されるユニバーサルタイムコードと、撮像部12から入力される映像データと、マイク部13から入力される音声データとを多重して多重データを生成する。この結果、フレームデータ(映像データ及び音声データ)にユニバーサルタイムコードが付与される。ここで、ユニバーサルタイムコードは、補助データの一部として付与される。
【0035】
因みに、本実施形態におけるユニバーサルタイムコードの最小単位は1秒であるため、30個のフレームデータには同一時刻のユニバーサルタイムコードが付与される。このカメラ一体型ビデオテープレコーダの場合、同一時刻が付与される30個のフレームデータには(ユニバーサルタイムコードで特定可能な時間より細かい時間位置のフレームデータには)、記録単位の情報であるフレーム番号が付与される。このフレーム番号によって1秒未満の時間位置を編集点に特定することが可能となる。
【0036】
記憶部15は、タイムスタンプ部14の出力であるユニバーサルタイムコード付きの音声映像データをビデオテープに記憶する手段である。図4に、記憶部15によるビデオテープ41への記録例を示す。図4において斜め右方向に伸びるトラック42の1つ1つがフレームに対応する。これらのトラック42には、例えば音声データ43、映像データ44、補助データ45が記録される。この図4の例では、補助データ45の部分にユニバーサルタイムコード46を記録している。なお、各データの記録位置は図4の場合に限らない。記録位置は記録フォーマットに依存する。従って、補助データ45はテープの中央部分に記録されても良いし、図中上端側に記録されても良い。
【0037】
なお、音声映像データの記憶先としては、ビデオテープの他、半導体メモリ(長方形状、正方形状、カード状などの形状は問わない。)が考えられる。また、各種のディスク状記録媒体(磁気を用いて読み書きするもの、光を用いて読み書きするもの、光と磁気を用いて読み書きするもの)を記憶媒体とすることも考えられる。
【0038】
この実施形態ではカメラ一体型ビデオテープレコーダを対象とするため、記憶部15を撮像部12と同じ筐体内に搭載しているが、適用する電子機器(例えば、単なる撮像カメラ)によっては、記憶部15は撮像部12とは別の筐体内に設けられていても良い。
【0039】
外部インターフェース(I/F)16は、タイムスタンプ部14の出力であるユニバーサルタイムコード付きの音声映像データを外部の機器に対して直接伝送するための回路である。この外部インターフェース(I/F)16から出力された音声映像データは外部に設けられた記憶部において、所定の記憶媒体に記憶されることになる。
【0040】
外部の機器への伝送方法としては、有線路による方法と、無線による方法とが考えられる。ここで、無線による伝送方法としては、赤外線などの光を使用するもの、ブルートゥース方式その他の方式のように高周波帯域の無線波を使用するものがある。
【0041】
(2)編集システム
図5に、編集システムの実施形態例を示す。ここでは、放送局において使用される編集システムについて説明する。なお言うまでもないが、編集システムの設置場所は放送局内に限らず、映像制作会社、出版会社その他の事業者設備内や個人宅内も含まれる。編集システムの構成は必要とされる内容や規模に応じて異なる。
【0042】
図5の場合、編集システム20は、ノンリニア編集機21と、VTR再生機22と、ビデオサーバ23と、制御部24と、撮像カメラ25と、ルータ26と、送出部27とを有している。
【0043】
ノンリニア編集機21は、ビデオサーバ23に蓄積されている素材データ(音声データ、映像データ)を読み込んで画像の編集を行う装置である。なお、図示されていないが、ノンリニア編集機21は、VTR再生機22から素材データを直接読み込んで画像の編集を行うこともできる。勿論、ここで使用する映像データには、いずれもユニバーサルタイムコードが付与されている。
【0044】
図6に、ノンリニア編集機21の機能ブロック構成を示す。なお図6は、本発明と直接関連する部分のみを表したものである。図6に示すように、ノンリニア編集機21は、操作部21Aと、オフセット情報記憶部21Bと、編集部21Cとを主要な構成とする。
【0045】
操作部21Aは、編集部21Cに編集内容を指示する入力手段である。編集内容には、例えば、対象とする素材、編集開始位置、編集終了位置、編集項目(切り替え、ミックス、ワイプ等)、制御対象とするVTR再生装置等が含まれる。
【0046】
オフセット情報記憶部21Bは、VTR再生機22やビデオサーバ23による素材データの読み出し位置に機械的な誤差(オフセット)が含まれる場合に、これを修正するために用意された手段である。
【0047】
オフセット情報記憶部21Bには、各素材データ毎のオフセット量が記憶される。図7に、オフセット量の一例を示す。図7の場合、ユニバーサルタイムコード(UTC)で指定された編集位置に対し、ビデオテープA(TAPE A)の読み出しデータには「−3フレーム」の補正が必要であること、ビデオテープB(TAPE B)の読み出しデータには「+10フレーム」の補正が必要であること、ビデオテープC(TAPE C)の読み出しデータには「0フレーム」の補正が必要であること(すなわち、補正は不要)を表わしている。
【0048】
すなわち、ユニバーサルタイムコードの「10:30:20:00」を編集位置とする場合、ビデオテープA(TAPE A)の素材データを読み出す際には「10:30:19:27」を指定して読み出しを行えば、実際に読み出される素材データの時刻がユニバーサルタイムコードの「10:30:20:00」に一致すること、ビデオテープB(TAPE B)の素材データを読み出す際には「10:30:20:10」を指定して読み出しを行えば、実際に読み出される素材データの時刻がユニバーサルタイムコードの「10:30:20:00」に一致することを表わしている。
【0049】
勿論、オフセット量を考慮する必要がない場合には、ビデオテープC(TAPE C)の例のようにオフセット量が「0フレーム」に設定される。
【0050】
編集部21Cは、オフセット情報記憶部21Bに記憶されているオフセット情報に基づいて素材データの読み出しを実行し、指定された編集内容に従って編集動作を実行する。
【0051】
なお、ユニバーサルタイムコードで特定可能な時間位置(1秒の桁の変更直後又は直前)の場合、編集部21Cはユニバーサルタイムコードを監視するだけで頭出しを行う。もっともこの場合でも、フレーム番号まで参照して頭出しをすることは自由である。
【0052】
一方、ユニバーサルタイムコードだけで特定できない時間位置、例えば「10:30:20(時:分:秒)」の第20フレームが指定された場合、編集部21Cはユニバーサルタイムコードだけでなくフレーム番号も合わせて参照することで編集位置の頭出しを行う。
【0053】
これらの編集結果は編集部21Cよりビデオサーバ23に出力される。以上が、ノンリニア編集機21の構成である。
【0054】
VTR再生機22は、ビデオテープから素材データを再生し、データサーバ23に記憶する。なお、VTR再生機22は、ノンリニア編集機21からデータの再生が要求された場合には、再生された素材データをノンリニア編集機21へ出力する。因みに、ノンリニア編集機21に直接制御される場合には、VTR再生機22は、指定されたユニバーサルタイムコードからデータの読み出しを開始する。なお、ビデオテープ以外の記憶媒体に素材データが記憶されている場合には、各記憶媒体に応じた再生機が使用される。
【0055】
ビデオサーバ23は、VTR再生機22で再生された素材データやノンリニア編集機21で編集された編集データ(映像データ、音声データ)を記憶する記憶装置で構成される。一般にはハードディスク装置が使用される。もっとも、その他の記憶再生装置、例えば光ディスク装置や光磁気ディスク装置を使用することもできる。
【0056】
制御部24は、ビデオサーバ23の制御用である。必要に応じてノンリニア編集機21と通信し、必要とする素材データの読み出しと格納を実行する。
【0057】
撮像カメラ25は、ライブ映像データの取り込み用である。この撮像カメラ25は、スタジオ内又は現場に配置されている。
【0058】
ルータ26は、ビデオサーバ23から読み出された編集済みの映像データと、VTR再生機22で再生された映像データと、撮像カメラ25で撮像されたライブ映像データとを入力し、それらのうちいずれかを選択的に出力する手段である。
【0059】
送出部27は、ルータ26で選択された映像データを放送信号として出力するためのインターフェース部である。伝送路に応じたインターフェースが使用される。
【0060】
(3)使用例
図8に、ゴルフ場での収録にカメラ一体型ビデオテープレコーダ10を用いる場合の使用例を示す。前述のように、これらカメラ一体型ビデオテープレコーダ10は、いずれもタイムコードにユニバーサルタイムコードを用いるため、同軸ケーブルで相互接続しなくても各カメラのタイムコードは同期した状態にある。従って、図9の(A)〜(C)に示すように、カメラ一体型ビデオテープレコーダ10のそれぞれにおいてビデオテープに記録されるデータの内容は同時刻のデータには同一のタイムコードが確実に付与されることになる。
【0061】
(4)実施形態の効果
以上のように、映像データに付与するタイムコードをユニバーサルタイムコードに統一したことにより、複数のカメラ一体型テープレコーダ間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。この結果、撮像時に要する作業の簡略化と資材の減量を可能とできる。また、同軸ケーブルに接続しなくて済むため、現場での撮像装置の移動の自由度を格段に向上できる。
【0062】
また、かかるカメラ一体型テープレコーダをイベントの収録に使用することにより、複数の撮像装置を使用する場合でも、ユニバーサルタイムコードを基準にした編集場面の前後でずれのない編集画像を得ることができる。
【0063】
なお、再生機器(VTR再生機22だけでなくビデオサーバ23も含む)に位置決め誤差がある場合でも、そのオフセット量を見越した時間指定を行うことにより、ずれのない編集を実現できる。
【0064】
また、ユニバーサルタイムコードで特定可能な時間位置よりも細かい時間位置(1秒未満の位置)を編集点として指定する場合には、ユニバーサルタイムコードと共に記憶されているフレーム番号を参照することにより、同期のとれた編集を実現できる。
【0065】
(5)他の実施形態
上述の実施形態例においては、カメラ一体型テープレコーダの場合について述べたが、図1に示す構成要素の組み合わせにより様々な形態の電子機器においても同様に適用し得る。
【0066】
例えば、撮像部12とタイムスタンプ部14を備える撮像装置に適用することができる。この撮像装置には、撮像カメラ装置(記憶部15を有しないもの。GPS受信機11は内蔵していても外部接続であっても構わない。)、電子スチルカメラ(記憶部15を有していてもいなくても良い。同じくGPS受信機11は内蔵していても外部接続でも良い。)等が考えられる。なお、記憶部を有しない場合には外部との通信部を必要とする。いずれの場合も実施形態と同様の効果が期待できる。
【0067】
また、撮像部12とタイムスタンプ部14を備える映像データ処理装置に適用することができる。この映像データ処理装置には、カメラ搭載型の携帯情報端末、カメラ搭載型のノートパソコン、カメラ搭載型の携帯電話機、カメラ搭載型の腕時計等が考えられる。なお、いずれの場合も、記憶部15を端末内に有していてもいなくても良い。ただし、記憶部15を有しない場合には外部との通信部を必要とする。また、GPS受信機11を内蔵していてもしていなくても(すなわち外部接続でも)良い。)。勿論、いずれの場合にも実施形態と同様の効果が期待できる。
【0068】
また、タイムスタンプ部14を備える映像データ処理装置に適用することができる。この映像データ処理装置には、撮像装置を搭載しない携帯情報機器、例えば携帯情報端末、ノートパソコン、携帯電話機、腕時計、携帯型のMDレコーダ等が考えられる。なお、いずれの場合も、記憶部15を端末内に有していてもいなくても良い。ただし、記憶部15を有しない場合には外部との通信部を必要とする。また、GPS受信機11を内蔵していてもしていなくても(すなわち外部接続でも)良い。)。勿論、いずれの場合にも実施形態と同様の効果が期待できる。
【0069】
上述の実施形態においては、編集システムとして図5に示すものを説明したが、最小セットとしてはユニバーサルタイムコードが映像データと共に記憶されている記憶媒体からデータを再生するための再生機と、ノンリニア編集機があれば良い。一般家庭の場合には、多くの場合、コンピュータが、ノンリニア編集機(編集ソフトウェア)と、再生機(DVD装置等)と、ビデオサーバ(ハードディスク装置等)の機能を提供する。
【0070】
また、上述の実施形態においては、ノンリニア編集機にオフセット情報記憶部21Bを搭載しているが、編集位置の位置決めに誤差が生じ得ないことが明らかなシステムでは必要としない。
【0071】
【発明の効果】
(1)本発明によれば、撮像装置に、内部に搭載された撮像部から与えられる映像データにGPS受信機から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部とを設けたことにより、複数の撮像装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。
【0072】
(2)本発明によれば、撮像部を有する映像データ処理装置に、撮像部から与えられる映像データにGPS受信機から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部を設けたことにより、複数の撮像装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。
【0073】
(3)本発明によれば、映像データ処理装置に、外部に設けられた撮像装置より与えられる映像データにGPS受信機から与えられるユニバーサルタイムコード(UTC:Universal Time Code)を付与するタイムスタンプ部を設けたことにより、複数の撮像装置間を同軸ケーブルで結ばなくてもタイムコードの同期を確保できる。
【0074】
(4)本発明によれば、編集装置に、映像データと共に記憶されているユニバーサルタイムコード(UTC:Universal Time Code)を参照し、複数の映像データを同期させる編集部を設けたことにより、ユニバーサルタイムコードを基準に編集場面の前後でずれのない編集を実現できる。
【図面の簡単な説明】
【図1】撮像カメラの実施形態例を示すブロック図である。
【図2】従来型の撮像カメラを用いる場合の使用例を示す図である。
【図3】内蔵タイマのタイムコードを撮像データに付与する場合の出力データ例を示す図である。
【図4】ビデオテープへの記録例を示す図である。
【図5】編集システムの構成例を示すブロック図である。
【図6】ノンリニア編集機の機能構成を示すブロック図である。
【図7】オフセット量の説明に供する図である。
【図8】本願発明に係る撮像カメラを用いる場合の使用例を示す図である。
【図9】ユニバーサルタイムコードを撮像データに付与する場合の出力データ例を示す図である。
【符号の説明】
10 カメラ一体型ビデオテープレコーダ、11 GPS受信機、12 撮像部、13 マイク部、14 タイムスタンプ部、15 記憶部、16 外部インターフェース(I/F)、20 編集システム、21 ノンリニア編集機、22VTR再生機、23 ビデオサーバ、24 制御部、25 撮像カメラ、26ルータ、27 送出部
[0001]
BACKGROUND OF THE INVENTION
The present invention constitutes a video data recording / editing system. Do The present invention relates to a non-linear editing apparatus.
[0002]
[Prior art]
In general, a plurality of imaging cameras are used for recording concerts and various sporting events (for example, golf, baseball, soccer, and the Olympics). The videos recorded by these multiple imaging cameras are valuable video assets as they are, but are generally processed into a single video asset by editing work according to the application.
[0003]
In this editing work, it is important to synchronize the videos to be edited so that there is no time axis shift before and after the editing scene. For this reason, conventionally, a method has been adopted in which imaging cameras are connected by a coaxial cable during imaging and synchronization of time codes recorded on a video tape is ensured. An example is shown in FIG. FIG. 2 shows an example of recording a player's play at a golf course. In the example of FIG. 2, a plurality of imaging cameras 100 are connected by a coaxial cable 101.
[0004]
[Problems to be solved by the invention]
However, the method of connecting the imaging cameras with a coaxial cable has a problem that the work load required for preparations in the field is large, and the cables to be prepared are enormous and the burden of materials increases. In addition, since the connection is made with a coaxial cable, the moving range of the imaging camera is limited.
[0005]
Therefore, a method that eliminates the need to connect the imaging cameras with a coaxial cable is desired. However, in the method of stamping the time of the built-in timer mounted on the imaging camera on the video data, (A) to (C) in FIG. ) Cannot be used because there is no guarantee of synchronization.
[0006]
[Means for Solving the Problems]
In order to solve this problem, the following means are proposed.
[0007]
(1) An image capturing unit and video data (for example, frame data, field data, block data, and other unit data) given from the image capturing unit may be a GPS receiver (not limited to a built-in one but an external one). An image pickup apparatus is proposed that includes a time stamp unit that assigns a universal time code (UTC) given by.
[0008]
The imaging apparatus here includes not only a camera-integrated video recorder but also a camera alone or a still camera. In addition, the output destination of the video data to which the universal time code is added may be a storage device inside the imaging device or an external storage device. In addition to the magnetic tape, the storage medium may be a magnetic storage medium such as a hard disk, a light or magneto-optical storage medium such as a readable / writable compact disk, or a semiconductor storage medium such as a memory card.
[0009]
Thus, by using the universal time code as the time code to be added to the video data, it is possible to ensure the synchronization of the time code without connecting a plurality of imaging devices with a coaxial cable. As a result, the work required for imaging can be simplified and the amount of materials can be reduced. In addition, since it is not necessary to connect to a coaxial cable, the degree of freedom of movement of the image pickup apparatus on site can be improved.
[0010]
If this imaging device is used for event recording, even when multiple imaging devices are used, the time axis of the video data captured by each imaging device is unified with the universal time code, so video playback As long as positioning errors between machines can be ignored, editing without deviation before and after the editing scene can be realized based on the universal time code. However, even when there is a positioning error between the video players, editing without deviation can be realized by specifying the time in anticipation of the offset amount.
[0011]
In addition, when a time position finer than a time position that can be specified by a universal time code (change position of the smallest digit) is designated as an edit point, recording unit information (for example, frame number) stored together with the universal time code By referring to, it is possible to realize synchronized editing.
[0012]
(2) A GPS receiver (not limited to a built-in one but also an external one) may be used for an image pickup unit and video data (for example, frame data, field data, block data, or other unit data) provided from the image pickup unit. A video data processing apparatus including a time stamp unit that assigns a universal time code (UTC) given by.
[0013]
The video data processing apparatus here includes a portable information device (for example, a portable information terminal, a notebook computer, and a mobile phone) having an imaging unit, and other electronic devices. Also in this case, the output destination of the video data to which the universal time code is added may be a storage device inside the video data processing device or an external storage device. The same applies to the storage medium.
[0014]
Also in this case, by using a universal time code as the time code to be added to the video data, it is possible to ensure time code synchronization without connecting a plurality of video data processing apparatuses with a coaxial cable. As a result, the work required for imaging can be simplified and the amount of materials can be reduced. Further, since it is not necessary to connect to a coaxial cable, the degree of freedom of movement of the video data processing apparatus on site can be improved.
[0015]
If this imaging device is used for event recording, even when multiple imaging devices are used, the time axis of the video data captured by each imaging device is unified with the universal time code, so video playback As long as positioning errors between machines can be ignored, editing without deviation before and after the editing scene can be realized based on the universal time code. However, even when there is a positioning error between the video players, editing without deviation can be realized by specifying the time in anticipation of the offset amount.
[0016]
In addition, when a time position finer than a time position that can be specified by a universal time code (change position of the smallest digit) is designated as an edit point, recording unit information (for example, frame number) stored together with the universal time code By referring to, it is possible to realize synchronized editing.
[0017]
(3) Video data (for example, frame data, field data, block data, and other unit data) given from the imaging device is given from a GPS receiver (not limited to a built-in one but may be an external one). A video data processing apparatus including a time stamp unit that assigns a universal time code (UTC) is proposed.
[0018]
Here, the video data processing device includes a portable information device (for example, a portable information terminal, a notebook computer, and a mobile phone) that is not equipped with an imaging device, and other electronic devices. Also in this case, the output destination of the video data to which the universal time code is added may be a storage device inside the video data processing device or an external storage device. The same applies to the storage medium.
[0019]
Also in this case, by using a universal time code as the time code to be added to the video data, it is possible to ensure time code synchronization without connecting a plurality of video data processing apparatuses with a coaxial cable. As a result, the work required for imaging can be simplified and the amount of materials can be reduced. Further, since it is not necessary to connect to a coaxial cable, the degree of freedom of movement of the video data processing apparatus on site can be improved.
[0020]
If this imaging device is used for event recording, even when multiple imaging devices are used, the time axis of the video data captured by each imaging device is unified with the universal time code, so video playback As long as positioning errors between machines can be ignored, editing without deviation before and after the editing scene can be realized based on the universal time code. However, even when there is a positioning error between the video players, editing without deviation can be realized by specifying the time in anticipation of the offset amount.
[0021]
In addition, when a time position finer than a time position that can be specified by a universal time code (change position of the smallest digit) is designated as an edit point, recording unit information (for example, frame number) stored together with the universal time code By referring to, it is possible to realize synchronized editing.
[0022]
(4) An editing unit that refers to a universal time code (UTC) stored together with video data and synchronizes a plurality of video data. An offset information storage unit that stores an offset amount in units smaller than the minimum unit of the universal time code for each of the plurality of video data; With The offset amount is information for correcting an error in the reading position of the video data with respect to the universal time code. A nonlinear editing device is proposed.
[0023]
When universal time code (UTC) is stored in any of the video data to be edited in this way, the editing unit uses the universal time code as long as positioning errors between video players can be ignored. It is possible to realize editing without deviation before and after the editing scene. However, even when there is a tape positioning error between the video players, editing without deviation can be realized by specifying the time in anticipation of the offset amount.
[0024]
Note that even when a time position finer than the time position that can be specified by the universal time code (change position of the smallest digit) is designated as an edit point, the recording unit information (for example, frame number) stored together with the universal time code By referring to, it is possible to realize synchronized editing.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings as embodiments of the above-described solving means.
[0026]
(1) Imaging device
FIG. 1 shows an embodiment of an imaging apparatus. Here, the case of a camera-integrated video tape recorder will be described. However, in FIG. 1, only the functional block portion related to the present invention of the camera-integrated video tape recorder is shown, and the display of the portion not directly related to the display is omitted.
[0027]
In the case of FIG. 1, the camera-integrated video tape recorder 10 includes a GPS receiver 11, an imaging unit 12, a microphone unit 13, a time stamp unit 14, a storage unit 15, and an external interface (I / F) 16. have.
[0028]
The GPS receiver 11 calculates the distance and propagation delay amount to each GPS satellite from the position information (elevation angle and horizontal angle) of a plurality of receivable GPS satellites and the value of the primitive clock received from them. Calculate the time code. In this embodiment, “hour: minute: second” (for example, “00:00:00”) is output as the universal time code. Of course, the output format is not limited to this, and it is possible to output until a time of 1 second or less.
[0029]
Incidentally, the error of the calculated universal time code is negligible in the range used in this kind of application. Accordingly, even when GPS signals are received at different points, the same universal time code can be obtained at the same time.
[0030]
The GPS receiver 11 may be built in the camera-integrated video tape recorder 10 or may be provided outside. When the GPS receiver 11 is provided outside the camera-integrated video tape recorder 10, the calculated universal time code may be notified to the main body through a wired transmission path or a wireless transmission path. Of course, when used for other purposes, the position information is also transmitted to the main body. As a wireless transmission method, there are a method using light such as infrared rays and a method using a radio wave in a high frequency band such as a Bluetooth method and other methods.
[0031]
The imaging unit 12 includes an imaging optical system and a video processing system. This video processing system processes a video signal imaged by the imaging optical system as a digital signal. The video processing system has a compression encoding function. The compressed and encoded video data is output in units of frames. Accordingly, 30 frames of video data are output per second.
[0032]
The microphone unit 13 includes a microphone and a sound processing system. The audio processing system processes an audio signal input from the microphone as a digital signal. This audio processing system also has a compression coding function. The point that the compression-coded audio data is output in units of frames is the same as the video data.
[0033]
Since the present embodiment is intended for a camera-integrated video tape recorder, the microphone unit 13 is provided. However, depending on the applied electronic device (for example, an electronic still camera), there may be a configuration in which the microphone unit 13 is not used. .
[0034]
The time stamp unit 14 multiplexes the universal time code input from the GPS receiver 11, the video data input from the imaging unit 12, and the audio data input from the microphone unit 13 to generate multiplexed data. As a result, the universal time code is given to the frame data (video data and audio data). Here, the universal time code is given as a part of the auxiliary data.
[0035]
Incidentally, since the minimum unit of the universal time code in this embodiment is 1 second, the universal time code of the same time is given to 30 frame data. In the case of this camera-integrated video tape recorder, the 30 frame data to which the same time is given (for frame data at a time position finer than the time that can be specified by the universal time code) is a frame that is information of a recording unit. A number is given. With this frame number, it is possible to specify a time position of less than 1 second as an edit point.
[0036]
The storage unit 15 is a means for storing audio video data with universal time code, which is an output of the time stamp unit 14, on a video tape. FIG. 4 shows an example of recording on the video tape 41 by the storage unit 15. In FIG. 4, each track 42 extending diagonally to the right corresponds to a frame. For example, audio data 43, video data 44, and auxiliary data 45 are recorded on these tracks. In the example of FIG. 4, the universal time code 46 is recorded in the auxiliary data 45 portion. The recording position of each data is not limited to the case of FIG. The recording position depends on the recording format. Therefore, the auxiliary data 45 may be recorded on the central portion of the tape or may be recorded on the upper end side in the drawing.
[0037]
As a storage destination of the audio / video data, a semiconductor memory (regardless of a rectangular shape, a square shape, a card shape, or the like) may be considered in addition to the video tape. Various disk-shaped recording media (one that reads and writes using magnetism, one that reads and writes using light, and one that reads and writes using light and magnetism) may be used as storage media.
[0038]
In this embodiment, since the camera-integrated video tape recorder is targeted, the storage unit 15 is mounted in the same housing as the imaging unit 12, but depending on the applied electronic device (for example, a simple imaging camera), the storage unit 15 may be provided in a housing separate from the imaging unit 12.
[0039]
The external interface (I / F) 16 is a circuit for directly transmitting audio / video data with a universal time code, which is an output of the time stamp unit 14, to an external device. The audio / video data output from the external interface (I / F) 16 is stored in a predetermined storage medium in a storage unit provided outside.
[0040]
As a transmission method to an external device, a wired method and a wireless method can be considered. Here, as a wireless transmission method, there are a method that uses light such as infrared rays, and a method that uses a radio wave in a high frequency band, such as the Bluetooth method and other methods.
[0041]
(2) Editing system
FIG. 5 shows an embodiment of the editing system. Here, an editing system used in a broadcasting station will be described. Needless to say, the location of the editing system is not limited to the broadcasting station, but also includes video production companies, publishing companies, other business facilities, and private residences. The configuration of the editing system varies depending on the required content and scale.
[0042]
In the case of FIG. 5, the editing system 20 includes a non-linear editing machine 21, a VTR player 22, a video server 23, a control unit 24, an imaging camera 25, a router 26, and a sending unit 27. .
[0043]
The non-linear editing machine 21 is an apparatus that reads material data (audio data, video data) stored in a video server 23 and edits an image. Although not shown, the non-linear editing machine 21 can directly read the material data from the VTR player 22 and edit the image. Of course, the video data used here is given a universal time code.
[0044]
FIG. 6 shows a functional block configuration of the nonlinear editing machine 21. FIG. 6 shows only the portion directly related to the present invention. As shown in FIG. 6, the non-linear editing machine 21 includes an operation unit 21A, an offset information storage unit 21B, and an editing unit 21C as main components.
[0045]
The operation unit 21A is input means for instructing the editing content to the editing unit 21C. The editing contents include, for example, a target material, an editing start position, an editing end position, editing items (switching, mix, wipe, etc.), a VTR playback device to be controlled, and the like.
[0046]
The offset information storage unit 21B is a means prepared for correcting a mechanical error (offset) when a reading position of material data by the VTR player 22 or the video server 23 is included.
[0047]
The offset information storage unit 21B stores the offset amount for each material data. FIG. 7 shows an example of the offset amount. In the case of FIG. 7, the read data of the video tape A (TAPE A) needs to be corrected by “−3 frames” with respect to the editing position designated by the universal time code (UTC), and the video tape B (TAPE). B) Read data requires correction of “+10 frames” and video tape C (TAPE C) read data requires correction of “0 frames” (ie, correction is not required). It represents.
[0048]
That is, when the universal time code “10: 30: 20: 00” is set as the editing position, “10: 30: 19: 27” is designated when reading the material data of the video tape A (TAPE A). When reading is performed, the time of the material data to be actually read matches the universal time code “10: 30: 20: 00”, and when reading the material data of the video tape B (TAPE B), “10: When reading is performed by designating “30:20:10”, it indicates that the time of the material data that is actually read matches the universal time code “10: 30: 20: 00”.
[0049]
Of course, when it is not necessary to consider the offset amount, the offset amount is set to “0 frame” as in the example of the video tape C (TAPE C).
[0050]
The editing unit 21C reads the material data based on the offset information stored in the offset information storage unit 21B, and executes an editing operation according to the specified editing content.
[0051]
In the case of a time position that can be specified by the universal time code (immediately after or immediately before the change of the digit of 1 second), the editing unit 21C performs cueing only by monitoring the universal time code. However, even in this case, it is free to cue by referring to the frame number.
[0052]
On the other hand, when the 20th frame of “10:30:20 (hour: minute: second)”, for example, is specified that cannot be specified only by the universal time code, the editing unit 21C not only specifies the universal time code but also the frame number. The editing position is cued by referring together.
[0053]
These editing results are output from the editing unit 21C to the video server 23. The above is the configuration of the nonlinear editing machine 21.
[0054]
The VTR player 22 plays the material data from the video tape and stores it in the data server 23. The VTR player 22 outputs the reproduced material data to the non-linear editor 21 when the non-linear editor 21 requests data reproduction. Incidentally, when directly controlled by the non-linear editing machine 21, the VTR playback machine 22 starts reading data from the designated universal time code. Note that when the material data is stored in a storage medium other than the video tape, a player corresponding to each storage medium is used.
[0055]
The video server 23 includes a storage device that stores material data reproduced by the VTR player 22 and edited data (video data, audio data) edited by the nonlinear editor 21. In general, a hard disk device is used. However, other storage / reproduction devices such as an optical disk device and a magneto-optical disk device can also be used.
[0056]
The control unit 24 is for controlling the video server 23. It communicates with the non-linear editing machine 21 as necessary, and reads and stores necessary material data.
[0057]
The imaging camera 25 is for capturing live video data. The imaging camera 25 is arranged in the studio or on the site.
[0058]
The router 26 inputs the edited video data read from the video server 23, the video data reproduced by the VTR player 22, and the live video data captured by the imaging camera 25. This is means for selectively outputting the above.
[0059]
The sending unit 27 is an interface unit for outputting the video data selected by the router 26 as a broadcast signal. An interface corresponding to the transmission path is used.
[0060]
(3) Usage example
FIG. 8 shows an example of use when the camera-integrated video tape recorder 10 is used for recording at a golf course. As described above, since these camera-integrated video tape recorders 10 use universal time codes as time codes, the time codes of the cameras are in a synchronized state even if they are not interconnected with a coaxial cable. Therefore, as shown in FIGS. 9A to 9C, the data recorded on the video tape in each of the camera-integrated video tape recorders 10 has the same time code for the data at the same time. Will be granted.
[0061]
(4) Effects of the embodiment
As described above, by unifying the time code to be added to the video data into the universal time code, it is possible to ensure time code synchronization without connecting a plurality of camera-integrated tape recorders with a coaxial cable. As a result, the work required for imaging can be simplified and the amount of materials can be reduced. Further, since it is not necessary to connect to the coaxial cable, the degree of freedom of movement of the image pickup apparatus on site can be greatly improved.
[0062]
In addition, by using such a camera-integrated tape recorder for event recording, it is possible to obtain an edited image without deviation before and after an editing scene based on the universal time code even when a plurality of imaging devices are used. .
[0063]
Even when there is a positioning error in the playback device (including not only the VTR playback device 22 but also the video server 23), editing without deviation can be realized by specifying the time in anticipation of the offset amount.
[0064]
In addition, when a time position (position less than 1 second) finer than a time position that can be specified by the universal time code is designated as an edit point, synchronization is performed by referring to the frame number stored together with the universal time code. You can achieve excellent editing.
[0065]
(5) Other embodiments
In the above-described embodiment, the case of a camera-integrated tape recorder has been described. However, the present invention can be similarly applied to various types of electronic devices by combining the components shown in FIG.
[0066]
For example, the present invention can be applied to an imaging apparatus including the imaging unit 12 and the time stamp unit 14. This imaging device includes an imaging camera device (without the storage unit 15. The GPS receiver 11 may be built-in or externally connected), and an electronic still camera (with the storage unit 15). Similarly, the GPS receiver 11 may be built-in or externally connected. In addition, when it does not have a memory | storage part, an external communication part is required. In either case, the same effect as in the embodiment can be expected.
[0067]
Further, the present invention can be applied to a video data processing apparatus including an imaging unit 12 and a time stamp unit 14. As this video data processing apparatus, a camera-equipped portable information terminal, a camera-equipped notebook personal computer, a camera-equipped cellular phone, a camera-equipped wristwatch, and the like can be considered. In either case, the storage unit 15 may or may not be included in the terminal. However, if the storage unit 15 is not provided, an external communication unit is required. Further, the GPS receiver 11 may or may not be incorporated (that is, external connection). ). Of course, in any case, the same effect as the embodiment can be expected.
[0068]
Further, the present invention can be applied to a video data processing apparatus including a time stamp unit 14. As this video data processing device, a portable information device not equipped with an imaging device, for example, a portable information terminal, a notebook computer, a mobile phone, a wristwatch, a portable MD recorder, or the like can be considered. In either case, the storage unit 15 may or may not be included in the terminal. However, if the storage unit 15 is not provided, an external communication unit is required. Further, the GPS receiver 11 may or may not be incorporated (that is, external connection). ). Of course, in any case, the same effect as the embodiment can be expected.
[0069]
In the above-described embodiment, the editing system shown in FIG. 5 has been described. However, as a minimum set, a playback device for playing back data from a storage medium in which a universal time code is stored together with video data, and nonlinear editing All you need is a machine. In the case of a general household, in many cases, a computer provides functions of a non-linear editing machine (editing software), a playback machine (DVD device or the like), and a video server (hard disk device or the like).
[0070]
In the above-described embodiment, the offset information storage unit 21B is mounted on the non-linear editing machine, but this is not necessary in a system where it is clear that no error can occur in the editing position.
[0071]
【The invention's effect】
(1) According to the present invention, a time stamp unit that gives a universal time code (UTC) given from a GPS receiver to video data given from an image pickup unit mounted inside the image pickup device. By providing, it is possible to ensure time code synchronization without connecting a plurality of imaging devices with a coaxial cable.
[0072]
(2) According to the present invention, the time stamp unit that gives the universal time code (UTC) given from the GPS receiver to the video data given from the imaging unit is added to the video data processing apparatus having the imaging unit. By providing, it is possible to ensure time code synchronization without connecting a plurality of imaging devices with a coaxial cable.
[0073]
(3) According to the present invention, a time stamp unit that gives a universal time code (UTC) given from a GPS receiver to video data given from an external imaging device to the video data processing device. As a result, the synchronization of the time code can be ensured without connecting a plurality of imaging devices with a coaxial cable.
[0074]
(4) According to the present invention, the editing device is provided with an editing unit that refers to a universal time code (UTC) stored together with video data and synchronizes a plurality of video data. Editing without deviation before and after the editing scene can be realized based on the time code.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example embodiment of an imaging camera.
FIG. 2 is a diagram illustrating an example of use when a conventional imaging camera is used.
FIG. 3 is a diagram illustrating an example of output data when a time code of a built-in timer is added to imaging data.
FIG. 4 is a diagram illustrating an example of recording on a video tape.
FIG. 5 is a block diagram illustrating a configuration example of an editing system.
FIG. 6 is a block diagram showing a functional configuration of a nonlinear editing machine.
FIG. 7 is a diagram for explaining an offset amount.
FIG. 8 is a diagram showing an example of use when the imaging camera according to the present invention is used.
FIG. 9 is a diagram illustrating an example of output data when a universal time code is added to imaging data.
[Explanation of symbols]
10 camera-integrated video tape recorder, 11 GPS receiver, 12 imaging unit, 13 microphone unit, 14 time stamp unit, 15 storage unit, 16 external interface (I / F), 20 editing system, 21 nonlinear editing machine, 22 VTR playback Machine, 23 video server, 24 control unit, 25 imaging camera, 26 router, 27 sending unit

Claims (3)

映像データをノンリニア編集するノンリニア編集装置において、
映像データと共に記憶されているユニバーサルタイムコード(UTC:Universal Time Code)を参照し、複数の映像データを同期させる編集部と、
上記複数の映像データ毎に上記ユニバーサルタイムコードの最小単位よりも細かい単位でのオフセット量が記憶されるオフセット情報記憶部とを備え
上記オフセット量は、上記ユニバーサルタイムコードに対する上記映像データの読み出し位置の誤差を補正するための情報である
ノンリニア編集装置。
In a non-linear editing device that performs non-linear editing of video data,
An editing unit that refers to a universal time code (UTC) stored together with video data and synchronizes a plurality of video data ;
An offset information storage unit that stores an offset amount in units smaller than the minimum unit of the universal time code for each of the plurality of video data ,
The non-linear editing apparatus , wherein the offset amount is information for correcting an error in the reading position of the video data with respect to the universal time code .
上記オフセット量は、上記ユニバーサルタイムコードの最小単位である秒よりも細かいフレーム単位で上記オフセット情報記憶部に記憶されるThe offset amount is stored in the offset information storage unit in units of frames smaller than the second unit which is the minimum unit of the universal time code.
請求項1記載のノンリニア編集装置。The nonlinear editing apparatus according to claim 1.
上記編集部は、上記映像データと共に記憶されているユニバーサルタイムコードと、上記オフセット情報記憶部に記憶されるオフセット量とに基づいて上記複数の映像データを同期させるThe editing unit synchronizes the plurality of video data based on a universal time code stored together with the video data and an offset amount stored in the offset information storage unit.
請求項1記載のノンリニア編集装置。The nonlinear editing apparatus according to claim 1.
JP2000213257A 2000-07-13 2000-07-13 Non-linear editing device Expired - Fee Related JP4164993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000213257A JP4164993B2 (en) 2000-07-13 2000-07-13 Non-linear editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000213257A JP4164993B2 (en) 2000-07-13 2000-07-13 Non-linear editing device

Publications (2)

Publication Number Publication Date
JP2002032978A JP2002032978A (en) 2002-01-31
JP4164993B2 true JP4164993B2 (en) 2008-10-15

Family

ID=18709040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000213257A Expired - Fee Related JP4164993B2 (en) 2000-07-13 2000-07-13 Non-linear editing device

Country Status (1)

Country Link
JP (1) JP4164993B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003102828A1 (en) * 2002-06-04 2003-12-11 International Business Machines Coporation System and method for selecting and retrieving information from an audio-visual presentation
JP4619898B2 (en) * 2005-08-18 2011-01-26 富士フイルム株式会社 Imaging device
US8520999B2 (en) * 2008-12-23 2013-08-27 Sony Corporation Camera event logger
JP2010210522A (en) * 2009-03-11 2010-09-24 Sogo Keibi Hosho Co Ltd Time stamp function adding apparatus for laser range sensor
JP5790710B2 (en) * 2013-05-23 2015-10-07 カシオ計算機株式会社 Image processing apparatus, control method, and program

Also Published As

Publication number Publication date
JP2002032978A (en) 2002-01-31

Similar Documents

Publication Publication Date Title
JP4792686B2 (en) Image processing apparatus, image processing method, and recording medium
JP3753330B2 (en) Portable video recording device including switching control for multiple data flow configurations
JPH04181884A (en) Video signal recording device
JP4164993B2 (en) Non-linear editing device
KR20010092353A (en) Hard disk drive
JP4438177B2 (en) Data transmission / reception system
JP4613390B2 (en) Image processing apparatus and image processing method
JP2005303336A (en) Video signal recording apparatus and video signal reproducing apparatus
US5543937A (en) Apparatus for recording and playing back digital data
JP2001292411A (en) Image data recorder and image data recording method
KR100346919B1 (en) Real time automatic continuous memorizing and playback method of a signal, and system/device of the same
JP4846892B2 (en) Image processing system and material storage method
JP4058154B2 (en) Video recording / reproducing apparatus and video recording / reproducing method
JP4613389B2 (en) Image processing apparatus and image processing method
JP4672131B2 (en) Imaging apparatus and program production method
JP3714312B2 (en) Editing method and apparatus
JP3654978B2 (en) Digital recording / reproducing apparatus and digital data recording system
JP2020170998A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2007282258A (en) Unit and method for reproducing image, and program recording medium
JPH0327686A (en) Still video equipment
JP2009060664A (en) Imaging apparatus, and program producing method
JPH11252490A (en) Information addition type data recorder
JPH04196780A (en) Magnetic recording and reproducing device
JPH0474069A (en) Magnetic recording and reproducing device
JPH08212757A (en) Data recorder and reproducer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees