JP4442500B2 - 素材記録装置および素材記録方法 - Google Patents

素材記録装置および素材記録方法 Download PDF

Info

Publication number
JP4442500B2
JP4442500B2 JP2005118395A JP2005118395A JP4442500B2 JP 4442500 B2 JP4442500 B2 JP 4442500B2 JP 2005118395 A JP2005118395 A JP 2005118395A JP 2005118395 A JP2005118395 A JP 2005118395A JP 4442500 B2 JP4442500 B2 JP 4442500B2
Authority
JP
Japan
Prior art keywords
recording
video
data
unit
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005118395A
Other languages
English (en)
Other versions
JP2006303593A (ja
Inventor
勝之 藤畑
竹春 日野
卓司 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005118395A priority Critical patent/JP4442500B2/ja
Priority to EP06252047A priority patent/EP1713074A3/en
Priority to US11/403,620 priority patent/US8346053B2/en
Priority to KR1020060033971A priority patent/KR101254338B1/ko
Priority to CN2006100743599A priority patent/CN1848937B/zh
Publication of JP2006303593A publication Critical patent/JP2006303593A/ja
Application granted granted Critical
Publication of JP4442500B2 publication Critical patent/JP4442500B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、たとえば放送用の映像コンテンツなどの映像素材を記録するための素材記録装置および素材記録方法に関し、特に、記録対象の映像素材の所望の位置と指標情報とを編集のために関連付ける技術に関する。
近年、その大容量化やデータ転送速度の向上により、光ディスクを、放送業務用のビデオカメラの記録媒体として用いることができるようになってきている。例えば、青紫色発光ダイオードにより映像や音声のデータが記録される光ディスクの記録容量は、片面1層の記録方式で約23GBにもなり、また、データの転送速度(記録ビットレート)は、圧縮率によっても異なるが50Mbps以上にも及ぶ。
そして、このような光ディスクと放送業務用ビデオカメラを用いて、所望の映像コンテンツを撮影する場合には、取り込んだ映像から、画質の劣化などが生じないように比較的低い圧縮率で圧縮した映像データ(主映像データ)の他に、そのビデオデータよりも高い圧縮率で圧縮したプロキシ映像データ(低解像度の映像データ)を生成し、光ディスクに記録する(たとえば特許文献1参照)。
なお、取り込んだ音声についても、低圧縮率の主音声データの他、必要に応じて、高圧縮率のプロキシ音声データが作成される。
プロキシ映像データやプロキシ音声データ(以下、プロキシAVデータ)は、近年、一般的に行われている、いわゆるノンリニア編集を行うためのデータであり、パーソナルコンピュータに取り込まれた後、編集の素材とされる。これは、パーソナルコンピュータなどでノンリニア編集を行う場合、その処理能力が不足することから、上述したような高ビットレートの主映像データを、直接、編集用の素材とすることができないからである。
このように、プロキシ映像データに基づいて行われる編集はプロキシ編集(粗編集)と呼ばれることがあり、この粗編集は、例えば、撮影現場などで簡易な編集として行われる。粗編集作業では、たとえば記録した映像のキーとなる位置を記録する、記録した映像の所望の位置にコメント書きをする、等の作業がある。たとえば、野球の試合が映像コンテンツの場合、粗編集では、たとえば試合中に「ホームラン」があった位置(タイムコード等)を記録し、その「ホームラン」に対してコメント書きをする作業などが行われる。
下記特許文献1には、映像のキーとなる位置を後に確認するために、映像データに対して付加情報として、メタデータの説明が開示されている(たとえば、段落番号[0070])。
粗編集は、主として映像コンテンツを取得する現場での作業であり、その結果は、例えば、光ディスクに記録された状態で配送される主映像・音声データ(以下、単にAVデータ)とは別に、最終的な放送用データを作成するスタジオの装置などに、ネットワークを介して送信される。そして、そのスタジオにおいて、プロキシ編集の結果に基づく主映像データの編集が行われ、最終的な、放送用の映像データが作成される。
特開2004−343217号公報
ところで、従来、粗編集作業は、映像コンテンツの記録終了後に、光ディスクに記録されたプロキシAVデータをパーソナルコンピュータに転送し、再生しながら行っていた。これは、映像コンテンツを記録するカメラマンは、撮影作業に忙しく、撮影しながら映像のキーとなる位置を記録することはできないためである。したがって、撮影作業と粗編集作業が順に行われ、非常に時間がかかっていた。
本発明は、上述した観点によってなされたものであって、その目的は、映像コンテンツなどの映像素材の記録および編集にかかる時間を低減した素材記録装置および素材記録方法を提供することにある。
上記課題を克服するために、本願発明の第1の観点の素材記録装置は、映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置であって、前記第1処理部は、映像素材を記録開始から記録終了までを1単位として、当該1単位ごとに固有の固有番号を付与して記録する素材記録部と、前記第2処理部との通信を行う第1通信部と、前記素材記録部が1つの映像素材を記録終了する前に、当該映像素材を記録した順に前記第2処理部へ前記第1通信部を介してパケット単位で送信する第1制御部と、を備え、前記第2処理部は、前記第1処理部からの映像素材を順に受信する第2通信部と、受信した映像素材を表示する表示部と、受信した映像素材を記録する記録部と、前記表示部に表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて前記記録部に記録する第2制御部と、を備え、前記素材記録部が記録する前記映像素材は、パケットごとに固有のパケット番号が付与されており、前記第2制御部は、前記受信部が前記第1処理部との通信異常が生じたことを検出したとき、前記第1処理部が前記映像素材の記録中であるか否かを判定し、記録中である場合に、前記第1処理部に対して固有番号を要求し、当該要求に応じて取得した通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とを比較し、一致する場合には、前記通信異常発生前後でパケット番号が連続しているか否かを判定し、連続していないと判定した場合に、通信異常前後のパケット番号の差分を算出して、当該差分に相当する期間分の補間映像を前記映像素材に挿入して前記記録部に記録し、一致しない場合には、前記通信異常後に取得した新しい固有番号を有する映像素材における取得していないパケット分の補間映像を前記映像素材に挿入して前記記録部に記録する
上記課題を克服するために、本願発明の第2の観点の素材記録方法は、映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置における素材記録方法であって、前記第1処理において、映像素材を記録開始から記録終了までを1単位として、当該1単位ごとに固有の固有番号を付与して記録するステップと、つの映像素材を記録終了する前に、当該映像素材を記録した順にパケットごとに固有のパケット番号が付与してパケット単位で前記第2処理部へ送信すステップと、を備え、前記第2処理部において、前記第1処理部からの映像素材を順に受信するステップと、受信した映像素材を表示するステップと、前記表示され映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて記録するステップと、前記第1処理部との通信異常が生じたことを検出したとき、前記第1処理部が前記映像素材の記録中であるか否かを判定するステップと、記録中であると判定した場合に、前記第1処理部に対して固有番号を要求し、当該要求に応じて取得した通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とを比較するステップと、通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とが一致する場合には、前記通信異常発生前後でパケット番号が連続しているか否かを判定し、連続していないと判定した場合に、通信異常前後のパケット番号の差分を算出して、当該差分に相当する期間分の補間映像を前記映像素材に挿入して記録するステップと、通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とが一致しない場合には、前記通信異常後に取得した新しい固有番号を有する映像素材における取得していないパケット分の補間映像を前記映像素材に挿入して記録するステップと、を備えた。
なお、本発明において、素材IDは、映像素材を特定するための固有の符号、番号、記号などの識別情報を含む概念である。
本発明によれば、映像コンテンツなどの映像素材の記録と、当該映像素材の所望の位置における映像と指標情報とを関連付けた記録とが平行して行われるため、記録・編集にかかる時間を低減することができる。
以下、本発明の一実施形態である素材記録装置1について、以下の順に説明する。
[素材記録装置1の全体構成]
[光ディスク装置2の構成]
[コンピュータ3の構成]
[コンピュータ3のGUI]
[素材記録装置1の動作]
(1)ネットワーク接続開始〜映像表示
(2)記録開始
(3)エッセンスマークEMの入力
(4)記録終了
(5)通信中断処理
[実施の形態における効果]
[素材記録装置1の全体構成]
素材記録装置1は、たとえば放送番組制作現場などで映像コンテンツ(映像素材)の記録・粗編集を行うための装置である。素材記録装置1では、映像コンテンツを記録するのと平行して、映像コンテンツ(プロキシAVデータ)の所望の位置にエッセンスマーク等の入力、およびそれに伴うメタデータファイルの生成を可能とした装置である。
なお、一般にメタデータとは、あるデータに関する上位データであり、各種データの内容を表すためのインデックスとして機能するデータである。本実施形態の説明において、メタデータは、エッセンスマーク、UMID(Unique Material Identifier;SMPTE 330Mとして国際標準化されたAV素材の識別子)、フレームカウント(または、タイムコード)を含んで構成される時系列メタデータであり、光ディスク装置2およびコンピュータ3の双方で生成される。また、必要に応じて、非時系列メタデータも生成される。
エッセンスマークについては、後述する。
図1は、素材記録装置1の全体構成を示す図である。
図1に示すように、素材記録装置1は、ビデオカメラなどの撮像手段で取得した映像コンテンツを記録する光ディスク装置2と、当該映像コンテンツをプロキシAVデータとしてネットワーク900を介して受信し、ストリーミング再生するとともに、編集用の指標情報を入力可能なパーソナルコンピュータ(Personal Computer)3(以下、コンピュータ3)とを含む。
なお、映像コンテンツを送信する光ディスク装置2は、本発明の「第1処理部」,「第1処理装置」に相当し、映像コンテンツを受信するコンピュータ3は、本発明の「第2処理部」,「第2処理装置」に相当する。
光ディスク装置2において高ビットレートで符号化されたAVデータを、そのままコンピュータ3に転送・処理することは、通信容量およびコンピュータ3の処理能力を考慮すると困難な場合があるため、本実施形態では、光ディスク装置2側で低解像度のプロキシAVデータを生成して、コンピュータ3に送信するようになっている。
コンピュータ3では、プロキシAVデータを受信して再生(ストリーミング再生)するとともに、当該プロキシAVデータの任意の位置に対してエッセンスマークの入力を受け付ける。
なお、素材記録装置1において、光ディスク装置2とコンピュータ3は、所定のイーサネットプロトコルに準拠してネットワーク900に接続される。
素材記録装置1の好ましい使用形態では、たとえば光ディスク装置2を操作するユーザAとは別のユーザBがコンピュータ3を操作する。かかる使用形態では、ユーザAは、撮影作業に専念でき、ユーザBは、リアルタイムで撮影内容を視聴しながら編集に必要な指標情報を入力することができる。したがって、撮影作業と編集作業とを同時進行させることができる。
次に、本発明の指標情報としてのエッセンスマークについて、概略的に説明する。
エッセンスマークは、映像コンテンツから取得されたAVデータの所望の映像シーン(またはカット)に関連付けられたインデックスを表す。エッセンスマークを参照することで、AVデータの再生処理をしなくても、当該エッセンスマークに対応付けられた特定のシーンを把握することができるので、編集を行う際に便利である。
素材記録装置1において、エッセンスマークは、予め予約語として定義される。したがって、光ディスク装置2とコンピュータ3とのインタフェース間で、エッセンスマークを相手装置に応じて変換することなく、共通のメタデータとして扱うことが可能である。
図2は、エッセンスマークを定義するために用いられる予約語の例を示す図である。なお、この図2の例は一例であって、さらに他のエッセンスマークを追加定義することも可能である。
“_RecStart”は、記録の開始位置を示す撮影開始マークである。“_RecEnd”は、記録の終了位置を示す撮影終了マークである。“_ShotMark1”および“_ShotMark2”は、注目すべき時点などの任意の位置を示すショットマークである。“_Cut”は、カット位置を示すカットマークである。“_Flash”は、フラッシュが発光された位置を検出したフラッシュ検出位置を示すフラッシュマークである。“_FilterChange”は、撮像装置においてレンズフィルタを変更した位置を示すフィルタ変更マークである。“_ShutterSpeedChange”は、撮像装置においてシャッタ速度を変更した位置を示すシャッタ速度変更マークである。“_GainChange”は、フィルタなどのゲインを変更した位置を示すゲイン変更マークである。“_WhiteBalanceChange”は、ホワイトバランスを変更した位置を示すホワイトバランス変更マークである。“_OverBrightness”は、映像信号の出力レベルが限界値を超えた位置を示すマークである。“_OverAudioLimiter”は、音声信号の出力レベルが限界値を超えた位置を示す大音量マークである。
上述までの各マークは、映像データのフレームカウントに対応付けて記録される。
“_In−XXX”は、カットまたは素材の切り出し開始位置を示す編集開始マークである。“_Out−XXX”は、カットまたは素材の切り出し終了位置を示す編集終了マークである。編集開始マークおよび編集終了マークは、編集開始点(IN点)や編集終了点(OUT点)が追加される毎に、数字やアルファベットなどが“XXX”の部分に順に番号付けがなされる。例えば、“_In−001”、“_In−002”、・・・のようになる。
なお、図2において、たとえば、“_Flash”, “_ShutterSpeedChange”, “_WhiteBalanceChange”など、撮影機能に依存したエッセンスマークは、光ディスク装置2側で生成され、メタデータファイルに記述される。
図2において、たとえば、“_ShotMark1”,“_ShotMark2”,“_In−XXX”,“_Out−XXX”など、映像編集のためのエッセンスマークは、コンピュータ3側で入力され、メタデータファイルに記述される。
上述のように定義されたエッセンスマークを、粗編集時にインデックスとして用いることで、目的に応じた映像シーンを効率的に選択することが可能となる。
[光ディスク装置2の構成]
次に、光ディスク装置2の構成について、図3に関連付けて説明する。
図3は、光ディスク装置2の構成を示すブロック図である。
図3において、撮像部21は、映像コンテンツを撮像するカメラ、映像をモニタするLCD、および撮像調整機構を含む。撮像部21は、ビデオ信号とオーディオ信号とが多重化されたAV信号を生成して、AV信号インタフェース22に供給する。たとえば、操作部29の入力に応じて、映像コンテンツの記録開始および記録終了し、1クリップのAV信号を生成する。なお、1回の記録開始から記録終了に至るまでの連続した映像区間を1クリップという。光ディスク装置2では、クリップ単位でAVデータ、プロキシAVデータなどが管理され、クリップ単位でファイルが生成される。
また、撮像部21は、操作部29の入力に応じて、たとえばホワイトバランスの調整、フラッシュの発光などの撮像調整を行う。
AV信号インタフェース22は、撮像部21から供給された映像信号をビデオ符号化部23に、音声信号をオーディオプロセッサ24にそれぞれ出力する。
ビデオ符号化部23は、供給されたビデオ信号を、必要に応じてディジタル変換した後、例えばMPEG(Moving Picture Experts Group)2方式の圧縮符号化(エンコード)を行い、得られたデータを、所定のインタフェース回路を介してバス20に出力する。
オーディオプロセッサ24は、AV信号インタフェース22から供給された音声信号をアナログ/ディジタル変換し、得られたデータを所定のインタフェース回路を介してバス20に出力する。
ドライブ25は、ピックアップ251、ピックアップからのレーザの発生と、その反射光の検出を制御するピックアップコントローラ252、光ディスク4に記録させるデータをピックアップ251に出力するとともに、ピックアップ251で検出されたレーザの反射光から、データを取得するデータプロセッサ253、データプロセッサ253とバス29の間のデータの送受信を行うドライブインタフェース254から構成されている。
なお、ドライブ25には、光ディスクのローディング機能を有しているが、図3では当該機能ブロックは省略されている。
CPU26は、ROM27に記録されている制御プログラムをRAM24に展開し、光ディスク装置1の全体の動作を制御する。例えば、CPU22は、光ディスク4がドライブ28に装着されたとき、ドライブ38の各部を制御する。
CPU26は、ビデオ符号化部23およびオーディオプロセッサ24の出力データを多重化して、AVデータおよびプロキシAVデータを生成する。その際、プロキシAVデータをAVデータよりも低ビットレートとした圧縮符号化を行うように、ビデオ符号化部23を制御する。
生成したプロキシAVデータは、通信インタフェース28を介して、たとえば2秒分のパケットごとにコンピュータ3へ送信される。
CPU26は、ドライブ25を制御し、1クリップ分のプロキシAVデータをプロキシAVデータファイル(本発明の素材ファイル)として光ディスク4に記録する。図4に示すように、プロキシAVデータファイルは、プロキシヘッダ(以下、ヘッダ)、パケットデータ、フッタから構成される。
ヘッダ(本発明の第1付加情報)は、プロキシAVデータの圧縮方式が記述されたデータのほか、記録長データを含む。したがって、ヘッダは、記録終了によってその内容が確定する。
パケットデータは、2秒ごとのプロキシAVデータを含むパケットを複数含む。各パケットは、2秒ごとのプロキシAVデータのほか、クリップを特定するためのクリップ番号(本発明の素材ID)、パケットを特定するためのパケット番号を含んでいる。クリップ番号は、対応するクリップのUMIDに応じて設定され、クリップごとに異なる固有の番号である。パケット番号は、当該クリップにおいて、記録開始から順に送信されるパケットごとに連続した番号となっている(たとえば、“C0001”,“C0002”,…)。
フッタ(本発明の第2付加情報)は、プロキシAVデータの終わりを示す符号を含む。
なお、光ディスク装置2は、コンピュータ3からの要求に応じて、1クリップの撮影終了後にヘッダをコンピュータ3へ送信する。
CPU26は、たとえばホワイトバランスの調整、フラッシュの発光などの撮像調整が行われると、対応するエッセンスマークEMを抽出し、その撮像調整時のフレームカウントと関連付けて、メタデータファイルMDF1(本発明の第1ファイルに相当)に記述する。すなわち、1クリップの映像コンテンツの位置と、当該位置に対応して設定されるエッセンスマークとを関連付けて、メタデータファイルMDF1に記述する。そして、1クリップ分のメタデータファイルMDF1は、光ディスク4に記録される。
なお、後述するように、光ディスク4上のメタデータファイルMDF1は、コンピュータ3からメタデータファイルMDF3を受信した後、メタデータファイルMDF3に書き換えられる。
CPU26は、光ディスク装置2の動作状態を示すデータとして、ステータスSTSを生成する。そして、コンピュータ3からの要求に応じて、ステータスSTSを返信する。ステータスSTSは、記録中であることを示す“REC”、再生中であることを示す“PLAY”、停止中であることを示す“STOP”(または、“PAUSE”)を含む。たとえば、“STOP”のステータスにおいて記録開始操作がなされると、ステータスは、“STOP”から“REC”に変化し、さらに記録終了操作がなされると、ステータスは、“REC”から“STOP”に変化する。
CPU26は、記録開始操作によって、新しいクリップのAVデータが生成され始めると、対応するクリップデータを生成する。クリップデータには、クリップ番号、フレームレート、UMIDが含まれる。光ディスク装置2は、コンピュータ3からの要求に応じて、クリップデータをコンピュータ3へ送信する。
[コンピュータ3の構成]
次に、コンピュータ3の構成について説明する。
コンピュータ3には、光ディスク装置2から、多重化されたプロキシAVデータがパケット単位で送信される。コンピュータ3では、送信されたプロキシAVデータをストリーミング再生(映像出力、音声出力)するとともに、プロキシAVデータの所望の位置に対して、指標情報としてのエッセンスマークが入力可能となっている。そして、入力されたエッセンスマークがメタデータファイルに記述されるとともに、エッセンスマークの入力位置に対応するサムネイル画像が表示される。
図5に示すように、コンピュータ3は、通信インタフェース31、操作部32、メモリ33、ディスプレイ34、スピーカ35、CPU36を含んで構成される。
通信インタフェース31は、所定のイーサネットプロトコルに準拠し、光ディスク装置2と通信可能に構成される。通信インタフェース31は、光ディスク装置2から、1クリップの映像コンテンツの記録中に、ステータスSTS、クリップデータ、プロキシAVデータを受信する。また、通信インタフェース31は、当該クリップの記録後に、ヘッダおよびメタデータファイルMDF1を受信する。
操作部32は、ディスプレイ34と協調して所定のGUI(Graphical User Interface)を構成する。すなわち、操作部32は、たとえばキーボードを有し、そのキーボードに対する操作入力がディスプレイ34に表示される画像に対応している。
操作部32は、操作入力として、エッセンスマークEMを受け入れる。すなわち、コンピュータ3を操作するユーザは、プロキシAVデータの再生映像(ライブ映像)を見ながら、後工程の編集作業のためのインデックスとして、エッセンスマークEMを入力する。
たとえば、プロ野球ゲームのライブ映像の再生中において、ホームランがあった時点で操作部32に対して所定の操作を行なうことで、ホームランに対応するエッセンスマークEMがフレームカウントと対応付けられる。これにより、後でプロ野球ゲームのダイジェスト版のAVデータを生成するような編集作業が容易になる。
入力されたエッセンスマークEMは、CPU36によって、入力した時点のフレームカウントと関連付けられる。また、操作部32は、エッセンスマークEMに対応したテキストデータ(コメント)を受け入れる。
エッセンスマークEM、フレームカウント(またはタイムコード)、コメントは、メタデータファイルMDF2(本発明の第2ファイルに相当)に記述される。そして、1クリップ分のメタデータファイルMDF2は、メモリ33に記録される。
CPU36は、通信インタフェース31を介して、たとえば1秒ごとに光ディスク装置2に対して、光ディスク装置2が生成するステータスSTS(光ディスク装置2の状態を示すデータ)を要求し、取得する。すなわち、CPU32は、光ディスク装置2が現在、記録中であるか(“REC”)、再生中であるか(“PLAY”)、停止中であるか(“STOP”)について、1秒ごとに検出を行う。
CPU36は、コンピュータ3から取得したプロキシAVデータを順次ストリーミング再生する。すなわち、プロキシAVデータを復号し、復号により得られた映像を順次ディスプレイ34に表示し、復号により得られた音声をスピーカ35に出力する。
CPU36は、光ディスク装置2から取得した1クリップ分のプロキシAVデータを、クリップデータと関連付けてメモリ33に記録する。すなわち、プロキシAVデータをクリップごとに管理する。そして、CPU36は、光ディスク装置2による記録終了時には、プロキシAVデータの最後にフッタを付加し、光ディスク装置2から記録終了後に取得するヘッダをプロキシAVデータの先頭に付加して、プロキシAVデータファイルを生成する。
CPU36は、1クリップの記録終了の後、光ディスク装置2からメタデータファイルMDF1を取得し、内部で生成したメタデータファイルMDF2と合併(マージ)させて、メタデータファイルMDF3(本発明の第3ファイルに相当)を生成し、メモリ33に格納する。
メタデータファイルのマージは、以下のように行う。
メタデータファイルMDF2とメタデータファイルMDF1とで、エッセンスマークEMと関連付けられたフレームカウントが異なる場合には、そのままマージする。
メタデータファイルMDF2およびMDF1におけるエッセンスマークEMが同一のフレームカウントと関連付けられている場合には、いずれか(たとえばMDF1)のエッセンスマークEMに対応するフレームカウントを、たとえば1つシフトする(たとえば増加させる)。すなわち、マージ後に、すべてのフレームカウントで、対応するエッセンスマークEMが1つのみとなるような処理を行う。
そして、CPU36は、マージにより得られたメタデータファイルMDF3を光ディスク装置2へ送信する。これにより、光ディスク装置2とコンピュータ3とで、共通のメタデータファイルMDF3によって、各クリップを管理することができる。
ディスプレイ34は、操作部32と協調した所定のGUIに従って、送信されたプロキシAVデータの映像再生、エッセンスマークの入力に応じた表示などを行う。
ディスプレイ34のGUIの一例については、後述する。
[コンピュータ3のGUI]
次に、コンピュータ3のGUIについて説明する。
図6は、コンピュータ3のディスプレイ34の表示画像を示す図である。図に示すように、ディスプレイ34は、概ね4つの表示領域A1〜A4を含んで構成される。なお、図6は、光ディスク装置2が記録中である場合の表示例を示す。
表示領域A1は、ディスクデータとクリップデータに基づいて、クリップ単位でのファイル管理状態を表示する領域である。図6においては、「C0001」〜「C0011」は、それぞれ、すでにメモリ33にプロキシAVデータファイルが記録されたクリップ番号を示している。また、図6では、クリップ番号が「C0012」のプロキシAVデータを受信していることを強調するため、表示領域A1では、他のクリップ番号のクリップと異なる表示方法で「C0012」が表示されている。
表示領域A2は、受信中のプロキシAVデータの映像(ライブ映像)を表示する領域である。表示領域A2には、ライブ映像のほか、時刻情報、ステータスSTSの検出結果(たとえば、表示領域A2の左下端の領域A21の“REC”)が表示される。
表示領域A3は、操作部32のファンクションキーとエッセンスマークに対応するテキスト(EM名称)との対応関係を表示する領域である。たとえば、“_ShotMark1”(図2参照)というエッセンスマークに対応するEM名称“ShotMrk1”がファンクションキーF1に対応して表示されている。コンピュータ3を操作するユーザは、ライブ映像の所望の位置で、ファンクションキーを押下することにより、対応するエッセンスマークEMが入力されることになる。入力されたエッセンスマークは、メタデータファイルMDF2に記述される。
表示領域A4は、入力されたエッセンスマークEMに対応したサムネイル画像を表示する領域である。ファンクションキーの押下によりエッセンスマークEMが入力されると、入力時に表示領域A2に表示している画像がビットマップ形式に変換されて、図6に示すように、ビットマップ画像(サムネイル画像)、エッセンスマーク、コメントなどを含むサムネイル画像領域が生成され、表示される。なお、サムネイル画像領域のコメント欄には、サムネイル画像領域が生成された後、常にテキスト入力を受け付ける。
サムネイル画像領域には、クリップ開始時刻に対し、エッセンスマークEMに対応するフレームカウントを付加することでタイムコード(LTC)が表示される。
図6では、クリップ番号が「C0012」のクリップのプロキシAVデータを再生しており、たとえば表示領域A42には、当該クリップの複数のサムネイル画像領域がスクロール可能に表示されている。また、表示領域A41には、表示領域A1でアクティブとなっているクリップ(図では、「C0012」のクリップ)のプロパティ情報(たとえば、タイトル、日付、記録開始時のサムネイル画像等)が表示されている。
コンピュータ3は、上述したようなGUIを有しているため、ユーザは、記録中の映像コンテンツをリアルタイムにライブ映像として視聴できるとともに、そのライブ映像の所望の位置に、後の編集作業のために必要となるエッセンスマークEMを入力することができる。さらに、サムネイル画像領域のコメント欄にメモを入力でき、後の編集作業に有益である。
[素材記録装置1の動作]
次に、素材記録装置1の動作について説明する。
(1)ネットワーク接続開始〜映像表示(図7参照)
先ず、光ディスク装置2とコンピュータ3間の通信を確立するため、コンピュータ3から光ディスク装置2に対して接続要求を行う(ステップST1)。たとえば、コンピュータ3ではユーザネームとパスワードの入力操作を受け入れるように構成し、光ディスク装置2ではその入力内容に基づいて認証処理を行う(ステップST2)。そして、光ディスク装置2は、認証結果をコンピュータ3に通知する(ステップST3)。認証が成功すると、ステップST4以降の処理が行われる。
なお、図7では、光ディスク装置2のステータスSTSは“STOP”、すなわち「停止中」であり、映像の記録を行っていないものとする。
ステップST4では、コンピュータ3は、ステータスSTSとディスクデータDDの要求を行う(ステップST4)。ここで、ディスクデータDDには、光ディスク装置2にロードされた光ディスク固有のID(ディスクID)が含まれている。これらの要求に応じて、コンピュータ3は、光ディスク装置2からステータスSTSとディスクデータDDを受信する(ステップST5)。
なお、図示しないが、以後、コンピュータ3は、定期的に、たとえば1秒ごとに光ディスク装置2に対してステータスSTSの要求を行い、ステータスSTSを取得する。
次に、コンピュータ3は、プロキシAVデータを要求し(ステップST6)、その要求に応じて、光ディスク装置2は、EE(Electric to Electric)画のプロキシAVデータを送信する(ステップST7)。すなわち、光ディスク装置2は、「停止中」であるため、取得した映像の記録を行わず、単にそのままコンピュータ3へ送信しているだけである。そして、コンピュータ3は、受信したプロキシAVデータをストリーミング再生する。(ステップST8)。すなわち、プロキシAVデータを復号し、復号により得られた映像を順次ディスプレイ34に表示し、復号により得られた音声をスピーカ35に出力する。
なお、光ディスク装置2側で記録が開始される時刻は、光ディスク装置2のユーザの操作タイミングに依存し、あらかじめ予期することはできない。一方、記録開始に備えて、常にEE画のプロキシAVデータを保存しておくことは、メモリ33の限られた記憶容量を考慮すると非常に難しい。
したがって、コンピュータ3では、たとえば30個のパケット(1パケットは2秒分のプロキシAVデータ)を書き込むことができるテンポラリプロキシAVデータファイルを設ける。そして、テンポラリプロキシAVデータファイルに1分間のプロキシAVデータを保存する(ステップST9)。その1分間が経過する前に、新たなテンポラリプロキシAVデータファイルを生成して、次の1分間のプロキシAVデータは、この新たなテンポラリプロキシAVデータファイルに保存し、前のテンポラリプロキシAVデータファイルは削除する。かかる処理を繰り返し行う。
これにより、コンピュータ3が保存する、EE画のプロキシAVデータのデータが増大していくことを防止する。また、少なくとも1パケット分のプロキシAVデータは、常に保存されているので、いつ“REC”へのステータス変化を検出した場合であっても、記録開始直後のプロキシAVデータを失うことはない。
(2)記録開始(図8参照)
次に、光ディスク装置2のユーザに操作入力に応じて、光ディスク装置2が記録を開始すると、光ディスク装置2は、ステータスSTSを“STOP”から“REC”へ変化させる。コンピュータ3は、1秒ごとにステータスSTSの要求をしており、このステータス変化をすぐに検出する(ステップST10)。検出結果は、ユーザが認識できるように、コンピュータ3のディスプレイ34に表示される。
そして、コンピュータ3は、光ディスク装置2に対して、記録中のAVデータのクリップデータを要求する(ステップST11)。光ディスク装置2では、UMIDに対応するクリップ番号によって記録中のAVデータが管理されており、このクリップ番号を含むクリップデータがコンピュータ3に対して送信される(ステップST12)。これにより、光ディスク装置2とコンピュータ3とで、共通のクリップ番号に関連付けてファイルを管理することができる。
コンピュータ3では、送信されたクリップデータに含まれるクリップ番号に対応付けて、プロキシAVデータファイルを作成する。そして、コンピュータ3は、プロキシAVデータの要求(ステップST13)に応じて、パケット単位でプロキシAVデータを受信する(ステップST14)。受信したプロキシAVデータは、作成されたプロキシAVデータファイルに順次格納されていく(ステップST15)。
(3)エッセンスマークEMの入力(図9参照)
記録が行われ、コンピュータ3においてストリーミング再生が行われている間、操作部32を介したエッセンスマークを受け入れて、メタデータファイルMDF2に記述する。
エッセンスマークEMに対応するテキスト(EM名称)は、たとえば操作部32のファンクションキーと関連付けて、あらかじめメモリ33に設定登録されている。そして、CPU36は、ファンクションキーに対する入力を検出すると(ステップST20)、その入力に対応したエッセンスマークEMをメモリ33から読み出すとともに、入力を検出した時点での映像のフレームカウントを抽出する(ステップST21)。
また、操作部32は、コメント入力を受け付ける(ステップST24)。このコメント入力は、図示するようなステップST21とST22の間のタイミングに限らず、必要に応じて随時受け付ける。
エッセンスマークEM、フレームカウント、コメントは、関連付けられて、メタデータファイルMDF2に記述される(ステップST22)。
さらに、ファンクションキーに対する入力を検出した時点においてディスプレイ34に再生している画像をビットマップ形式の画像データに変換してサムネイル画像を生成し、表示する(ステップST23)。前述したように、コメントは、サムネイル画像を生成後であっても入力が可能である。
(4)記録終了(図10参照)
次に、光ディスク装置2に対するユーザの操作入力に応じて、光ディスク装置2が記録を終了すると、光ディスク装置2は、ステータスSTSを“REC”から“STOP”へ変化させる。コンピュータ3は、1秒ごとにステータスSTSの要求をしており、このステータス変化を短時間で検出する(ステップST30)。
1クリップの記録が終了すると、光ディスク装置2では、そのクリップの記録長(記録期間)データをヘッダに書き込む。これにより、ヘッダが完成する。
コンピュータ3は、ステータス変化を検出した後、ヘッダを要求し(ステップST31)、完成したヘッダを受信する(ステップST32)。コンピュータ3は、取得したヘッダをプロキシAVデータファイルの先頭に付加するとともに、そのプロキシAVデータファイルに保存したプロキシAVデータの最後にフッタ(終了位置を示す所定の符号)を付加する。この処理により、コンピュータ3においてプロキシAVデータファイルが完成する。
次に、コンピュータ3は、光ディスク装置2で生成されたメタデータファイルMDF1を光ディスク装置2に対して要求し(ステップST34)、取得する(ステップST35)。
さらに、コンピュータ3は、メタデータファイルMDF2とメタデータファイルMDF1とを合併(マージ)して、メタデータファイルMDF3を生成する(ステップST36)。
マージにより生成されたメタデータファイルMDF3は、光ディスク装置2へ送信される(ステップST37)。そして、光ディスク装置2では、光ディスク上のメタデータファイルMDF1を、取得したメタデータファイルMDF3に書き換える(ステップST38)。これにより、光ディスク装置2のユーザは、コンピュータ3に対して入力されたエッセンスマークEMが付加されたメタデータファイルを解釈して、AVデータ(主データ)を編集することが可能となる。
(5)通信中断処理(図11参照)
次に、ネットワークのトラブルなどにより、光ディスク装置2とコンピュータ3との間の通信異常が発生した場合の処理について説明する。通信異常で問題となるのは、光ディスク装置2が映像コンテンツを記録中の場合である。
先ず、コンピュータ3の通信インタフェース31により通信異常が検出されると(ステップST40)、光ディスク装置2のステータスSTSが“REC”、すなわち記録中であるか否かがチェックされる(ステップST41)。たとえば、コンピュータ3からのパケット要求に対して、適切な期間内に光ディスク装置2から応答がない場合に、通信異常と判断することができる。
ステップST41において、ステータスSTSが“REC”でない場合には、通信異常発生中にステータス変化(たとえば“REC”から“STOP”)があり、現在のクリップが終了したと判断してプロキシAVデータファイル、メタデータファイルMDF2をクローズする(ステップST42)。
ステップST41において、ステータスSTSが“REC”である場合には、(i)光ディスク装置2では、通信異常が発生する前から同一のクリップにおける記録が行われている場合、(ii)通信異常中に光ディスク装置2側で停止操作および記録開始操作が行なわれた結果、通信異常前と異なるクリップの記録が行われている場合、の2種類のケースが考えられる。したがって、コンピュータ3は、通信異常発生後には、クリップデータの要求を行い(ステップST43)、クリップデータを取得した後(ステップST44)、クリップデータに応じた処理を行う。
なお、図示しないが、コンピュータ3は、クリップデータ取得後に、プロキシAVデータの受信を開始している。
コンピュータ3のCPU36は、通信異常発生前に取得したクリップ番号と、通信異常発生後に取得したクリップ番号とを比較して(ステップST45)、以下の処理を行う。
通信異常発生前後でクリップ番号が一致する場合には、通信異常発生前後で受信するプロキシAVデータのパケット番号が連続しているかチェックする(ステップST46)。同一のクリップのプロキシAVデータの受信においては、必ずパケット番号が連続しているはずであるため、連続していない場合には通信異常によりデータを喪失したことになる。
パケット番号が連続していない場合には、通信異常発生前後のパケット番号の差分を算出して、その差分に相当する期間(=「差分値」×2秒)のスタッフィング映像をプロキシAVデータに挿入する(ステップST47)。これにより、プロキシAVデータのタイミングが正常に回復し、後に編集を行う際に時刻ずれが発生するという問題が回避される。
なお、スタッフィング映像としては、ユーザに違和感を極力生じさせないように黒画像を挿入することが望ましいが、黒以外の画像であっても構わない。
通信異常発生前後でクリップ番号が一致しない場合には、通信異常中に次のクリップに変更されたと判断して、通信異常発生前に作成していたファイルをクローズするとともに(ステップST48)、ステップST44で受信した新たなクリップデータに基づいて、新しいファイル(プロキシAVデータファイル、メタデータファイル)をオープンする(ステップST49)。
また、かかる場合には、新たなクリップにおける初期のパケットが欠落しているため、新たなクリップとして最初に取得したパケット番号に応じた期間(=「パケット番号」×2秒)分のスタッフィング映像をプロキシAVデータに挿入する(ステップST50)。これにより、ステップST47と同様、記録されるプロキシAVデータのタイミングが正常に回復し、後に編集を行う際に時刻ずれが発生するという問題が回避される。
[実施の形態における効果]
以上説明したように、本実施形態に係る素材記録装置1では、映像コンテンツを記録する光ディスク装置2と、コンピュータ3とがネットワークを介して接続される。コンピュータ3は、光ディスク装置2から低解像度のプロキシAVデータが供給され、ライブ映像としてストリーミング再生するとともに、プロキシAVデータの任意の位置にエッセンスマークEMを受け入れて、メタデータファイルMDF2に記述する。そして、1クリップの撮影終了後に、コンピュータ3において、当該メタデータファイルMDF2と、撮像調整に応じて光ディスク装置2側で生成されたメタデータファイルMDF1とがマージされる。マージにより得られたメタデータファイルMDF3は、光ディスク装置2に転送され、光ディスク上のメタデータファイルMDF1が書き換えられる。これにより、以下の効果が得られる。
すなわち、
(1)光ディスク装置2を操作するユーザA(撮影者)とは別のユーザB(編集者)がコンピュータ3を操作する状況において、ユーザAは、撮影作業に専念でき、ユーザBは、リアルタイムで撮影内容をリアルタイムで視聴しながら編集に必要なエッセンスマークを入力することができる。したがって、撮影作業と粗編集作業とを同時進行させることができ、撮影作業と粗編集作業とが順番に行われていた従来の装置と比較して、格段に作業時間を低減させることができる。
(2)従来の装置では、粗編集作業において、編集者は、記録された映像コンテンツを再生しながら、所望の映像シーンのタイムコードやコメントなどをメモ書きしていたが、本実施形態に係る素材記録装置1を使用すると、映像コンテンツの記録中にコンピュータ3に直接エッセンスマーク、コメントを入力することができ、編集効率が著しく向上する。
また、本実施形態に係る素材記録装置1では、1クリップの撮影終了後に、記録長を記述したプロキシヘッダが光ディスク装置2からコンピュータ3に転送される。これにより、映像コンテンツを記録する光ディスク装置2と同一のプロキシAVデータファイルを生成することができる。したがって、編集者は、そのプロキシAVデータファイルを、コンピュータ3から最終的な放送用データを作成するスタジオの装置などに、ネットワークを介して素早く転送できる。したがって、編集効率が著しく向上する。
本実施形態に係る素材記録装置1では、映像コンテンツを記録中において、光ディスク装置2からコンピュータ3に対して、所定期間分のプロキシAVデータ、クリップ番号およびパケット番号を含むパケットが順次転送される。そして、コンピュータ3は、通信異常を検出したときには、クリップ番号およびパケット番号の変動に基づいて、スタッフィング映像(たとえば、黒画像)を受信したプロキシAVデータに挿入する。したがって、通信異常があった場合であっても、プロキシAVデータとAVデータ(主データ)と時間ずれが発生せず、編集作業の障害とならない。
なお、本発明の実施形態は、上述した実施形態に拘泥せず、当業者であれば、本発明の要旨を変更しない範囲内で様々な改変が可能である。
たとえば、上述の実施形態において、プロキシAVデータはAVデータ(主データ)と比較して、低ビットレートによって圧縮符号化された低解像度のデータであるが、これに限られない。光ディスク装置2〜コンピュータ3間の通信容量や、コンピュータ3の処理能力を考慮して、AVデータよりも情報量の少ないデータであればよい。また、今後の通信容量の拡大、コンピュータ3の処理能力の飛躍的向上によっては、AVデータ(主データ)をそのままコンピュータ3に転送することも想定し得る。
また、上述した実施形態の説明では、コンピュータ3は、好ましくは、光ディスク装置2で生成したプロキシAVデータをリアルタイムで再生するが、通信容量やコンピュータ3の処理能力に応じて、遅れ時間を伴って再生された場合でも編集効率が向上するという効果は得られる。すなわち、光ディスク装置2が映像コンテンツの記録を終了する前に、すでに記録した映像コンテンツのプロキシAVデータの転送を開始し、コンピュータ3において、転送されたプロキシAVデータの再生およびエッセンスマークの入力ができれば、撮影作業と粗編集作業とを時間的にオーバーラップさせることができ、編集効率が向上する。
実施形態に係る素材記録装置の全体構成を示す図である。 エッセンスマークを定義するために用いられる予約語の例を示す図である。 実施形態に係る光ディスク装置の構成を示すブロック図である。 プロキシAVデータファイルのデータ構成を図解する図である。 実施形態に係るパーソナルコンピュータの構成を示すブロック図である。 実施形態に係るコンピュータのディスプレイの表示画像を示す図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の動作について説明するためのフロー図である。 実施形態に係る素材記録装置の通信異常時の動作について説明するためのフロー図である。
符号の説明
1…素材記録装置
2…光ディスク装置
20…バス、21…撮像部、22…AV信号インタフェース、
23…ビデオ符号化部、24…オーディオプロセッサ、25…ドライブ、
26…CPU、27…ROM、28…通信インタフェース、29…操作部
3…パーソナルコンピュータ
30…バス、31…通信インタフェース、32…操作部、33…メモリ、
34…ディスプレイ、35…スピーカ、36…CPU

Claims (3)

  1. 映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置であって、
    前記第1処理部は、
    映像素材を記録開始から記録終了までを1単位として、当該1単位ごとに固有の固有番号を付与して記録する素材記録部と、
    前記第2処理部との通信を行う第1通信部と、
    前記素材記録部が1つの映像素材を記録終了する前に、当該映像素材を記録した順に前記第2処理部へ前記第1通信部を介してパケット単位で送信する第1制御部と、
    を備え、
    前記第2処理部は、
    前記第1処理部からの映像素材を順に受信する第2通信部と、
    受信した映像素材を表示する表示部と、
    受信した映像素材を記録する記録部と、
    前記表示部に表示される映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて前記記録部に記録する第2制御部と、
    を備え、
    前記素材記録部が記録する前記映像素材は、パケットごとに固有のパケット番号が付与されており、
    前記第2制御部は、前記受信部が前記第1処理部との通信異常が生じたことを検出したとき、前記第1処理部が前記映像素材の記録中であるか否かを判定し、記録中である場合に、前記第1処理部に対して固有番号を要求し、当該要求に応じて取得した通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とを比較し、
    一致する場合には、前記通信異常発生前後でパケット番号が連続しているか否かを判定し、連続していないと判定した場合に、通信異常前後のパケット番号の差分を算出して、当該差分に相当する期間分の補間映像を前記映像素材に挿入して前記記録部に記録し、
    一致しない場合には、前記通信異常後に取得した新しい固有番号を有する映像素材における取得していないパケット分の補間映像を前記映像素材に挿入して前記記録部に記録する
    素材記録装置。
  2. 前記第1処理部は、前記映像素材を当該映像素材よりも低解像度の第2映像素材に変換して、第2処理部へ送信する
    請求項1記載の素材記録装置。
  3. 映像素材を送信する第1処理部と、当該映像素材を受信する第2処理部とを有する素材記録装置における素材記録方法であって、
    前記第1処理において、
    映像素材を記録開始から記録終了までを1単位として、当該1単位ごとに固有の固有番号を付与して記録するステップと、
    つの映像素材を記録終了する前に、当該映像素材を記録した順にパケットごとに固有のパケット番号が付与してパケット単位で前記第2処理部へ送信すステップと、
    を備え、
    前記第2処理部において、
    前記第1処理部からの映像素材を順に受信するステップと、
    受信した映像素材を表示するステップと、
    記表示され映像素材の所望の位置に、当該位置の映像の指標となる指標情報を受け入れて、前記位置と前記指標情報とを関連付けて記録するステップと、
    前記第1処理部との通信異常が生じたことを検出したとき、前記第1処理部が前記映像素材の記録中であるか否かを判定するステップと、
    記録中であると判定した場合に、前記第1処理部に対して固有番号を要求し、当該要求に応じて取得した通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とを比較するステップと、
    通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とが一致する場合には、前記通信異常発生前後でパケット番号が連続しているか否かを判定し、連続していないと判定した場合に、通信異常前後のパケット番号の差分を算出して、当該差分に相当する期間分の補間映像を前記映像素材に挿入して記録するステップと、
    通信異常後の固有番号と前記通信異常が発生する前に取得した固有番号とが一致しない場合には、前記通信異常後に取得した新しい固有番号を有する映像素材における取得していないパケット分の補間映像を前記映像素材に挿入して記録するステップと、
    を備えた素材記録方法。
JP2005118395A 2005-04-15 2005-04-15 素材記録装置および素材記録方法 Expired - Fee Related JP4442500B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2005118395A JP4442500B2 (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法
EP06252047A EP1713074A3 (en) 2005-04-15 2006-04-12 Contents recording system and contents recording method
US11/403,620 US8346053B2 (en) 2005-04-15 2006-04-13 Contents recording system and contents recording method which transmits header information
KR1020060033971A KR101254338B1 (ko) 2005-04-15 2006-04-14 소재 기록 장치 및 소재 기록 방법
CN2006100743599A CN1848937B (zh) 2005-04-15 2006-04-17 内容记录系统和内容记录方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005118395A JP4442500B2 (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法

Publications (2)

Publication Number Publication Date
JP2006303593A JP2006303593A (ja) 2006-11-02
JP4442500B2 true JP4442500B2 (ja) 2010-03-31

Family

ID=36609319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005118395A Expired - Fee Related JP4442500B2 (ja) 2005-04-15 2005-04-15 素材記録装置および素材記録方法

Country Status (5)

Country Link
US (1) US8346053B2 (ja)
EP (1) EP1713074A3 (ja)
JP (1) JP4442500B2 (ja)
KR (1) KR101254338B1 (ja)
CN (1) CN1848937B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4396567B2 (ja) * 2005-04-15 2010-01-13 ソニー株式会社 素材記録装置および素材記録方法
JP2009294519A (ja) * 2008-06-06 2009-12-17 Sanyo Electric Co Ltd 映像表示装置
JP5753168B2 (ja) * 2010-07-01 2015-07-22 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America コンテンツ送受信システム
GB2561100A (en) * 2011-01-12 2018-10-03 Videonetics Tech Private Limited An integrated intelligent server based system and method/systems adapted to facilitate fail-safe integration and/or optimised utilisation
DE102011120911A1 (de) * 2011-12-12 2013-06-13 fileCAST Media GmbH Streaming-basiertes Medien-System
WO2014010445A1 (ja) * 2012-07-10 2014-01-16 シャープ株式会社 コンテンツ送信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ送信装置の制御方法、コンテンツ再生装置の制御方法、データ構造、制御プログラムおよび記録媒体
JP6463967B2 (ja) * 2014-12-25 2019-02-06 キヤノン株式会社 撮像装置及びその制御方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0176474B1 (ko) * 1992-12-01 1999-04-15 김광호 고속화상 재생에 적합한 디지탈 비디오 테이프레코더용 데이타 코딩기술
JP3837746B2 (ja) * 1995-04-08 2006-10-25 ソニー株式会社 編集システム
JP3883579B2 (ja) * 1996-04-12 2007-02-21 アビッド テクノロジー インコーポレイテッド データ管理機構を改善したマルチメディア・システム
US7272298B1 (en) * 1998-05-06 2007-09-18 Burst.Com, Inc. System and method for time-shifted program viewing
JP2000059758A (ja) * 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 監視カメラ装置、監視装置、及びこれらを用いた遠隔監視システム
CA2307532A1 (en) 1999-05-06 2000-11-06 Cell-Loc Inc. Wireless location system
EP1095507B1 (en) * 1999-05-07 2012-04-11 Thomson Licensing SA Gathering and editing information with a camera
US6704310B1 (en) * 1999-06-30 2004-03-09 Logitech Europe, S.A. Header encoding method and apparatus for packet-based bus
AU1452801A (en) * 1999-11-10 2001-06-06 Thomson Licensing S.A. Fading feature for a dvd recorder
US6747707B2 (en) * 2000-03-31 2004-06-08 Matsushita Electric Industrial Co., Ltd. Data editing system for finally editing a recording medium using received compressed data
US7548565B2 (en) * 2000-07-24 2009-06-16 Vmark, Inc. Method and apparatus for fast metadata generation, delivery and access for live broadcast program
JP2002118811A (ja) 2000-10-11 2002-04-19 Sony Corp 撮影内容記録システムおよび撮影内容記録方法
JP2002171477A (ja) * 2000-11-30 2002-06-14 Sony Corp 素材処理装置、番組制作方法、番組シミュレーション方法および番組配信方法
JP3951778B2 (ja) 2002-04-05 2007-08-01 ソニー株式会社 映像コンテンツ編集支援システム,撮像装置,編集者端末装置,記録媒体,プログラム,映像コンテンツ編集支援方法
KR100467603B1 (ko) * 2002-08-08 2005-01-24 삼성전자주식회사 태스크 기반의 비선형 하이퍼비디오 편집방법 및 그 장치
US20050166230A1 (en) * 2003-03-18 2005-07-28 Gaydou Danny R. Systems and methods for providing transport control
JP3988079B2 (ja) * 2003-05-13 2007-10-10 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2005191756A (ja) * 2003-12-25 2005-07-14 Toshiba Corp デジタルスチルカメラ
JP2006303595A (ja) * 2005-04-15 2006-11-02 Sony Corp 素材記録装置および素材記録方法
JP4442499B2 (ja) * 2005-04-15 2010-03-31 ソニー株式会社 素材記録装置および素材記録方法
JP4396567B2 (ja) * 2005-04-15 2010-01-13 ソニー株式会社 素材記録装置および素材記録方法

Also Published As

Publication number Publication date
US8346053B2 (en) 2013-01-01
KR101254338B1 (ko) 2013-04-12
EP1713074A2 (en) 2006-10-18
JP2006303593A (ja) 2006-11-02
CN1848937A (zh) 2006-10-18
CN1848937B (zh) 2013-02-13
KR20060109335A (ko) 2006-10-19
EP1713074A3 (en) 2011-03-16
US20060233526A1 (en) 2006-10-19

Similar Documents

Publication Publication Date Title
JP4396567B2 (ja) 素材記録装置および素材記録方法
JP4442500B2 (ja) 素材記録装置および素材記録方法
JP2006303595A (ja) 素材記録装置および素材記録方法
JP4442499B2 (ja) 素材記録装置および素材記録方法
JP4348821B2 (ja) 編集装置、編集方法
US20070127888A1 (en) Audio and video recording and reproducing apparatus, audio and video recording method, and audio and video reproducing method
EP1870895B1 (en) Apparatus, method, and computer program for converting a set of still images into a photo movie
WO2007129524A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータ・プログラム
JP2004118986A (ja) 情報記録装置および方法
US20050207739A1 (en) Content transmitting apparatus, content receiving apparatus, content transmitting and receiving system, content transmitting method, and content receiving method
JP4962783B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
JPWO2005081522A1 (ja) データ処理装置およびデータ処理方法
KR101133125B1 (ko) 촬영시간 표시 시스템 및 방법
US20040151473A1 (en) Audio/video data recording/reproduction apparatus, system, and method, recording medium recorded by them, audio/video data reproduction apparatus, and data structure
JP4394910B2 (ja) 情報記録装置
JP4934383B2 (ja) 映像情報記録装置及び方法、並びにプログラム
US20080089670A1 (en) Recording apparatus
JP3897783B2 (ja) 画像処理装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2004056396A (ja) 動画蓄積方法および動画蓄積装置
JP2005117439A (ja) 記録再生装置、記録方法
JP4373481B2 (ja) 動画像再生装置
JP2006115529A (ja) 記録メディアとこれを用いる映像記録/再生装置
JP2009060325A (ja) 編集装置および編集方法、並びにプログラム
JP2004362653A (ja) 記録装置、情報記録再生装置、記録方法、コンピュータプログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees