JP3976979B2 - Image editing device - Google Patents

Image editing device Download PDF

Info

Publication number
JP3976979B2
JP3976979B2 JP2000042697A JP2000042697A JP3976979B2 JP 3976979 B2 JP3976979 B2 JP 3976979B2 JP 2000042697 A JP2000042697 A JP 2000042697A JP 2000042697 A JP2000042697 A JP 2000042697A JP 3976979 B2 JP3976979 B2 JP 3976979B2
Authority
JP
Japan
Prior art keywords
moving image
data
screen
encoded data
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000042697A
Other languages
Japanese (ja)
Other versions
JP2001238169A (en
Inventor
慶一 日比
正宏 塩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000042697A priority Critical patent/JP3976979B2/en
Publication of JP2001238169A publication Critical patent/JP2001238169A/en
Application granted granted Critical
Publication of JP3976979B2 publication Critical patent/JP3976979B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、音声および動画像などのマルチメディア情報を記録した動画像ファイルの編集装置に関し、より特定的には、動画像データを符号化して記録メディアに格納した動画像ファイルに対する時間的な編集処理、特にファイルの分割編集を行なうための画像編集装置に関する。
【0002】
【従来の技術】
画像処理技術の発展と、パーソナルコンピュータ(以下、単にPCとも称する)の性能向上によって、家庭のPCでも手軽にマルチメディア情報が扱えるようになってきた。このため、音声および動画像等のマルチメディア情報を、たとえばDOSファイル形式などに従った通常のPC上のファイルとして記録しかつ利用できることが求められている。マルチメディア情報をPC上でのファイルとして記録、管理することによって、ワープロや表計算等の他のアプリケーションのファイルと同様に手軽に取扱うことが可能となる。
【0003】
動画像を記録したファイルが簡単に利用できるようになると、動画像ファイルに対する編集機能を提供する必要が生じる。動画像の編集としては、ファイルの分割、ファイルの結合、ファイルの一部分だけを抜き出すトリミング等の時間的な編集が主である。これらの中で、動画像の撮影時に余分に記録した部分をカットしたり、注目したい部分だけを抽出するための分割編集は、特に重要な機能である。なお、トリミングは、2回ファイル分割を組合せれば実現できるため、機能的にはファイルの分割と同様の処理で実行できる。
【0004】
しかしながら、動画像データは、そのデータ量が多いため、ファイルに記録する際には符号化による情報量の圧縮を行なう必要がある。このため、ファイルの分割編集処理も単純に実行することができない。一般に、動画像データの符号化においては、フレーム/フィールド間予測を用いて、画面間で変化があった情報のみを抽出して利用している。したがって、ある画面に対しては、予測の際に参照した以前の画面からの差分情報のみが符号化データとしてファイルに記録されている。このため、動画像ファイルに対して分割などの編集を行なうと、分割した後半のファイルに含まれる画面に対する予測の参照画面がなくなり、正常な画像を復元できなくなってしまうというケースが生じるおそれがある。
【0005】
図8は、動画像データの符号化における画面間の予測処理を説明する図である。
【0006】
図8を参照して、符号化された動画像データの各画面は、他の画面からの予測を用いない画面内符号化画面(図中Iで表記し、以下イントラ符号化画面とも称する)と、1つ前の画面を参照して予測符号化された画面間符号化画面(図中においてPで表記)とから構成されている。ここで、たとえば(a)に示すように、画面間符号化画面である画面62の直前で動画像データを分割する場合について説明する。画面62は、画面61からの予測を用いて符号化が行なわれている。
【0007】
このとき、(b)に示す分割後の動画像データにおいては、画面62が先頭に位置することとなるため、画面62が予測の際に参照していた画面61が存在しなくなり、画面62を正しく復号することができなくなってしまう。
【0008】
従来の画像編集装置においては、このような問題が生じるのを避けるために、以前の画面からの予測を用いずに符号化されている、イントラ符号化画面の直前においてのみ分割編集が行なわれることとしていた。すなわち、図8の例でいえば、イントラ符号化画面である画面63の直前においてのみ分割が可能である。
【0009】
図9は、従来の画像編集装置において動画像データを分割した場合におけるファイル内のデータパケットの書換を説明する図である。
【0010】
詳細は後ほど説明するが、1画面に対応する動画像符号化データ(VOP)および音声符号化データは複数個に分割され、分割されたそれぞれのデータはデータパケットを構成する。図9においては、イントラ符号化画面の動画像符号化データI−VOP6は、I−IVOP6−1、I−VOP6−2およびI−VOP6−3の3つに分割されて、データパケットに格納されている。
【0011】
ここで、I−VOP6に対応するイントラ符号化画面の直前で動画像ファイルを分割する場合においては、これ以前の動画像符号化データおよび音声符号化データは不要である。そこで、先頭の符号化データI−VOP6−1が格納されているデータパケットの中で、I−VOP6−1より前に位置するデータを破棄し、当該I−VOP6−1の符号化データを前に詰める。
【0012】
したがって、データパケット201中に格納されていた1つ前の画面間符号化画面に対応する動画像データP−VOP5−2は破棄され、分割前のデータパケット201に対応する分割後のデータパケット202においては、I−VOP6−1の符号化データが前に詰められ、空いた部分にはパケットデータ長を一定とするためのダミーのデータバイトであるパディング情報が埋められる。
【0013】
このように、分割後の先頭パケットである202は書換られるが、その後に続くデータパケット203および205についてはパケットデータの書換は不要である。
【0014】
このように、動画像ファイルの分割位置をイントラ符号化画面の直前に限定し、動画像符号化データ自体を操作して分割処理を行なう画像編集装置としては、たとえば特開平8−149408号公報に開示された動画編集方法および装置がある。当該編集装置においては、MPEG−1、MPEG−2などで採用されるGOP(グループ・オブ・ピクチャ)単位で分割編集を行なうこととしている。
【0015】
一般に、GOPの最初の画面はイントラ符号化画面となるように構成されているため、GOP単位で分割編集を行なうこととすれば、分割後の先頭の画面においては、正しい復号データを得ることが可能である。
【0016】
図10は、従来の技術の画像編集装置200の構成を説明する概略ブロック図である。
【0017】
図10を参照して、画像編集装置200は、編集の対象となる動画像ファイルデータパケットを動画像符号化データと音声符号化データとに分解するパケット分解部51と、分解されたパケットデータのうち動画像符号化データを編集するための、符号化データ分割部52、符号化データ再構成部55、符号化データ解析制御部57、ダミー符号化データ作成部53およびスタッフィング符号化データ作成部54と、分割後の動画像符号化データと音声符号化データとを動画像ファイルデータパケットに再構成するためのパケット再構成部56とを備える。
【0018】
パケット分解部51は、動画像データのパケットファイルを分割して、音声符号化データおよび動画像符号化データを取り出して出力する。
【0019】
符号化データ分解部52は、動画像符号化データを分割位置がGOPの先頭となるように分割する。
【0020】
しかし、MPEG−1やMPEG−2の場合、GOPの中には、先頭のイントラ符号化画面の直後の双方向の予想画面など、時間的に前に位置するGOP内の画面を参照している画面も存在する。このように、分割後に予測参照画面がなくなった画面の符号化データが含まれていた場合には、ダミー符号化データ作成部53において、画面間で全く変化がなかったことを示すダミーの符号化データを作成する。そして、符号化データ再構成部55において、当該符号化データをダミー符号化データに置き換える。このような置き換えを行なったとしても、その影響としては、GOP先頭画面と同一の画面が数画面分の時間続けて表示されるだけであり、視覚的に異常な画面が表示されることはない。
【0021】
さらに、従来の画像編集装置200においては、分割編集が行なわれた動画像符号化データを復号する際に、デコーダのバッファ状態が、分割以前の動画像符号化データに対するバッファ状態と同一となるようにスタッフィング符号化データ作成部54でスタッフィングデータを生成して、符号発生量が予定より少ない場合には、アンダーフローを防ぐために動画像符号化データに挿入するように、再構成処理を行なう。
【0022】
符号化データ解析制御部57は、編集制御情報に応じて、動画像符号化データの分割位置がGOPの先頭となるように制御して、符号化データ分割部52における分割位置を指定する。
【0023】
パケット再構成部56は、符号化データ再構成部55から出力された分割後の動画像符号化データとこれに対応する音声符号化データとを併せて動画像ファイルデータパケットを再構成する。
【0024】
パケット再構成部56は、分割後のデータパケットを出力する。符号化データ解析制御部57は、たとえば外部からの分割位置指示情報を含む編集制御情報を受けて動画像符号化データの分割処理を制御する。符号化データ分割部52は、符号化データ解析制御部57に制御されて、指示された位置において動画像符号化データを分割する。
【0025】
符号化データ解析制御部57は、編集制御情報に従って、符号化データ分割部52における分割位置の制御、符号化データ再構成部55におけるダミー符号化データへの置き換え、スタッフィングデータの挿入量の制御などを行なう。こうして、再構成された動画像符号化データは、パケット再構成部56において、動画像ファイルに格納するための音声符号化データとの多重化処理を行なって、分割後のデータパケットを構成して出力する。
【0026】
また、動画像ファイルに予めスタッフィングデータを埋込んでおくのではなく、動画像ファイルを読出して再生する時点でデコーダのバッファ状態を調整する方法として、特開平7−184176号公報に開示された技術も存在する。当該公報においては記録された動画像符号化データを読出して、受信端末へ送出する際に、受信端末のデコーダバッファがオーバーフローやアンダーフローを起こさないように、画像データの情報量を監視しながらフィルビットを挿入してデータ量を調整する蓄積画像再生装置が開示されている。
【0027】
さらに、その他の従来技術として特開平7−184189号公報において、端末から受信した動画像符号化データを記録する際に、先頭画面をイントラ符号化することによって、任意の画面を先頭として記録できるようにした映像情報蓄積制御装置が開示されている。
【0028】
【発明が解決しようとする課題】
しかしながら、これらの従来技術においては、分割位置をイントラ符号化画面やGOPの境界部分だけに制限するため、ユーザがファイルの分割位置を自由に選択することができず、記録した動画像のシーンに応じた自由な分割編集を行なうことができない。
【0029】
また、イントラ符号化画面が挿入される間隔や位置は、エンコーダが適当に選択して決定するものであり、ユーザが見たいシーンの開始位置等の動画像の内容を反映したものとはなっていない。
【0030】
特に、動画像が数kbit/s〜数百kbit/sのような低レートで符号化されている場合には、情報量を削減するためのコマ落し処理や、イントラ符号化によるデータ量の増加を回避するためにイントラ符号化画面に挿入間隔を数秒〜十数秒と長く確保する必要があるため、分割の許容位置が極度に制限されることとなる。したがって、ユーザが所望の画面位置で動画像ファイルを分割することができないという問題が生じる。
【0031】
また、動画像符号化データの構造上は、無理に画面間予測符号化画面の位置で分割することも可能であるが、このように分割した動画像符号化データを再生すると、画面間予測における参照画像が存在しなくなる。このため、次のイントラ符号化画面を復号して正しい予測参照画面が得られるまでは、正常な復号画像を得ることができない。したがって、正常な復号画像を得るには次のイントラ符号化画面まで待たなければならないため、表示される動画像としては、前述のようにイントラ符号化画面の位置で分割した場合と同様になってしまう。
【0032】
さらに、分割した先頭画面を単にイントラ符号化画面に再符号化するだけでは、分割処理前の画面間予測符号化に比べてデータ量が増加してしまうため、バッファのオーバーフローもしくはアンダーフローが生じて、デコーダが正常に動作できなくなってしまう可能性がある。
【0033】
そこで、スタッフィングの挿入処理などを行なうために、従来の画像編集装置200などのように符号化データを直接操作すると、再構成後の動画像符号化データをファイル構造に従うように再度フォーマットしてからファイルに書込む処理が必要となり、ファイル全体の書換処理が必要となる。これにより、動画像カメラなど、処理操作の制約が大きい小型携帯機上での編集処理や、長時間の動画像ファイルのように非常に大きなサイズのファイルを処理する場合などには、ファイル読み書きの負荷が大きいため処理時間も非常に長くなってしまう。したがって、このような分割方法を実現することは非常に困難となる。特に、上述したように再符号化によってデータ量が増える場合には、スタッフィングの挿入だけで対応することは不可能である。
【0034】
さらに、スタッフィング、フィルビットなどの挿入処理においては、挿入すべきデータ量を決定するために、デコーダバッファの状態を推定する処理が必要となる。この推定処理においては、動画像ファイル内の符号化データのビットフレーム、フレームレートおよび符号化方式などの条件をすべて考慮して、デコーダの振る舞いを想定する必要があるため、ファイル内部の符号化データの詳細な解析が必要である。このような推定処理は複雑であるだけでなく、既知の符号化方式以外の任意の符号化方式には対応できないため自由度を欠く結果になるという問題点があった。
【0035】
本発明はこのような問題点を解決するためになされたものであって、この発明の目的は、大幅なデータパケットの書換を伴わずに、比較的簡単な処理によって自由な時間位置で動画像ファイルの分割編集が可能な画像編集装置を提供することである。
【0036】
【課題を解決するための手段】
請求項1記載の画像編集装置は、動画像符号化データを格納する複数のデータパケットから構成される動画像ファイルを分割編集するための画像編集装置であって、動画像符号化データを復号して動画像データを出力するための復号処理手段と、データパケットの分割編集処理を制御する分割編集制御手段と、分割編集後に先頭となる動画像の画面である先頭画面に対応する動画像データを復号処理手段から受けて、時間的に前の画面からの予測を用いないモードで再符号化して動画像符号化データを出力する分割画面再符号化手段と、分割編集処理後のデータパケットのうちの、再符号化された動画像符号化データが格納されるデータパケットについてデータパケットの送出時刻を示すタイムスタンプ値を再符号化された動画像符号化データのデータ量に応じて更新する一方で、再符号化に関連しない動画像符号化データから構成されるデータパケットについてはタイムスタンプ値を更新しないタイムスタンプ値更新手段と、動画像符号化データおよびタイムスタンプ値を結合して、データパケットを生成するパケット再構成手段とを備える。
【0037】
請求項2記載の画像編集装置は、請求項1記載の画像編集装置であって、分割画面再符号化手段とパケット再構成手段との間に配置されるデータ切換回路をさらに備え、データ切換回路は、分割編集制御手段に制御されて、分割画面再符号化手段の出力する動画像符号化データおよび復号処理手段で復号される前の動画像符号化データのいずれか一方をパケット再構成手段に与える。
【0038】
請求項3記載の画像編集装置は、請求項2記載の画像編集装置であって、パケット再構成手段は、先頭画面に対応する動画像符号化データが分割編集処理前において時間的に前の画面からの予測を用いるモードで符号化されている場合においては、分割編集処理後のデータパケットのうちの先頭画面に対応する動画像符号化データを分割画面再符号化手段の出力する動画像符号化データを用いて生成する。
【0039】
請求項4記載の画像編集装置は、請求項2記載の画像編集装置であって、パケット再構成手段は、先頭画面に対応する動画像符号化データが分割編集処理前において時間的に前の画面からの予測を用いないモードで符号化されている場合においては、分割編集処理後のデータパケットのうちの先頭画面に対応する動画像符号化データを復号処理手段で復号される前の動画像符号化データをそのまま用いて生成する。
【0040】
請求項5記載の画像編集装置は、請求項1記載の画像編集装置であって、分割編集制御手段は、分割編集処理前において先頭画面に対応する動画像符号化データを含まないデータパケットに対しては内容の書換を指示しない。
【0041】
請求項6記載の画像編集装置は、請求項1記載の画像編集装置であって、タイムスタンプ値更新手段は、再符号化された動画像符号化データのデータ量と、動画像符号化データの伝送ビットレートとに基いて、タイムスタンプ値を更新する。
【0042】
請求項7記載の画像編集装置は、請求項6記載の画像編集装置であって、タイムスタンプ値更新手段は、再符号化された動画像符号化データのデータ量から、再符号化された動画像符号化データの復号後におけるデコーダのバッファ量が分割処理編集前での先頭画面の復号後におけるデコーダのバッファ量と等しくなるような、先頭画面の再生時におけるデコーダのバッファ量を推定し、推定されたバッファ量および動画像符号化データの伝送ビットレートに基いて、デコーダにおいてオーバーフローもしくはアンダーフローが生じないようにタイムスタンプ値を設定する。
【0043】
請求項8記載の画像編集装置は、請求項6記載の画像編集装置であって、タイムスタンプ値更新手段は、先頭画面に対応する動画像符号化データの再符号化に伴うデータ量増加分に対応する時間分だけ、先頭画面に対応する動画像符号化データを先行して送出するようにタイムスタンプ値を設定する。
【0045】
請求項記載の画像編集装置は、請求項6記載の画像編集装置であって、パケット再構成手段は、先頭画面に対応する動画像符号化データを含まないデータパケットに対しては、分割編集処理前のタイムスタンプ値をそのまま用いて分割編集処理後のデータパケットを生成する。
【0046】
請求項1記載の画像編集装置は、動画像符号化データを格納する複数のデータパケットから構成される動画像ファイルを分割編集するための画像編集装置であって、動画像符号化データを復号して動画像データを出力するための復号処理手段と、データパケットの分割編集処理を制御する分割編集制御手段と、分割編集後に先頭となる動画像の画面である先頭画面に対応する動画像データを復号処理手段から受けて、時間的に前の画面からの予測を用いないモードで再符号化して動画像符号化データを出力する分割画面再符号化手段と、動画像符号化データと再生時におけるデータパケットの送出時刻を示すタイムスタンプ値とを結合して、分割編集処理後のデータパケットを生成するパケット再構成手段とを備え、タイムスタンプ値は、分割編集処理後のデータパケットのうちの、再符号化された動画像符号化データが格納されるデータパケットでは再符号化された動画像符号化データのデータ量に応じて更新される一方で、再符号化に関連しない動画像符号化データから構成されるデータパケットについては非更新とされる。そして、画像編集装置は、複数のセクタに分割された記憶媒体を有するファイル記憶部と、複数のセクタに格納されたデータから動画像ファイルを構成するための管理情報を制御するファイル管理部と、ファイル記憶部にデータを書込むためのファイル書込部とをさらに備え、ファイル書込部は、分割編集処理に伴って必要となる、動画像符号化データに関するデータ書換をセクタ単位ごとに実行し、データ書換が不要であるセクタの格納データは、分割編集処理前と同じ内容に維持される。
【0047】
請求項1記載の画像編集装置は、請求項1記載の画像編集装置であって、ファイル管理部は、分割編集処理に伴って動画像ファイルについてのセクタの構成が変化した場合においては、管理情報を更新する。
【0048】
【発明の実施の形態】
以下において、本発明の実施の形態について図面を参照して詳しく説明する。
【0049】
図1は、本発明に従う画像編集装置における動画像データの分割処理の概要を説明する図である。
【0050】
図1を参照して、図8の場合と同様に、イントラ符号化画面はI、予測符号化を伴う画面間符号化画面はPで表記される。既に説明したように、(a)に示すようにイントラ符号化画面61を参照して予測符号化される画面間符号化画面62の直前で動画像ファイルを分割すると、(b)に示すように、画面62の予測参照画面が存在しなくなるため、画面62を正しく復号することができなくなってしまう。
【0051】
そこで、本発明に従う画像編集装置においては、(c)に示すように、分割処理において、分割の先頭となる画面62を一旦復号して、復号画像データ62dを得る。ここで、画面62を復号するためには、動画像符号化データを先頭から順次復号していくか、もしくは画面62の直前にある単独で復号可能なイントラ符号化画面(図1中の画面59)から始めて、画面62まで復号していけばよい。
【0052】
次に、画像データに復元された画面62dを以前の画面からの予測を用いないようにイントラ符号化画面に再符号化する。このような一連の動作によって、画面内符号化されたイントラ符号化画面64の動画像符号化データが得られる。画面64に続く画面65については、再符号化された画面64を参照して予測が行なわれるため、元の画面間予測を反映した符号化データのままでよい。
【0053】
図2は、本発明に従う画像編集装置100の構成を示す概略ブロック図である。
【0054】
図2を参照して、画像編集装置100は、動画像ファイルを格納するファイル記憶部21と、ファイル記憶部21の記憶領域の管理および動画像ファイルに対するアクセスの制御等を行なうファイル管理部22と、動画像ファイルを再生する場合において、動画像ファイルの読出および動画像ファイルの内容の解読を実行するファイル読出部27およびファイル解読部28と、動画像データの分割編集を行なうための分割編集処理ブロック40と、動画像ファイルに対する分割編集処理等のユーザ指示を処理するためのユーザ入力処理部26と、音声符号化データおよび動画像符号化データの復号結果をもとに音声および動画像をそれぞれ出力するための音声出力部52および動画像出力部55とを備える。
【0055】
分割編集処理ブロック40は、ファイル解読部28から出力されたデータパケットを音声符号化データと動画像符号化データとに分割するパケット分解部29と、パケット分解部29より出力された動画像符号化データを復号化するための動画像データ復号化部30と、ユーザ入力処理部26に入力されたユーザからの分割位置指定などの編集制御情報および動画像データ復号化部30の出力を受けて分割編集処理を行なうファイル分割処理部25とを含む。
【0056】
動画像ファイルを再生する場合においては、ファイル記憶部21に格納されている動画像ファイルは、ファイル管理部22の制御に基づいてァイル読出部27によって読出される。ファイル解読部28は、動画像ファイルの内容を解読して属性・制御情報等を読取るとともに、マルチメディア情報の本体であるデータパケットを取り出して出力する。なお、動画像ファイルの構成については、後程詳細に説明する。
【0057】
さらに、パケット分解部29は、ファイル解読部28からデータパケットを受取り、多重化されている音声符号化データおよび動画像符号化データを分離してそれぞれ出力する。音声符号化データは、音声データ復号部50に送られて復号処理を施され、音声データが復元されて音声出力部52から出力される。動画像符号化データは、動画像データ復号化部30に送られて復号処理を施され、動画像データが復元されて動画像出力部55から出力されて表示される。
【0058】
画像編集装置100は、さらに分割編集処理を実行した後に、分割編集後の動画像ファイルを生成するファイル生成部24と、ファイル生成部24によって生成された分割編集後の動画像ファイルをファイル記憶部に書込むためのファイル書込部23とをさらに備える。
【0059】
動画像ファイルに対して分割編集処理を行なう場合には、ユーザ入力処理部26において分割する位置の指定等のユーザからの指示が処理され、編集制御情報としてファイル分割処理部25へ送出される。
【0060】
ファイル分割処理部25には、編集制御情報、動画像符号化データ、および音声符号化データが入力されて、分割編集作業によって再構成されたデータパケットが出力される。ファイル分割処理部25から出力される編集後のデータパケットは、ファイル生成部24において、ヘッダ情報およびフッタ制御情報等の必要な情報が付加される。このように、定められた形式に従って構成された動画像ファイルは、ファイル書込部23によってファイル管理部22を介してファイル記憶部21に格納される。
【0061】
図3は、分割編集処理部25の構成を詳細に説明するブロック図である。
図3を参照して、動画像データ復号化部30によって復号化された動画像データを再符号化する分割画面再符号化部31と、編集制御情報に基づいて分割編集処理を制御するための動画像分割制御部33と、動画像分割制御部33に制御されて、動画像データ復号化部30および分割画面再符号化部31をバイパスするための経路を設定するためのマルチプレクサ35と、マルチプレクサ35を介して分割画面再符号化部31およびパケット分解部29のいずれか一方から動画像符号化データを受け、さらにパケット分解部29から音声符号化データを受けて分割編集後のデータパケットを生成するパケット再構成部32とを含む。
【0062】
パケット分解部29は、動画像ファイルのデータパケットを受けて、音声符号化データと動画像符号化データとに分解して出力する。音声符号化データは、パケット再構成部32に対して出力される。動画像データはファイル分割処理部25および動画像データ復号化部30に対して送出される。さらに、パケット分解部29は、データパケットからタイムスタンプ値TSを抽出して動画像分割制御部33に与える。タイムスタンプ値TSについては、後程詳細に説明する。
【0063】
動画像分割制御部33は、入力された編集制御情報に従って、分割画面再符号化部31で再符号化する画面の指定および動画像データ復号化部30において復号される画面の指定等の制御を実行する。
【0064】
動画像分割制御部33は、各画面を再符号化する必要があるかどうかに応じて、マルチプレクサ35の出力を切換える。
【0065】
すなわち、分割後の先頭画面について、図1中の(c)で説明したように再符号化が必要な場合においては、マルチプレクサ35は、先頭画面に対応する動画像符号化データを動画像データ復号化部30で復号化した後に分割画面再符号化部31によって再符号化してパケット再構成部32に送出する。
【0066】
一方、分割後の先頭画面について再符号化が必要でない場合においては、先頭画面に対応するデータパケットに対して内容を書換る必要がないので、マルチプレクサ35は、パケット分解部29が出力した動画像データを、動画像データ復号化部30および分割画面再符号化部31をバイパスして直接パケット再構成部32に送出する。このとき、同時に動画像データ復号化部30および分割画面再符号化部31の少なくとも一方を非動作状態とすれば、消費電力の削減が可能である。
【0067】
また、分割後の先頭画面以外の画面に対応するデータパケットについては、内容の書換が不要であるので、マルチプレクサ35は、パケット分解部29が出力した動画像データを、動画像データ復号化部30および分割画面再符号化部31をバイパスして直接パケット再構成部32に送出する。同様に、このとき動画像データ復号化部30および分割画面再符号化部31の少なくとも一方を非動作状態とすれば、消費電力の削減が可能である。
【0068】
このような構成とすることにより、分割編集時において、再符号化の必要の有無を動画像分割制御部33において編集制御情報等をもとに判断することによって、分割後のデータパケットを構成する動画像データを適切に切換えることが可能となる。
【0069】
動画像分割制御部33は、分割後の先頭画面を再符号化した場合に、再符号化された動画像符号化データを格納するデータパケットのタイムスタンプ値を更新するためのタイムスタンプ値更新回路34を含む。タイムスタンプ値更新回路34は、分割画面再符号化部31によって得られる再符号化画面の符号化データ量BL、分割編集前のタイムスタンプ値TS、動画像符号化データの伝送ビットレートBRおよび分割後の先頭画面のタイプに基づいたタイムスタンプ値更新の必要の有無判断FLに応じて、必要に応じてタイムスタンプ値を更新しパケット再構成部32に送出する。
【0070】
パケット再構成部32は、タイムスタンプ値更新回路34から出力されるタイムスタンプ値、パケット分解部29から送信される音声符号化データおよび、マルチプレクサ35を介して出力される動画像符号化データを受けて、分割編集後のデータパケットを再構成してファイル生成部24に送出する。
【0071】
次に、画像編集装置100において分割編集を行なう際の一連の処理について説明する。ユーザは、適当なユーザインターフェイスによって、選択した動画像ファイルに対して分割したい位置を決定して指定する。この分割時の情報はユーザ入力処理部26で処理されて、編集制御情報としてファイル分割処理部25内の動画像分割制御部33へ送出される。
【0072】
動画像分割制御部33は、分割位置の画面が画面間予測を用いて符号化されている場合には、再符号化が必要と判定し、動画像データ復号部30によって復号された動画像データを分割画面再符号化部31においてイントラモードで再符号化するように指示する。マルチプレクサ35は、分割画面再符号化部31の出力をパケット再構成部32に送出する。
【0073】
ここで、たとえば、ユーザインターフェイス上、動画像ファイルを再生して復元された動画像データを表示しながら、ユーザが分割位置の表示を指定するような場合には、ユーザにこのような情報を提示するために既に分割位置の画面の動画像データが得られているため、その動画像データを分割画面再符号化部31で入力すればよく、このような画面を改めて復号する必要はない。
【0074】
一方、画像編集装置100に対して、動画像ファイルの分割位置が、タイムコード、画面番号、動画像ファイル中のデータ位置等で指定される場合においては、動画像データ復号化部30において、分割位置の画面を復号することが必要である。画面間予測を用いて符号化されている当該画面を復号する際においては、直前の画面内符号化画面など単独で復号化可能な画面から各画面を順次復号していくことによってこの画面を復号することができる。
【0075】
パケット再構成部32は、再符号化した画面に対する元の動画像符号化データを再符号化後の動画像符号化データで置き換える処理、分割処理以前の符号化データの廃棄処理等を行なって分割編集後の動画像ファイルのデータパケットを作成する。また、再符号化が実行された画面以外の画面に対応する動画像符号化データを格納するデータパケットに対しては、内容の書換は実行されない。
【0076】
再符号化に伴って作成された分割編集後のデータパケットに対しては、タイムスタンプ値更新回路34によって設定された送出タイムスタンプ値が各データパケットに付与される。再符号化に関連しない動画像符号化データのみから構成されるデータパケットについては、タイムスタンプ値の更新は行なわれない。
【0077】
図4は、本発明の画像編集装置100で取扱われる動画像ファイルの構成例を説明する図である。
【0078】
音声動画像などのマルチメディア情報は、ある単位ごとに1つの完結したファイルとして、それぞれ独立に格納されている。図4(d)に示されるように、動画像ファイル中には、当該ファイル内のマルチメディア情報全体の属性および性質等を示すヘッダ制御情報およびフッタ制御情報と、マルチメディアのデータ本体とを含み、これらは1つのファイル中で分類されて独立的に格納されている。ヘッダ制御情報中には、たとえば、下記のような動画像ファイルに含まれるマルチメディア情報全体に関する制御情報を含む。
【0079】
・ファイルを特定するためのファイル識別子(ファイルID)、
・マルチメディアデータ本体の長さ、
・全体の再生にかかる時間、
・平均/最大ビットレート、
・データ本体に含まれるメディアの種別と数、
また、ヘッダ制御情報には、下記のような動画像に関する制御情報も含まれている。
【0080】
・映像の画面再生/解像度、
・符号化方式(たとえば、ITU−T H.261,H.262,H.263,H.26L、ISO標準11172(MPEG−1),13818(MPEG−2),14696(MPEG−4)の識別など)、
・符号化方式におけるパラメータ(プロファイル、レベル、オプションモードの選択など)、
さらには、ヘッダ制御情報もしくはフッタ制御情報として、ランダムアクセス可能な位置を指定するためのインデックス情報や、時間的に連続するマルチメディア情報の適当な位置を指定して記憶しておくためのマーカ情報など、マルチメディア情報の位置を記録しておくための情報も含まれる。
【0081】
インデックス情報は、動画像符号化データを参照する場合において、画面内符号化画面などを指定して、ランダムアクセスの際にアクセス位置の決定および高速再生などのマルチメディア情報をとびとびに再生する場合の再生対象とする情報の決定等に利用される。
【0082】
動画像ファイルのデータ本体は、図4(c)に示すように、データパケットと呼ばれる適当な大きさのパケットに分割されて、パケット化された情報として格納されている。したがって、動画像ファイルのデータ本体は、データパケットの列で構成されている。
【0083】
ここで、図4(a)の動画像符号化データおよび図4(b)の示す音声符号化データを多重化して、図4(c)のデータパケット列を構成する場合について説明する。
【0084】
図4(c)の例は、1つのデータパケット中に音声および動画像等の複数のメディアを多重化して格納する場合の例を示す。
【0085】
図4(b)に示されるように、音声符号化データは、連続する1つのデータ列である。実際には、音声符号化データは、音声フレームと呼ばれる符号化処理単位ごとの符号化データで構成されているが、一般にその長さはデータパケット長に比べて非常に短いため、連続するデータ列と考えることができる。
【0086】
この音声符号化データは、音声パケットという適当な値に分割されて、データパケットに格納される。音声パケットの長さは、パケット化遅延時間、伝送遅延時間およびパケット化効率を考慮して決定される。固定ビットレートの音声符号化データに対しては、遅延時間を一定にするために、通常は固定長の音声パケットが用いられる。
【0087】
一方、図4(a)の各画面の動画像符号化データは、さらに分割されてデータパケットに格納される。なお、これらの動画像符号化データは、MPEG−4ビデオ符号化方式を利用する場合は、VOP(Video Object Plane)とも呼ばれる。
【0088】
これにより、図4(c)に示すように、データパケットの内部には、音声符号化データと動画像符号化データとが多重化されて格納される。ここで、データパケットの長さは、固定長もしくは可変長のいずれでもよい。固定長の場合、パケットの長さは、たとえば、記録メディアのセクタ長、デコード長、トラック長、下位プロトコルのPDU(SDU)長、送信/受信バッファサイズなどのシステム的な条件、あるいは時間あたりのデータ量(ビットレート)が一定の場合、データパケット送出間隔などの時間的な条件などに応じて定められる。データパケットの長さが可変長の場合においては、パケット化の単位は、各メディアの符号化データの性質に応じて決定することができる。
【0089】
データパケットには、パケット長や内部に多重化されているデータ数などの制御情報を示したパケットヘッダが付加される。このパケットヘッダには、動画像ファイルを読出して再生する際に、当該データパケットを送出すべき時刻を記したタイムスタンプ値TSを付加しておく。このように送出時刻を記録しておくことによって、動画像ファイルを記憶しているサーバが、ユーザからのアクセスによって動画像ファイルのデータをネットワーク経由で送信する場合に、サーバは各データパケットのタイムスタンプ値を参照して指定された時刻に送出するだけでよいため、サーバの負担が軽減でき非常に有効である。このようなマルチメディア情報の送出形態はストリーミング転送(ストリーミングタブ)と呼ばれており、一般的に採用されている。
【0090】
上述の例においては、1つのデータパケットの中に複数の符号化データを多重化する場合について説明したが、1つのデータパケットに、1つのメディア復号化データ、すなわち図4に示される音声パケットあるいは動画像符号化データを分割した一部分のみが含まれるようにデータパケットを構成することもできる。この場合においても、データパケットのパケットヘッダに送出時刻を示すタイムスタンプ値を付加しておけば、サーバにおいて上記と同様な処理だけでストリーミング転送が実現できる。
【0091】
図5は、分割編集処理時のパケット再構成を説明する図である。
なお、データパケット以外のヘッダ制御情報およびフッタ制御情報については、動画像ファイルの長さ、データパケット数および再生時間等、動画像ファイル全体に関する情報が書かれているため、分割によってその内容を変更することが必要となる。このため、図2に示されるファイル生成部24において、新たにヘッダ制御情報およびフッタ制御情報を生成するか、分割前の動画像ファイルの当該情報を複製して、必要な部分を変更する処理が行なわれる。
【0092】
ここで、タイムスタンプ値の初期値(たとえば0秒)が、予め規定されているシステムにおいては、動画像ファイルを再生する際に、初期値の時刻から先頭のデータパケットのタイムスタンプ値で示された時刻まで待つこととなる。この待ち時間を避けるためには、分割後の動画像ファイルのヘッダ制御情報に、タイムスタンプオフセット値を付与しておけばよい。具体的には、タイムスタンプ値のオフセット値として、分割した動画像ファイルの先頭データパケットの送出時刻スタンプ値を指定すればよい。
【0093】
このように、本発明の画像編集装置100において、分割編集処理の際に書換の必要がないデータパケットの送出時刻タイムスタンプ値は元のままにしておく場合であっても、分割後の動画像ファイルの再生時にヘッダ制御情報で指定したオフセット値をすべてのタイムスタンプ値から減算するか、時刻の初期値をオフセット値に合わせることによって待たずに再生を開始することが可能となる。
【0094】
上述したように、動画像ファイルのデータパケットには音声符号化データおよび動画像符号化データが多重化されて格納されており、先頭には送出時刻タイムスタンプを含んだパケットヘッダ16が付加されている。
【0095】
ここで、図5に示した分割位置、すなわち動画像符号化データP−VOP6に対応する画面間符号化画面の直前で分割する場面について説明する。
【0096】
元の動画像ファイルにおいては、動画像符号化データP−VOP6は、P−VOP6−1およびP−VOP6−2の2つに分割されて、データパケット211および212にそれぞれ格納されている。ここで、動画像符号化データP−VOP6に対応する画面は画面間予測符号化されているため、動画像ファイルを分割する際に動画像符号化データP−VOP6を一旦復号し、イントラモードで再符号化して、イントラ符号化画面に対応する動画像符号化データI−VOP6を得る。
【0097】
動画像符号化データP−VOP6−2が格納されていたデータパケット212に対しては、音声符号化データ14はそのままで、動画像符号化データI−VOP6の最後から、動画像符号化データP−VOP6−2に相当する長さの動画像符号化データI−VOP6−3(符号1c)を切出して、前記のP−VOP6−2を置き換えてデータパケットを構成する。
【0098】
次の画面に対応する動画像符号化データP−VOP7−1が格納されたデータパケット213以降のデータパケットについては、動画像符号化データおよび音声符号化データなどの変更が必要なく、データパケット自体の書換が不要であるため、そのままで分割した動画像ファイルのデータパケットとすることができる。
【0099】
次に、動画像符号化データP−VOP6−1が格納されていたデータパケット211については、分割位置の直前の画面に対応する動画像符号化データP−VOP5の一部であるP−VOP5−2、および動画像符号化データP−VOP6に先行する音声符号化データ12を破棄する。この結果、データパケット211は空になるので、イントラ符号化画面の動画像符号化データI−VOP6のうち、I−VOP6−3(1c)として分割した部分の前の動画像符号化データをI−VOP6−2として、データパケット211に格納する。
【0100】
さらに、動画像符号化データI−VOP6の残っている部分を、I−VOP6−1として新たなデータパケット210に格納する。
【0101】
このとき、データパケット210のうち埋まらずに残った空きの部分にはパディングデータ19を埋める。なお、ここではI−VOP6−1の後にパディング19を詰める例を説明したが、これに限定されず、I−VOP6−1でデータパケット全体を占めるようにして、I−VOP6−2の符号化データの後にパディングを埋めるようにしてもよいし、I−VOP6−1およびI−VOP6−2の双方ともに後にパディングを詰めるようにしてもよい。
【0102】
また、データパケット212において、P−VOP6−2の後に、次の画面に対応する動画像符号化データP−VOP7−1が含まれていた場合においても、同様にデータパケット212内でP−VOP6−2に相当する部分のみを画面P−VOP6から分割した符号化データで置き換えるようにしてデータパケットを再構成することができる。
【0103】
各データパケットのパケットヘッダ1aおよび1b中において指定される送出タイムスタンプ値TSは、イントラ符号化モードで再符号化したために増加したデータ量(P−VOP−6からI−VOP−6の増加量)を考慮し、このデータ量の増加によって再生時にデコーダバッファのオーバーフロー/アンダーフローが生じないように決定される。
【0104】
図5において、P−VOP6−3を格納したデータパケット212のタイムスタンプ値は分割前のままの値であるT6とされ、データパケット211のパケットヘッダ1aには上記T6に先行する時刻T5′が付加され、およびデータパケット210のパケットヘッダ1bには上記時刻T5′にさらに先行する時刻T4′が付加される。
【0105】
このようなタイムスタンプ値の設定は図3中のタイムスタンプ値更新回路34によって実行される。
【0106】
図6は、タイムスタンプ値更新回路34におけるタイムスタンプ値の設定方法を説明する図である。
【0107】
図6(a)には、動画像ファイル分割前の画面P0〜P5の処理に伴なうデコーダバッファ量の推移が示される。図6(a)を参照して、横軸は時間経過を示し、縦軸の上半分(正方向)は、デコーダのバッファ量を示す。縦軸の下半分(負方向)には、対応するエンコーダのバッファ量が参考のために示される。グラフの傾きは、動画像符号化データの伝送ビットレートBRに相当する。
【0108】
ここでは、固定ビットレートを前提とするため、グラフの傾きは一定となる。デコーダにおいては、一定のビットレートによって動画像符号化データが入力されるため、それに従ってバッファ量が増加する。たとえば、画面P0の復号時刻t0になると、画面P0を復号するために、画面P0の復号化データをバッファから読出すため、画面P0の符号化データ量分だけバッファ量が減少する。デコーダのバッファ量は、一定の割合による増加と、画面の復号タイミングにおける1画面分の符号化データの減少との繰返しである。
【0109】
ここで、画面P2に注目すると、画面P2の符号化データの先頭がデコーダバッファに入力される時点は、図示するようにグラフの傾きを延長し、横軸と交わった時刻t1で示される。また、画面P2を復号した時点におけるデコーダのバッファ量はBeで示される。
【0110】
すなわち、復号化データが一定のビットレートで入力されるとき、画面P2の符号化データの先頭が入力される時刻t1と、画面P2が復号される時刻t2との差に応じて、P2復号後のバッファ量Beは決定される。このバッファ量Beは、符号化の規格によっては符号化データ中に予め情報として含まれているため、この情報を利用することができる。また、符号化データ中に当該情報が含まれていない場合でも、伝送ビットレートBRと当該画面の表示時刻から予測計算を行なうことも可能である。
【0111】
図6(b)は、本発明の画像編集装置において分割位置の画面P2を再符号化した後におけるデコーダバッファ量およびこれに対応するエンコーダバッファ量を示す。横軸および縦軸の表示は、図6(a)と同様であるので説明は繰り返さない。
【0112】
図6(b)を参照して、分割位置の画面P2はイントラモードで再符号化されるので、符号化データ量が増加している。本発明の画像編集装置においては、画面P2を復号した後(時刻t4)のデコーダバッファ量が、分割処理を実行する前のバッファ量、ずなわち図6(a)中の時刻t2におけるバッファ量Beと等しくなるように、再符号化した画面P2の符号化データの送出開始時刻t3を調整する。
【0113】
これにより、デコーダのバッファ量の推移が分割処理を実行する前と等しくなるようにする。つまり、バッファ量Beに画面P2の再符号化後の符号化データ量B2を加えた位置から、伝送ビットレートBRで決まる傾きに従って直線を引いたときの横軸との交点、すなわち時刻t3に画面P2の復号化データの先頭が送出されるように送出時刻タイムスタンプ値が指定される。
【0114】
これは、再符号化後の画面P2の符号化データ量に応じて、画面P2復号後のバッファ量Beと、伝送ビットレートBRによって決まるグラフの傾きとから画面P2が復号される時刻と画面P2の符号化データ先頭の入力時刻との差分を求めて、時刻t3を決定していることとなる。すなわち、再符号化された動画像符号化データを格納するデータパケットのタイムスタンプ値は、当該再符号化に伴う符号化データ量の増加分に応じて設定される時間分だけ、当該データパケットの送出時刻が早くなるように更新される。
【0115】
たとえば、図5に示すようにデータパケットの書換を行なう場合(図6(b)の画面P2が図5の画面I−VOP6に相当する)においては、分割後の先頭データパケット210のパケットヘッダ1bの送出時刻タイムスタンプ値T4′には、上記の時刻t3に対応する値が指定される。
【0116】
このようにして、分割後の動画像ファイルの先頭データパケットに対する送出時刻タイムスタンプ値が決定されれば、この先頭データパケット以外で再符号化された動画像符号化データが格納されるデータパケットに対しては、動画像符号化データが一定ビットレートBRで送出されるようにタイムスタンプ値を決定すればよい。
【0117】
つまり、次のデータパケット211のパケットヘッダ1aに格納される送出時刻タイムスタンプ値T5′には、データパケット211に格納される動画像符号化データI−VOP6−2の先頭を送出すべき時刻が、同様に図6(b)のグラフから求められ、対応する値が指定される。
【0118】
次に、動画像ファイルと、記憶媒体上での物理的なデータ配置との関係の例について説明し、本発明の分割処理において分割位置以外では物理的なデータの書換が不要であることについて説明する。
【0119】
図7は、本発明に従う画像編集装置100で取扱われる動画像ファイルデータの記憶媒体上での物理的な配置および管理の一例を示す図である。
【0120】
図7を参照して、動画像ファイルのデータ自体は、たとえばファイル記憶部21中の記憶媒体121上において、物理的フォーマットに従ったセクタと呼ばれる、領域単位(図7中における符号1〜20)で格納および管理されている。
【0121】
ばらばらのセクタに記録されたデータは、FAT(File Allocation Table)と呼ばれる管理情報によって、これらのセクタをどのような順序で連結してファイルが構成されているかが示される。本発明の画像編集装置100において、動画像ファイルの分割処理を行なう場合においては、分割位置の再構成されたデータパケットが格納されているセクタの内容が書換られる。その他の書換が不要なデータパケットが格納されているセクタに関しては、分割後のファイルでもそのまま利用できる。
【0122】
また、本発明の分割編集処理に伴なう再符号化によって、動画像符号化データ量が増加して新規にデータパケットを作成する必要が生じ、元のセクタに収まりきらなくなった場合には、新たな空きセクタを利用して、当該空きセクタにデータパケットを書込む。
【0123】
このようにして書換たセクタを、新たにデータを書込んだセクタおよび書換なかったセクタ等と連結して分割後の動画像ファイルを構成するようにFATの内容が変更される。したがって、分割編集処理に際して変更が不要であったデータパケットが格納されているセクタに対しては、物理的な書換が完全に不要となる。
【0124】
上述の説明においては、主に元の動画像ファイル自体を分割編集して、分割後に新たな動画像ファイルを作成する場合について述べてきたが、元の動画像ファイルはそのまま残しておいて、その一部分を分割した動画像ファイルを新たに作成する場合も同様である。この場合には、書換が不要であるデータパケットは、当該データパケットごともしくはデータパケットが格納されたセクタごとに単にコピーを行なえばよい。このようなデータをコピーする処理は、図2中のファイル管理部22もしくはファイル読込部27、ファイル書込部23における処理によって簡単に実行させることが可能である。
【0125】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0126】
【発明の効果】
本発明の画像編集装置によれば、分割編集後の先頭画面をイントラモードで再符号化するため、ユーザが動画像ファイルを自由な位置で分割できることになる。この結果、動画像の内容に応じて分割位置が決定できるため、ユーザが見たいシーンが始まる瞬間などユーザの所望の位置で分割編集を行なうことができ、編集の自由度を向上させることができる。このように、編集の自由度が増すと、符号化時に後の編集時における利便性を考慮する必要がなくなるので、イントラ符号化画面の挿入位置および間隔などの符号化パラメータの選択の自由度も向上する。また、動画像ファイルのうち不要な部分を削除するために分割編集を行なう場合には、細かな単位で分割して削除できるので、記録媒体の利用効率を向上させることができる。これらの効果を享受するために必要となる処理量は、先頭画面1画面のみの再符号化であり、非常に少なくてすむ。
【0127】
本発明の画像編集装置によれば、動画像ファイルの分割処理は、動画像符号化データに対して直接行なわれるのではなく、所定のファイルフォーマットに従ったデータパケットに対して実行される。したがって、分割編集個所に位置する再符号化の対象画面の符号化データが格納されたデータパケットだけを書き換えればよいため、ファイル全体の書換処理が不要となり処理を簡単かつ高速に実行できる。この結果、たとえば、カメラなどの簡単な小型機器を用いる場合、長時間の動画像ファイルを編集する場合や、アクセス速度が遅い蓄積媒体を用いる場合等においても、短時間で容易に分割編集処理を行なうことが可能となる。この効果は、元の動画像ファイルは残してその一部分を分割した動画像ファイルを新たに作成する場合においても享受される。すなわち、書換が不要なデータパケットに対しては単純なコピー処理だけを行なえばよいため、非常に簡単な処理で分割した動画像ファイルを新たに作成できる。
【0128】
さらに、先頭画面の再符号化に伴うデータ量の増大に対応して、データパケットの送出時刻を示すタイムスタンプ値を制御するので、画像データの情報量を監視しながらスタッフィングを挿入する等の面倒なデータ操作を行なうことなく再生時のデコーダバッファ量を制御して、オーバフローやアンダフローの発生を回避することができる。タイムスタンプ値の制御に必要とされる処理は非常に簡単であり、柔軟な制御を実行できる。
【0129】
また、タイムスタンプ値は、分割した動画像ファイル中に予め記録しておくため、動画像ファイルを読み出して送出する際にフィルビット挿入等の処理が不要であり、処理を簡単に実行できる。これにより、サーバから動画像ファイルを同時に受信できる収容ユーザ数の増加や、動画像配信サーバに必要とされる処理量の低減を実現することができる。
【図面の簡単な説明】
【図1】 本発明に従う画像編集装置における動画像データの分割処理の概要を説明する図である。
【図2】 本発明の実施の形態に従う画像編集装置100の構成を示す概略ブロック図である。
【図3】 ファイル分割処理部25の構成を詳細に説明するためのブロック図である。
【図4】 本発明に従う画像編集装置で取扱われる動画像ファイルの構成例を示す図である。
【図5】 分割編集処理時のパケット再構成を説明する図である。
【図6】 タイムスタンプ値更新回路34によるタイムスタンプ値の設定方法を説明する図である。
【図7】 本発明の画像編集装置で取扱われる動画像ファイルデータの記憶媒体上における物理的な配置および管理の一例を示す図である。
【図8】 動画像データの符号化における画面間の予測処理を説明する図である。
【図9】 従来の画像編集装置において動画像データを分割した場合におけるファイル内のデータパケットの書換を説明する図である。
【図10】 従来の画像編集装置200の構成を説明する概略ブロック図である。
【符号の説明】
25 ファイル分割処理部、29 パケット分解部、30 動画像データ復号化部、31 分割画面再符号化部、32 パケット再構成部、33 動画像分割制御部、34 タイムスタンプ値構成回路。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an editing device for moving image files in which multimedia information such as audio and moving images is recorded, and more specifically, temporal editing of moving image files in which moving image data is encoded and stored in a recording medium. The present invention relates to an image editing apparatus for processing, particularly file division editing.
[0002]
[Prior art]
With the development of image processing technology and the improvement in performance of personal computers (hereinafter also simply referred to as PCs), multimedia information can be easily handled even at home PCs. For this reason, it is required that multimedia information such as audio and moving images can be recorded and used as a file on a normal PC in accordance with, for example, the DOS file format. By recording and managing multimedia information as a file on a PC, it can be handled easily as with other application files such as word processors and spreadsheets.
[0003]
When a file in which a moving image is recorded can be easily used, it is necessary to provide an editing function for the moving image file. The editing of moving images is mainly temporal editing such as file division, file combination, and trimming for extracting only a part of the file. Among these, division editing for cutting off an extra recorded portion when extracting a moving image or extracting only a portion of interest is a particularly important function. Since trimming can be realized by combining two file divisions, it can be functionally executed by the same processing as file division.
[0004]
However, since moving image data has a large amount of data, it is necessary to compress the amount of information by encoding when recording it in a file. For this reason, the file division editing process cannot be simply executed. In general, in the encoding of moving image data, only information that has changed between screens is extracted and used using inter-frame / field prediction. Therefore, for a certain screen, only the difference information from the previous screen referenced in the prediction is recorded in the file as encoded data. For this reason, if editing such as division is performed on a moving image file, there is a possibility that a reference image for prediction for a screen included in the latter half of the divided file disappears and a normal image cannot be restored. .
[0005]
FIG. 8 is a diagram for explaining prediction processing between screens in encoding moving image data.
[0006]
Referring to FIG. 8, each screen of the encoded moving image data is an intra-screen coding screen (indicated by I in the drawing, hereinafter also referred to as an intra-coding screen) that does not use prediction from other screens. It consists of an inter-screen coding screen (indicated by P in the figure) that has been predictively coded with reference to the previous screen. Here, for example, as shown in (a), a case will be described in which moving image data is divided immediately before a screen 62 which is an inter-coded screen. The screen 62 is encoded using the prediction from the screen 61.
[0007]
At this time, in the divided moving image data shown in (b), since the screen 62 is positioned at the head, the screen 61 referred to when the screen 62 was predicted does not exist, and the screen 62 is displayed. It will not be possible to decrypt correctly.
[0008]
In the conventional image editing apparatus, in order to avoid such a problem, division editing is performed only immediately before the intra-encoded screen, which is encoded without using prediction from the previous screen. I was trying. That is, in the example of FIG. 8, division is possible only immediately before the screen 63 that is an intra-encoded screen.
[0009]
FIG. 9 is a diagram for explaining rewriting of a data packet in a file when moving image data is divided in a conventional image editing apparatus.
[0010]
Although details will be described later, moving image encoded data (VOP) and audio encoded data corresponding to one screen are divided into a plurality of pieces, and each of the divided pieces of data constitutes a data packet. In FIG. 9, the moving image encoded data I-VOP6 of the intra-encoded screen is divided into three I-IVOP6-1, I-VOP6-2, and I-VOP6-3 and stored in the data packet. ing.
[0011]
Here, when the moving image file is divided immediately before the intra-encoded screen corresponding to I-VOP6, the previous moving image encoded data and audio encoded data are unnecessary. Therefore, in the data packet in which the first encoded data I-VOP 6-1 is stored, the data located before the I-VOP 6-1 is discarded, and the encoded data of the I-VOP 6-1 is changed to the previous one. Stuff.
[0012]
Therefore, the moving image data P-VOP5-2 corresponding to the previous inter-coded screen stored in the data packet 201 is discarded, and the divided data packet 202 corresponding to the data packet 201 before the division. In FIG. 4, the encoded data of I-VOP 6-1 is padded forward, and padding information, which is a dummy data byte for making the packet data length constant, is filled in the empty portion.
[0013]
As described above, the divided first packet 202 is rewritten, but the subsequent data packets 203 and 205 need not be rewritten.
[0014]
As described above, for example, Japanese Patent Application Laid-Open No. 8-149408 discloses an image editing apparatus that limits the dividing position of a moving image file to a position immediately before the intra-encoded screen and operates the moving image encoded data itself to perform the dividing process. There are disclosed video editing methods and devices. In the editing apparatus, division editing is performed in units of GOP (group of pictures) employed in MPEG-1, MPEG-2, and the like.
[0015]
Generally, since the first screen of a GOP is configured to be an intra-coded screen, if division editing is performed in units of GOPs, correct decoded data can be obtained on the first screen after division. Is possible.
[0016]
FIG. 10 is a schematic block diagram illustrating the configuration of a conventional image editing apparatus 200.
[0017]
Referring to FIG. 10, an image editing apparatus 200 includes a packet decomposing unit 51 that decomposes a moving image file data packet to be edited into moving image encoded data and audio encoded data, and the decomposed packet data. Among them, an encoded data dividing unit 52, an encoded data reconstruction unit 55, an encoded data analysis control unit 57, a dummy encoded data generating unit 53, and a stuffing encoded data generating unit 54 for editing moving image encoded data. And a packet reconstruction unit 56 for reconstructing the encoded moving image encoded data and the encoded audio data into moving image file data packets.
[0018]
The packet decomposing unit 51 divides the moving image data packet file, and extracts and outputs the audio encoded data and the moving image encoded data.
[0019]
The encoded data decomposition unit 52 divides the moving image encoded data so that the division position is at the head of the GOP.
[0020]
However, in the case of MPEG-1 or MPEG-2, the GOP refers to a screen in the GOP positioned in front of time, such as a bidirectional prediction screen immediately after the head intra-coded screen. There is also a screen. As described above, when the encoded data of the screen in which the prediction reference screen disappears after the division is included, the dummy encoded data generation unit 53 performs dummy encoding indicating that there is no change between the screens. Create data. Then, the encoded data reconstruction unit 55 replaces the encoded data with dummy encoded data. Even if such a replacement is made, the only effect is that the same screen as the GOP head screen is displayed continuously for several screens, and no visually abnormal screen is displayed. .
[0021]
Furthermore, in the conventional image editing apparatus 200, when decoding the moving image encoded data subjected to the division editing, the buffer state of the decoder is the same as the buffer state for the moving image encoded data before the division. When the stuffing encoded data creating unit 54 generates stuffing data and the amount of generated code is less than planned, a reconfiguration process is performed so as to insert it into the moving image encoded data in order to prevent underflow.
[0022]
The encoded data analysis control unit 57 controls the division position of the moving image encoded data to be the head of the GOP according to the edit control information, and designates the division position in the encoded data division unit 52.
[0023]
The packet reconstruction unit 56 reconstructs a moving image file data packet by combining the divided moving image encoded data output from the encoded data reconstruction unit 55 and the audio encoded data corresponding thereto.
[0024]
The packet reconstruction unit 56 outputs the divided data packet. The encoded data analysis control unit 57 receives, for example, editing control information including division position instruction information from the outside, and controls the division processing of the moving image encoded data. The encoded data dividing unit 52 is controlled by the encoded data analysis control unit 57 to divide the moving image encoded data at the designated position.
[0025]
The encoded data analysis control unit 57 controls division positions in the encoded data dividing unit 52, replacement with dummy encoded data in the encoded data reconstruction unit 55, and control of the amount of stuffing data inserted in accordance with the edit control information. To do. In this way, the reconstructed moving image encoded data is multiplexed with the audio encoded data to be stored in the moving image file in the packet reconstructing unit 56 to form a divided data packet. Output.
[0026]
A technique disclosed in Japanese Patent Laid-Open No. 7-184176 is a method for adjusting the buffer state of a decoder when a moving image file is read and reproduced instead of embedding stuffing data in the moving image file in advance. Is also present. In this publication, when the recorded moving image encoded data is read out and sent to the receiving terminal, it is filtered while monitoring the information amount of the image data so that the decoder buffer of the receiving terminal does not overflow or underflow. An accumulated image reproducing apparatus that adjusts the amount of data by inserting bits is disclosed.
[0027]
Furthermore, as another prior art, in Japanese Patent Laid-Open No. 7-184189, when recording moving image encoded data received from a terminal, an arbitrary screen can be recorded at the head by intra-coding the head screen. A video information storage control device is disclosed.
[0028]
[Problems to be solved by the invention]
However, in these prior arts, the division position is limited only to the intra coding screen and the GOP boundary, so the user cannot freely select the division position of the file, and the recorded moving image scene cannot be selected. It is not possible to perform free division editing in response.
[0029]
The interval and position at which the intra-coded screen is inserted are determined by the encoder as appropriate, and reflect the content of the moving image such as the start position of the scene that the user wants to see. Absent.
[0030]
In particular, when a moving image is encoded at a low rate such as several kbit / s to several hundred kbit / s, a frame dropping process for reducing the amount of information and an increase in data amount due to intra encoding are performed. In order to avoid this, it is necessary to ensure a long insertion interval of several seconds to several tens of seconds in the intra-coded screen, so that the allowable position for division is extremely limited. Accordingly, there arises a problem that the user cannot divide the moving image file at a desired screen position.
[0031]
In addition, for the structure of moving image encoded data, it is possible to forcibly divide at the position of the inter prediction encoded screen, but when reproducing the moving image encoded data divided in this way, The reference image does not exist. For this reason, a normal decoded image cannot be obtained until the next intra-coded screen is decoded and a correct prediction reference screen is obtained. Therefore, in order to obtain a normal decoded image, it is necessary to wait until the next intra-encoded screen. Therefore, the displayed moving image is the same as the case where it is divided at the position of the intra-encoded screen as described above. End up.
[0032]
Furthermore, simply re-encoding the divided top screen to an intra-encoded screen increases the amount of data compared to the inter-screen predictive encoding before the division process, resulting in buffer overflow or underflow. The decoder may not be able to operate normally.
[0033]
In order to perform stuffing insertion processing or the like, if the encoded data is directly manipulated as in the conventional image editing apparatus 200, the reconstructed moving image encoded data is reformatted to conform to the file structure. Processing to write to the file is required, and rewriting processing of the entire file is required. This makes it possible to read / write files when editing on a small portable device with a large processing restriction, such as a video camera, or when processing very large files such as long-time video files. Due to the heavy load, the processing time becomes very long. Therefore, it is very difficult to realize such a dividing method. In particular, as described above, when the amount of data increases due to re-encoding, it is impossible to cope with only by inserting stuffing.
[0034]
Furthermore, in the insertion process such as stuffing and fill bit, a process for estimating the state of the decoder buffer is required to determine the amount of data to be inserted. In this estimation process, it is necessary to assume the behavior of the decoder by taking into account all the conditions such as the bit frame, frame rate, and encoding method of the encoded data in the moving image file. Detailed analysis is required. Such an estimation process is not only complicated, but also has a problem that results in lack of flexibility because it cannot cope with an arbitrary encoding system other than a known encoding system.
[0035]
The present invention has been made to solve such problems, and the object of the present invention is to provide a moving image at a free time position by a relatively simple process without significant rewriting of data packets. An object is to provide an image editing apparatus capable of dividing and editing a file.
[0036]
[Means for Solving the Problems]
The image editing apparatus according to claim 1 is an image editing apparatus for dividing and editing a moving image file composed of a plurality of data packets storing moving image encoded data, wherein the moving image encoded data is decoded. Decoding processing means for outputting moving image data, divided editing control means for controlling the data packet division editing processing, and moving image data corresponding to the first screen which is the first moving image screen after division editing. A divided screen re-encoding unit that receives the decoding processing unit and re-encodes in a mode that does not use prediction from the previous screen in time, and outputs moving image encoded data; The time stamp value indicating the transmission time of the data packet for the data packet in which the re-encoded moving image encoded data is stored. Data amount of re-encoded moving image encoded data Update according to On the other hand, the time stamp value is not updated for data packets composed of moving image encoded data not related to re-encoding. Time stamp value update means and , Dynamic Packet reconstructing means for combining the encoded image data and the time stamp value to generate a data packet.
[0037]
An image editing apparatus according to claim 2 is the image editing apparatus according to claim 1, further comprising a data switching circuit arranged between the divided screen re-encoding means and the packet reconstruction means, and the data switching circuit Is controlled by the division editing control means, and either the moving image encoded data output from the divided screen re-encoding means or the moving image encoded data before being decoded by the decoding processing means is used as the packet reconstruction means. give.
[0038]
The image editing apparatus according to claim 3 is the image editing apparatus according to claim 2, wherein the packet reconstructing unit is configured such that the moving image encoded data corresponding to the head screen is a temporally previous screen before the divided editing processing. In the case of encoding in the mode using the prediction from the video encoding, the video encoding data corresponding to the first screen in the data packet after the division editing process is output by the division screen re-encoding means. Generate using data.
[0039]
The image editing device according to claim 4 is the image editing device according to claim 2, wherein the packet reconstructing unit is configured to display a screen in which the moving image encoded data corresponding to the top screen is temporally previous before the divided editing processing. In the case of encoding in a mode that does not use prediction from the moving image code before decoding the moving image encoded data corresponding to the first screen in the data packet after the division editing processing by the decoding processing means Generated using the converted data as it is.
[0040]
The image editing apparatus according to claim 5 is the image editing apparatus according to claim 1, wherein the division editing control means applies to a data packet that does not include moving image encoded data corresponding to the first screen before the division editing processing. Does not instruct rewriting of the contents.
[0041]
An image editing apparatus according to claim 6 is the image editing apparatus according to claim 1. , Ta The imstamp value updating means determines the time stamp value based on the data amount of the re-encoded video encoded data and the transmission bit rate of the video encoded data. update To do.
[0042]
The image editing device according to claim 7 is the image editing device according to claim 6, wherein the time stamp value updating means includes data of re-encoded moving image encoded data. Quantity Et al. The buffer amount of the decoder after decoding the re-encoded moving image encoded data becomes equal to the buffer amount of the decoder after decoding the first screen before the division process editing. Estimate the buffer amount of the decoder when playing the first screen, and estimate the buffer amount And transmission bit rate of encoded video data Based on the above, a time stamp value is set so that overflow or underflow does not occur in the decoder.
[0043]
The image editing apparatus according to claim 8 is the image editing apparatus according to claim 6, wherein the time stamp value updating means is configured to increase the amount of data accompanying re-encoding of the moving image encoded data corresponding to the head screen. A time stamp value is set so that moving image encoded data corresponding to the first screen is transmitted in advance for the corresponding time.
[0045]
Claim 9 The image editing apparatus according to claim 6 is the image editing apparatus according to claim 6, wherein the packet restructuring unit is configured to perform a pre-division editing process on a data packet that does not include moving image encoded data corresponding to the top screen. The data packet after the division editing process is generated using the time stamp value as it is.
[0046]
Claim 1 0 The described image editing apparatus is an image editing apparatus for dividing and editing a moving image file composed of a plurality of data packets for storing moving image encoded data, and decoding the moving image encoded data to generate a moving image Decoding processing means for outputting data, divided editing control means for controlling data packet division editing processing, and decoding processing means for moving image data corresponding to the first screen which is the first moving image screen after divided editing And a divided screen re-encoding means for re-encoding in a mode that does not use prediction from the previous screen in time and outputting moving image encoded data, moving image encoded data and a data packet at the time of reproduction A packet reconstructing unit that combines a time stamp value indicating a transmission time and generates a data packet after the division editing process; The time stamp value is the data amount of the re-encoded moving image encoded data in the data packet storing the re-encoded moving image encoded data among the data packets after the division editing process. On the other hand, the data packet composed of moving image encoded data not related to re-encoding is not updated while being updated accordingly. And the image editing device A file storage unit having a storage medium divided into a plurality of sectors, a file management unit for controlling management information for configuring a moving image file from data stored in the plurality of sectors, and writing data to the file storage unit The file writer to further The file writing unit executes data rewriting related to the moving image encoded data necessary for the divided editing process for each sector unit, and the storage data of the sector that does not require data rewriting is stored before the divided editing process. Is maintained in the same content.
[0047]
Claim 1 1 The image editing apparatus according to claim 1. 0 In the image editing apparatus described above, the file management unit updates the management information when the sector configuration of the moving image file changes in accordance with the division editing process.
[0048]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0049]
FIG. 1 is a diagram for explaining the outline of the moving image data dividing process in the image editing apparatus according to the present invention.
[0050]
Referring to FIG. 1, as in the case of FIG. 8, the intra-coded screen is denoted by I, and the inter-coded screen with predictive coding is denoted by P. As described above, when the moving image file is divided immediately before the inter-screen coding screen 62 that is predictively encoded with reference to the intra-coding screen 61 as shown in (a), as shown in (b). Since the prediction reference screen of the screen 62 does not exist, the screen 62 cannot be correctly decoded.
[0051]
Therefore, in the image editing apparatus according to the present invention, as shown in (c), in the division process, the screen 62 which is the head of the division is once decoded to obtain decoded image data 62d. Here, in order to decode the screen 62, the moving image encoded data is sequentially decoded from the head, or an intra-encoded screen (screen 59 in FIG. 1) that can be independently decoded immediately before the screen 62. ) And decoding up to the screen 62.
[0052]
Next, the screen 62d restored to the image data is re-encoded into an intra-coded screen so as not to use prediction from the previous screen. Through such a series of operations, the moving image encoded data of the intra-encoded screen 64 that is intra-encoded is obtained. Since the screen 65 following the screen 64 is predicted with reference to the re-encoded screen 64, the encoded data reflecting the original inter-screen prediction may be used.
[0053]
FIG. 2 is a schematic block diagram showing the configuration of the image editing apparatus 100 according to the present invention.
[0054]
Referring to FIG. 2, an image editing apparatus 100 includes a file storage unit 21 that stores a moving image file, a file management unit 22 that manages a storage area of the file storage unit 21 and controls access to the moving image file. When reproducing a moving image file, a file reading unit 27 and a file decoding unit 28 for reading out the moving image file and decoding the contents of the moving image file, and a divided editing process for dividing and editing moving image data A block 40, a user input processing unit 26 for processing a user instruction such as a division editing process for a moving image file, and audio and moving images based on decoding results of the audio encoded data and the encoded moving image data, respectively. An audio output unit 52 and a moving image output unit 55 for outputting are provided.
[0055]
The division edit processing block 40 includes a packet decomposition unit 29 that divides the data packet output from the file decoding unit 28 into voice encoded data and moving image encoded data, and a moving image encoding output from the packet decomposition unit 29. The moving image data decoding unit 30 for decoding the data, the edit control information such as the division position designation from the user input to the user input processing unit 26, and the output of the moving image data decoding unit 30 are divided. And a file division processing unit 25 that performs editing processing.
[0056]
When playing back a moving image file, the moving image file stored in the file storage unit 21 is read by the file reading unit 27 under the control of the file management unit 22. The file decoding unit 28 decodes the contents of the moving image file to read the attribute / control information and the like, and extracts and outputs the data packet which is the main body of the multimedia information. The structure of the moving image file will be described in detail later.
[0057]
Further, the packet decomposing unit 29 receives the data packet from the file decoding unit 28, and separates and outputs the multiplexed audio encoded data and moving image encoded data. The encoded audio data is sent to the audio data decoding unit 50 and subjected to decoding processing. The audio data is restored and output from the audio output unit 52. The moving image encoded data is sent to the moving image data decoding unit 30 and subjected to decoding processing. The moving image data is restored, output from the moving image output unit 55, and displayed.
[0058]
The image editing apparatus 100 further performs a division editing process, and then generates a moving image file after divided editing. The file editing unit 100 generates the divided editing moving image file generated by the file generating unit 24 as a file storage unit. And a file writing unit 23 for writing to the file.
[0059]
When the division editing process is performed on the moving image file, an instruction from the user such as designation of a position to be divided is processed by the user input processing unit 26 and is sent to the file division processing unit 25 as editing control information.
[0060]
The file division processing unit 25 receives edit control information, moving image encoded data, and audio encoded data, and outputs a data packet reconstructed by the division editing operation. The edited data packet output from the file division processing unit 25 is added with necessary information such as header information and footer control information in the file generation unit 24. In this way, the moving image file configured according to the determined format is stored in the file storage unit 21 by the file writing unit 23 via the file management unit 22.
[0061]
FIG. 3 is a block diagram illustrating in detail the configuration of the division editing processing unit 25.
Referring to FIG. 3, a divided screen re-encoding unit 31 that re-encodes the moving image data decoded by the moving image data decoding unit 30, and a division editing process based on the edit control information. A moving image division control unit 33, a multiplexer 35 for setting a path for bypassing the moving image data decoding unit 30 and the divided screen re-encoding unit 31, controlled by the moving image division control unit 33, and a multiplexer 35, the moving image encoded data is received from one of the divided screen re-encoding unit 31 and the packet decomposing unit 29, and the audio encoded data is received from the packet decomposing unit 29 to generate the data packet after the division editing. A packet reconfiguration unit 32.
[0062]
The packet decomposing unit 29 receives the data packet of the moving image file, decomposes it into audio encoded data and moving image encoded data, and outputs it. The voice encoded data is output to the packet reconstruction unit 32. The moving image data is sent to the file division processing unit 25 and the moving image data decoding unit 30. Further, the packet decomposing unit 29 extracts the time stamp value TS from the data packet and gives it to the moving image division control unit 33. The time stamp value TS will be described in detail later.
[0063]
The moving image division control unit 33 performs control such as designation of a screen to be re-encoded by the divided screen re-encoding unit 31 and designation of a screen to be decoded by the moving image data decoding unit 30 according to the input editing control information. Execute.
[0064]
The moving image division control unit 33 switches the output of the multiplexer 35 according to whether or not each screen needs to be re-encoded.
[0065]
That is, when re-encoding is necessary for the divided first screen as described in (c) of FIG. 1, the multiplexer 35 decodes the moving image encoded data corresponding to the first screen as moving image data decoding. After being decoded by the encoding unit 30, it is re-encoded by the divided screen re-encoding unit 31 and sent to the packet reconstruction unit 32.
[0066]
On the other hand, when re-encoding is not necessary for the divided first screen, it is not necessary to rewrite the contents of the data packet corresponding to the first screen, so the multiplexer 35 outputs the moving image output from the packet decomposing unit 29. The data is directly sent to the packet reconstruction unit 32, bypassing the moving image data decoding unit 30 and the divided screen re-encoding unit 31. At this time, if at least one of the moving image data decoding unit 30 and the divided screen re-encoding unit 31 is set in a non-operating state at the same time, power consumption can be reduced.
[0067]
In addition, since the data packet corresponding to the screen other than the divided first screen need not be rewritten, the multiplexer 35 converts the moving image data output from the packet decomposing unit 29 into the moving image data decoding unit 30. The divided screen re-encoding unit 31 is bypassed and sent directly to the packet reconstruction unit 32. Similarly, if at least one of the moving image data decoding unit 30 and the divided screen re-encoding unit 31 is set to a non-operation state at this time, power consumption can be reduced.
[0068]
With such a configuration, the divided data packet is configured by determining whether re-encoding is necessary or not in the moving image division control unit 33 based on the edit control information or the like at the time of division editing. It is possible to switch the moving image data appropriately.
[0069]
The moving image division control unit 33 updates a time stamp value of a data packet for storing re-encoded moving image encoded data when the first screen after division is re-encoded. 34. The time stamp value update circuit 34 includes the encoded data amount BL of the re-encoded screen obtained by the divided screen re-encoding unit 31, the time stamp value TS before the division editing, the transmission bit rate BR of the moving image encoded data, and the division The time stamp value is updated as necessary according to the determination FL whether or not the time stamp value needs to be updated based on the type of the head screen later, and is sent to the packet reconstruction unit 32.
[0070]
The packet reconstruction unit 32 receives the time stamp value output from the time stamp value update circuit 34, the audio encoded data transmitted from the packet decomposing unit 29, and the moving image encoded data output via the multiplexer 35. Thus, the divided and edited data packet is reconstructed and sent to the file generation unit 24.
[0071]
Next, a series of processes when performing division editing in the image editing apparatus 100 will be described. The user determines and designates a position to be divided with respect to the selected moving image file through an appropriate user interface. The information at the time of division is processed by the user input processing unit 26 and sent to the moving image division control unit 33 in the file division processing unit 25 as editing control information.
[0072]
The moving image division control unit 33 determines that re-encoding is necessary when the screen at the division position is encoded using inter-screen prediction, and the moving image data decoded by the moving image data decoding unit 30 In the split screen re-encoding unit 31 to re-encode in the intra mode. The multiplexer 35 sends the output of the split screen re-encoding unit 31 to the packet reconstruction unit 32.
[0073]
Here, for example, when the user designates the display of the division position while displaying the moving image data restored by reproducing the moving image file on the user interface, such information is presented to the user. Therefore, since the moving image data of the screen at the division position has already been obtained, the moving image data may be input by the divided screen re-encoding unit 31, and there is no need to decode such a screen again.
[0074]
On the other hand, when the division position of the moving image file is designated by the time code, the screen number, the data position in the moving image file, etc. for the image editing apparatus 100, the moving image data decoding unit 30 performs the division. It is necessary to decode the position screen. When decoding the screen that has been encoded using inter-screen prediction, this screen is decoded by sequentially decoding each screen from a screen that can be decoded independently, such as the previous intra-screen encoded screen. can do.
[0075]
The packet reconstructing unit 32 performs a process of replacing the original moving image encoded data for the re-encoded screen with the re-encoded moving image encoded data, a process of discarding the encoded data before the dividing process, and the like. Create a data packet of the edited moving image file. Further, rewriting of contents is not executed for data packets storing moving image encoded data corresponding to a screen other than the screen on which re-encoding has been executed.
[0076]
For the data packet after division editing created along with the re-encoding, the transmission time stamp value set by the time stamp value update circuit 34 is given to each data packet. The time stamp value is not updated for a data packet composed only of moving image encoded data not related to re-encoding.
[0077]
FIG. 4 is a diagram for explaining a configuration example of a moving image file handled by the image editing apparatus 100 of the present invention.
[0078]
Multimedia information such as audio moving images is stored independently as a complete file for each unit. As shown in FIG. 4D, the moving image file includes header control information and footer control information indicating the attributes and properties of the entire multimedia information in the file, and a multimedia data body. These are classified and stored independently in one file. The header control information includes, for example, control information related to the entire multimedia information included in the moving image file as described below.
[0079]
A file identifier (file ID) for identifying the file,
・ The length of the multimedia data itself,
・ Total playback time,
・ Average / maximum bit rate,
-The type and number of media included in the data body,
The header control information also includes control information related to moving images as described below.
[0080]
・ Screen playback / resolution of video,
-Identification of encoding methods (for example, ITU-T H.261, H.262, H.263, H.26L, ISO standards 11172 (MPEG-1), 13818 (MPEG-2), 14696 (MPEG-4)) Such),
・ Parameters for encoding (profile, level, option mode selection, etc.)
Furthermore, as header control information or footer control information, index information for specifying a randomly accessible position, and marker information for specifying and storing an appropriate position of time-sequential multimedia information For example, information for recording the position of multimedia information is also included.
[0081]
Index information refers to the case of referring to moving image encoded data, specifying an in-screen encoded screen, etc., and randomly reproducing multimedia information such as determining the access position and high-speed playback during random access. This is used for determining information to be reproduced.
[0082]
As shown in FIG. 4C, the data body of the moving image file is divided into packets of an appropriate size called data packets and stored as packetized information. Therefore, the data body of the moving image file is composed of a sequence of data packets.
[0083]
Here, a case will be described in which the moving image encoded data in FIG. 4A and the audio encoded data shown in FIG. 4B are multiplexed to form the data packet sequence in FIG.
[0084]
The example of FIG. 4C shows an example in which a plurality of media such as voice and moving images are multiplexed and stored in one data packet.
[0085]
As shown in FIG. 4B, the speech encoded data is one continuous data string. Actually, the audio encoded data is composed of encoded data for each encoding processing unit called an audio frame. However, since the length is generally very short compared to the data packet length, a continuous data string Can be considered.
[0086]
The voice encoded data is divided into appropriate values called voice packets and stored in data packets. The length of the voice packet is determined in consideration of packetization delay time, transmission delay time, and packetization efficiency. For voice encoded data having a fixed bit rate, a fixed-length voice packet is usually used in order to make the delay time constant.
[0087]
On the other hand, the moving image encoded data of each screen in FIG. 4A is further divided and stored in a data packet. These moving image encoded data are also referred to as VOP (Video Object Plane) when using the MPEG-4 video encoding method.
[0088]
As a result, as shown in FIG. 4C, the audio encoded data and the moving image encoded data are multiplexed and stored in the data packet. Here, the length of the data packet may be either a fixed length or a variable length. In the case of a fixed length, the length of the packet is determined by system conditions such as the recording media sector length, decoding length, track length, lower-layer protocol PDU (SDU) length, transmission / reception buffer size, etc. When the data amount (bit rate) is constant, it is determined according to temporal conditions such as a data packet transmission interval. When the length of the data packet is variable, the unit of packetization can be determined according to the nature of the encoded data of each medium.
[0089]
A packet header indicating control information such as the packet length and the number of data multiplexed inside is added to the data packet. When the moving image file is read and reproduced, a time stamp value TS indicating the time at which the data packet is to be transmitted is added to the packet header. By recording the transmission time in this way, when the server storing the moving image file transmits the data of the moving image file via the network by the access from the user, the server transmits the time of each data packet. Since it only needs to be sent at a designated time with reference to the stamp value, the burden on the server can be reduced, which is very effective. Such a transmission form of multimedia information is called streaming transfer (streaming tab) and is generally adopted.
[0090]
In the above-described example, a case where a plurality of pieces of encoded data are multiplexed in one data packet has been described. However, one piece of media decoded data, that is, a voice packet shown in FIG. It is also possible to configure the data packet so that only a part obtained by dividing the moving image encoded data is included. Even in this case, if a time stamp value indicating the transmission time is added to the packet header of the data packet, streaming transfer can be realized only by the same processing as described above in the server.
[0091]
FIG. 5 is a diagram for explaining packet reconfiguration during the division editing process.
For header control information and footer control information other than data packets, information about the entire moving image file, such as the length of the moving image file, the number of data packets, and the playback time, is written. It is necessary to do. For this reason, the file generation unit 24 shown in FIG. 2 newly generates header control information and footer control information or duplicates the information of the moving image file before division and changes a necessary part. Done.
[0092]
Here, the initial value of the time stamp value (for example, 0 seconds) is indicated by the time stamp value of the first data packet from the time of the initial value when a moving image file is played back in a pre-defined system. It will wait until the time. In order to avoid this waiting time, a time stamp offset value may be added to the header control information of the divided moving image file. Specifically, the transmission time stamp value of the first data packet of the divided moving image file may be specified as the offset value of the time stamp value.
[0093]
As described above, in the image editing apparatus 100 of the present invention, even when the transmission time stamp value of the data packet that does not need to be rewritten at the time of the division editing process is left as it is, the divided moving image When the file is reproduced, the offset value specified by the header control information is subtracted from all the time stamp values, or the initial value of the time is matched with the offset value, so that the reproduction can be started without waiting.
[0094]
As described above, audio data and video data are multiplexed and stored in the data packet of the video file, and a packet header 16 including a transmission time stamp is added to the head of the data packet. Yes.
[0095]
Here, a description will be given of the division position shown in FIG. 5, that is, the scene that is divided immediately before the inter-screen encoded screen corresponding to the moving image encoded data P-VOP 6.
[0096]
In the original moving image file, moving image encoded data P-VOP6 is divided into two, P-VOP6-1 and P-VOP6-2, and stored in data packets 211 and 212, respectively. Here, since the screen corresponding to the moving image encoded data P-VOP6 is subjected to inter-screen predictive encoding, the moving image encoded data P-VOP6 is temporarily decoded when the moving image file is divided, and the intra-mode is used. Re-encoding is performed to obtain moving image encoded data I-VOP6 corresponding to the intra-encoded screen.
[0097]
For the data packet 212 in which the moving image encoded data P-VOP6-2 is stored, the audio encoded data 14 is left as it is, and the moving image encoded data P from the end of the moving image encoded data I-VOP6. A moving picture encoded data I-VOP6-3 (symbol 1c) having a length corresponding to -VOP6-2 is extracted, and the P-VOP6-2 is replaced to form a data packet.
[0098]
For data packets after the data packet 213 in which the moving image encoded data P-VOP7-1 corresponding to the next screen is stored, it is not necessary to change the moving image encoded data and the audio encoded data, and the data packet itself Therefore, the data packet of the moving image file can be divided as it is.
[0099]
Next, for the data packet 211 in which the moving image encoded data P-VOP6-1 is stored, P-VOP5-, which is a part of the moving image encoded data P-VOP5 corresponding to the screen immediately before the division position. 2 and the audio encoded data 12 preceding the moving image encoded data P-VOP6 are discarded. As a result, since the data packet 211 becomes empty, the moving image encoded data before the portion divided as I-VOP6-3 (1c) in the moving image encoded data I-VOP6 of the intra-encoded screen is changed to I. -Stored in the data packet 211 as VOP6-2.
[0100]
Further, the remaining portion of the moving image encoded data I-VOP6 is stored in the new data packet 210 as I-VOP6-1.
[0101]
At this time, padding data 19 is filled in the empty portion of the data packet 210 that remains without being filled. Here, an example in which padding 19 is padded after I-VOP 6-1 has been described. However, the present invention is not limited to this, and encoding of I-VOP 6-2 is performed so that the entire data packet is occupied by I-VOP 6-1. The padding may be filled after the data, or both I-VOP 6-1 and I-VOP 6-2 may be padded after.
[0102]
Also, in the data packet 212, when the moving image encoded data P-VOP7-1 corresponding to the next screen is included after the P-VOP6-2, the P-VOP6 is similarly included in the data packet 212. The data packet can be reconfigured by replacing only the portion corresponding to -2 with the encoded data divided from the screen P-VOP6.
[0103]
The transmission time stamp value TS specified in the packet headers 1a and 1b of each data packet has an increased data amount (increase amount from P-VOP-6 to I-VOP-6 due to re-encoding in the intra coding mode). ), The decoder buffer overflow / underflow is determined not to occur during reproduction due to the increase in the data amount.
[0104]
In FIG. 5, the time stamp value of the data packet 212 storing the P-VOP 6-3 is T6 which is the value before the division, and the packet header 1a of the data packet 211 has a time T5 ′ preceding T6. The time T4 'preceding the time T5' is added to the packet header 1b of the data packet 210.
[0105]
Such setting of the time stamp value is executed by the time stamp value update circuit 34 in FIG.
[0106]
FIG. 6 is a diagram for explaining a time stamp value setting method in the time stamp value update circuit 34.
[0107]
FIG. 6A shows the transition of the decoder buffer amount accompanying the processing of the screens P0 to P5 before dividing the moving image file. Referring to FIG. 6A, the horizontal axis indicates the passage of time, and the upper half (positive direction) of the vertical axis indicates the buffer amount of the decoder. In the lower half (negative direction) of the vertical axis, the buffer amount of the corresponding encoder is shown for reference. The slope of the graph corresponds to the transmission bit rate BR of moving image encoded data.
[0108]
Here, since a fixed bit rate is assumed, the slope of the graph is constant. In the decoder, moving image encoded data is input at a constant bit rate, and the buffer amount increases accordingly. For example, when the decoding time t0 of the screen P0 is reached, since the decoded data of the screen P0 is read from the buffer in order to decode the screen P0, the buffer amount is reduced by the encoded data amount of the screen P0. The buffer amount of the decoder is a repetition of an increase at a certain rate and a decrease in encoded data for one screen at the decoding timing of the screen.
[0109]
Here, paying attention to the screen P2, the time when the head of the encoded data of the screen P2 is input to the decoder buffer is indicated by a time t1 at which the inclination of the graph is extended and intersects with the horizontal axis as shown. In addition, the buffer amount of the decoder at the time of decoding the screen P2 is indicated by Be.
[0110]
That is, when the decoded data is input at a constant bit rate, the P2 decoding is performed according to the difference between the time t1 when the head of the encoded data of the screen P2 is input and the time t2 when the screen P2 is decoded. The buffer amount Be is determined. Since this buffer amount Be is included as information in advance in the encoded data depending on the encoding standard, this information can be used. Even if the information is not included in the encoded data, it is also possible to perform prediction calculation from the transmission bit rate BR and the display time of the screen.
[0111]
FIG. 6B shows the decoder buffer amount and the encoder buffer amount corresponding to this after re-encoding the screen P2 at the division position in the image editing apparatus of the present invention. Since the display of the horizontal axis and the vertical axis is the same as in FIG. 6A, the description will not be repeated.
[0112]
Referring to FIG. 6B, the screen P2 at the division position is re-encoded in the intra mode, so that the amount of encoded data is increasing. In the image editing apparatus of the present invention, the decoder buffer amount after decoding the screen P2 (time t4) is the buffer amount before executing the division process, that is, the buffer amount at time t2 in FIG. 6A. The transmission start time t3 of the encoded data of the re-encoded screen P2 is adjusted so as to be equal to Be.
[0113]
Thereby, the transition of the buffer amount of the decoder is made equal to that before the division process is executed. That is, the screen intersects with the horizontal axis when a straight line is drawn according to the slope determined by the transmission bit rate BR from the position obtained by adding the encoded data amount B2 after re-encoding of the screen P2 to the buffer amount Be, that is, the screen at time t3. The transmission time stamp value is designated so that the beginning of the decrypted data of P2 is transmitted.
[0114]
This is because the screen P2 is decoded from the buffer amount Be after decoding the screen P2 and the slope of the graph determined by the transmission bit rate BR according to the encoded data amount of the screen P2 after re-encoding, and the screen P2. The time t3 is determined by obtaining the difference from the input time at the beginning of the encoded data. That is, the time stamp value of the data packet storing the re-encoded moving image encoded data is the time of the data packet for the time set according to the increase in the amount of encoded data accompanying the re-encoding. It is updated so that the sending time becomes earlier.
[0115]
For example, when data packets are rewritten as shown in FIG. 5 (screen P2 in FIG. 6B corresponds to screen I-VOP6 in FIG. 5), packet header 1b of first data packet 210 after division is shown. A value corresponding to the time t3 is designated as the transmission time stamp value T4 ′.
[0116]
In this way, if the transmission time stamp value for the head data packet of the divided moving image file is determined, the data encoded data that is re-encoded other than the head data packet is stored in the data packet. On the other hand, the time stamp value may be determined so that moving image encoded data is transmitted at a constant bit rate BR.
[0117]
That is, the transmission time stamp value T5 ′ stored in the packet header 1a of the next data packet 211 includes the time at which the head of the moving image encoded data I-VOP6-2 stored in the data packet 211 should be transmitted. Similarly, it is obtained from the graph of FIG. 6B, and the corresponding value is designated.
[0118]
Next, an example of the relationship between the moving image file and the physical data arrangement on the storage medium will be described, and it will be described that physical data rewriting is not required except for the division position in the division processing of the present invention. To do.
[0119]
FIG. 7 is a diagram showing an example of physical arrangement and management on a storage medium of moving image file data handled by the image editing apparatus 100 according to the present invention.
[0120]
Referring to FIG. 7, moving image file data itself is an area unit (reference numerals 1 to 20 in FIG. 7) called a sector according to a physical format on storage medium 121 in file storage unit 21, for example. Stored and managed in.
[0121]
In the data recorded in the disjoint sectors, management information called FAT (File Allocation Table) indicates in what order these sectors are connected to form a file. In the image editing apparatus 100 according to the present invention, when the moving image file is divided, the contents of the sector storing the reconstructed data packet at the dividing position are rewritten. Other sectors that store data packets that do not need to be rewritten can be used as they are in the divided files.
[0122]
In addition, if the re-encoding accompanying the division editing process of the present invention causes the amount of moving image encoded data to increase and a new data packet needs to be created, and it cannot fit in the original sector, A new empty sector is used to write a data packet in the empty sector.
[0123]
The contents of the FAT are changed so that the sector that has been rewritten in this way is connected to the sector in which data has been newly written, the sector that has not been rewritten, and the like to form the divided moving image file. Therefore, physical rewriting is completely unnecessary for a sector in which a data packet that does not need to be changed in the division editing process is stored.
[0124]
In the above description, the case where the original moving image file itself is divided and edited and a new moving image file is created after the division has been described. However, the original moving image file is left as it is. The same applies to the case of newly creating a moving image file that is partially divided. In this case, data packets that do not need to be rewritten may be simply copied for each data packet or each sector in which the data packet is stored. Such processing of copying data can be easily executed by processing in the file management unit 22 or the file reading unit 27 and the file writing unit 23 in FIG.
[0125]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
[0126]
【The invention's effect】
According to the image editing apparatus of the present invention, since the first screen after divided editing is re-encoded in the intra mode, the user can divide the moving image file at any position. As a result, since the division position can be determined according to the content of the moving image, the division editing can be performed at the user's desired position such as the moment when the user wants to see the scene, and the degree of editing freedom can be improved. . In this way, when the degree of freedom of editing increases, it becomes unnecessary to consider the convenience at the time of subsequent editing at the time of encoding, so the degree of freedom of selection of encoding parameters such as the insertion position and interval of the intra encoding screen is also increased. improves. In addition, when division editing is performed in order to delete an unnecessary portion of a moving image file, it can be divided and deleted in fine units, so that the utilization efficiency of the recording medium can be improved. The amount of processing necessary to enjoy these effects is re-encoding of only the first screen, and can be very small.
[0127]
According to the image editing apparatus of the present invention, the moving image file division process is not performed directly on the moving image encoded data, but is performed on a data packet according to a predetermined file format. Accordingly, since only the data packet storing the encoded data of the re-encoding target screen located at the divisional editing portion needs to be rewritten, the rewriting process for the entire file is not required, and the process can be executed easily and at high speed. As a result, for example, even when using a simple small device such as a camera, when editing a moving image file for a long time, or when using a storage medium with a slow access speed, the divided editing process can be easily performed in a short time. Can be performed. This effect is also enjoyed when a new moving image file is created by dividing the part of the original moving image file. That is, since only a simple copy process needs to be performed for a data packet that does not require rewriting, a moving image file divided by a very simple process can be newly created.
[0128]
Furthermore, since the time stamp value indicating the transmission time of the data packet is controlled in response to the increase in the data amount accompanying the re-encoding of the top screen, it is troublesome to insert stuffing while monitoring the information amount of the image data. By controlling the amount of decoder buffer at the time of reproduction without performing any data operation, it is possible to avoid the occurrence of overflow or underflow. The processing required for controlling the time stamp value is very simple, and flexible control can be executed.
[0129]
In addition, since the time stamp value is recorded in advance in the divided moving image file, when the moving image file is read and transmitted, processing such as fill bit insertion is unnecessary, and the processing can be executed easily. As a result, it is possible to realize an increase in the number of accommodated users who can simultaneously receive moving image files from the server and a reduction in processing amount required for the moving image distribution server.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an outline of moving image data division processing in an image editing apparatus according to the present invention;
FIG. 2 is a schematic block diagram showing a configuration of an image editing device 100 according to the embodiment of the present invention.
FIG. 3 is a block diagram for explaining the configuration of a file division processing unit 25 in detail.
FIG. 4 is a diagram showing a configuration example of a moving image file handled by the image editing apparatus according to the present invention.
FIG. 5 is a diagram for explaining packet reconfiguration at the time of divided editing processing;
6 is a diagram illustrating a method for setting a time stamp value by a time stamp value update circuit. FIG.
FIG. 7 is a diagram showing an example of physical arrangement and management on a storage medium of moving image file data handled by the image editing apparatus of the present invention.
FIG. 8 is a diagram for explaining prediction processing between screens in encoding moving image data.
FIG. 9 is a diagram for explaining rewriting of a data packet in a file when moving image data is divided in a conventional image editing apparatus.
10 is a schematic block diagram illustrating a configuration of a conventional image editing apparatus 200. FIG.
[Explanation of symbols]
25 file division processing unit, 29 packet decomposition unit, 30 moving image data decoding unit, 31 divided screen re-encoding unit, 32 packet reconstruction unit, 33 moving image division control unit, 34 time stamp value configuration circuit.

Claims (11)

動画像符号化データを格納する複数のデータパケットから構成される動画像ファイルを分割編集するための画像編集装置であって、
前記動画像符号化データを復号して動画像データを出力するための復号処理手段と、
前記データパケットの分割編集処理を制御する分割編集制御手段と、
前記分割編集後に先頭となる動画像の画面である先頭画面に対応する前記動画像データを前記復号処理手段から受けて、時間的に前の画面からの予測を用いないモードで再符号化して前記動画像符号化データを出力する分割画面再符号化手段と、
前記分割編集処理後のデータパケットのうちの、前記再符号化された動画像符号化データが格納されるデータパケットについて該データパケットの送出時刻を示すタイムスタンプ値を前記再符号化された動画像符号化データのデータ量に応じて更新する一方で、前記再符号化に関連しない動画像符号化データから構成されるデータパケットについては前記タイムスタンプ値を更新しないタイムスタンプ値更新手段と、
前記動画像符号化データと、前記タイムスタンプ値とを結合して、データパケットを生成するパケット再構成手段とを備える、画像編集装置。
An image editing apparatus for dividing and editing a moving image file composed of a plurality of data packets for storing moving image encoded data,
Decoding processing means for decoding the moving image encoded data and outputting moving image data;
Split edit control means for controlling split edit processing of the data packet;
Receiving the moving image data corresponding to the first screen, which is the first moving image screen after the division editing, from the decoding processing means, re-encoding in a mode that does not use prediction from the previous screen in terms of time Split screen re-encoding means for outputting moving image encoded data;
Of the data packets after the division editing process, for the data packet in which the re-encoded moving image encoded data is stored, a time stamp value indicating a transmission time of the data packet is used as the re-encoded moving image. A time stamp value updating means for updating the time stamp value for data packets composed of moving image encoded data not related to the re-encoding while updating according to the data amount of the encoded data ;
An image editing apparatus comprising: a packet reconstruction unit that combines the moving image encoded data and the time stamp value to generate a data packet.
前記分割画面再符号化手段と前記パケット再構成手段との間に配置されるデータ切換回路をさらに備え、
前記データ切換回路は、前記分割編集制御手段に制御されて、前記分割画面再符号化手段の出力する動画像符号化データおよび前記復号処理手段で復号される前の動画像符号化データのいずれか一方を前記パケット再構成手段に与える、請求項1記載の画像編集装置。
A data switching circuit disposed between the divided screen re-encoding unit and the packet reconfiguration unit;
The data switching circuit is controlled by the divided editing control means, and is one of moving image encoded data output from the divided screen re-encoding means and moving image encoded data before being decoded by the decoding processing means. The image editing apparatus according to claim 1, wherein one is supplied to the packet reconstruction unit.
前記パケット再構成手段は、前記先頭画面に対応する動画像符号化データが前記分割編集処理前において前記時間的に前の画面からの予測を用いるモードで符号化されている場合においては、前記分割編集処理後のデータパケットのうちの前記先頭画面に対応する動画像符号化データを前記分割画面再符号化手段の出力する動画像符号化データを用いて生成する、請求項2記載の画像編集装置。  In the case where the moving image encoded data corresponding to the head screen is encoded in the mode using the prediction from the temporally previous screen before the divided editing process, the packet reconstruction unit 3. The image editing apparatus according to claim 2, wherein moving image encoded data corresponding to the first screen in the data packet after the editing process is generated using moving image encoded data output from the divided screen re-encoding means. . 前記パケット再構成手段は、前記先頭画面に対応する動画像符号化データが、前記分割編集処理前において前記時間的に前の画面からの予測を用いないモードで符号化されている場合においては、前記分割編集処理後のデータパケットのうちの前記先頭画面に対応する動画像符号化データを前記復号処理手段で復号される前の動画像符号化データをそのまま用いて生成する、請求項2記載の画像編集装置。  The packet reconstructing means, when the moving image encoded data corresponding to the head screen is encoded in a mode that does not use prediction from the temporally previous screen before the divided editing processing, The video encoded data corresponding to the head screen in the data packet after the division editing process is generated using the video encoded data before being decoded by the decoding processing unit as it is. Image editing device. 前記分割編集制御手段は、前記分割編集処理前において先頭画面に対応する動画像符号化データを含まないデータパケットに対しては内容の書換を指示しない、請求項1記載の画像編集装置。  The image editing apparatus according to claim 1, wherein the division editing control unit does not instruct rewriting of a data packet that does not include moving image encoded data corresponding to a head screen before the division editing processing. 前記タイムスタンプ値更新手段は、前記再符号化された動画像符号化データのデータ量と、前記動画像符号化データの伝送ビットレートとに基いて、前記タイムスタンプ値を更新する、請求項1記載の画像編集装置。  The time stamp value updating means updates the time stamp value based on a data amount of the re-encoded moving image encoded data and a transmission bit rate of the moving image encoded data. The image editing apparatus described. 前記タイムスタンプ値更新手段は、前記再符号化された動画像符号化データのデータ量から、前記再符号化された動画像符号化データの復号後におけるデコーダのバッファ量が分割処理編集前での前記先頭画面の復号後におけるデコーダのバッファ量と等しくなるような、前記先頭画面の再生時におけるデコーダのバッファ量を推定し、推定された前記バッファ量および前記動画像符号化データの伝送ビットレートに基いて、前記デコーダにおいてオーバーフローもしくはアンダーフローが生じないように前記タイムスタンプ値を設定する、請求項6記載の画像編集装置。The time stamp value updating means, the re-encoded video data amount or these encoded data, the buffer amount of the decoder after decoding the re-encoded moving picture encoded data was that in the previous division process edit Estimating the buffer amount of the decoder at the time of playback of the head screen such that it becomes equal to the buffer amount of the decoder after decoding of the head screen, and the estimated buffer amount and the transmission bit rate of the moving image encoded data The image editing apparatus according to claim 6, wherein the time stamp value is set so that overflow or underflow does not occur in the decoder. 前記タイムスタンプ値更新手段は、前記先頭画面に対応する動画像符号化データの前記再符号化に伴うデータ量増加分に対応する時間分だけ、前記先頭画面に対応する動画像符号化データを先行して送出するように前記タイムスタンプ値を設定する、請求項6記載の画像編集装置。  The time stamp value updating means precedes the moving image encoded data corresponding to the first screen by the time corresponding to the increase in the amount of data accompanying the re-encoding of the moving image encoded data corresponding to the first screen. The image editing apparatus according to claim 6, wherein the time stamp value is set so as to be transmitted. 前記パケット再構成手段は、前記先頭画面に対応する動画像符号化データを含まないデータパケットに対しては、前記分割編集処理前のタイムスタンプ値をそのまま用いて前記分割編集処理後のデータパケットを生成する、請求項6記載の画像編集装置。  For the data packet not including the moving image encoded data corresponding to the head screen, the packet reconstruction unit uses the time stamp value before the divided editing process as it is, and the data packet after the divided editing process is The image editing apparatus according to claim 6, which is generated. 動画像符号化データを格納する複数のデータパケットから構成される動画像ファイルを分割編集するための画像編集装置であって、
前記動画像符号化データを復号して動画像データを出力するための復号処理手段と、
前記データパケットの分割編集処理を制御する分割編集制御手段と、
前記分割編集後に先頭となる動画像の画面である先頭画面に対応する前記動画像データを前記復号処理手段から受けて、時間的に前の画面からの予測を用いないモードで再符号化して前記動画像符号化データを出力する分割画面再符号化手段と、
前記動画像符号化データと、再生時におけるデータパケットの送出時刻を示すタイムスタンプ値とを結合して、前記分割編集処理後のデータパケットを生成するパケット再構成手段とを備え、
前記タイムスタンプ値は、前記分割編集処理後のデータパケットのうちの、前記再符号化された動画像符号化データが格納されるデータパケットでは前記再符号化された動画像符号化データのデータ量に応じて更新される一方で、前記再符号化に関連しない動画像符号化データから構成されるデータパケットについては非更新とされ、
前記画像編集装置は、
複数のセクタに分割された記憶媒体を有するファイル記憶部と、
前記複数のセクタに格納されたデータから前記動画像ファイルを構成するための管理情報を制御するファイル管理部と、
前記ファイル記憶部にデータを書込むためのファイル書込部とをさらに備え、
前記ファイル書込部は、前記分割編集処理に伴って必要となる、前記動画像符号化データに関するデータ書換を前記セクタ単位ごとに実行し、
前記データ書換が不要である前記セクタの格納データは、前記分割編集処理の前と同じ内容に維持される、画像編集装置。
An image editing apparatus for dividing and editing a moving image file composed of a plurality of data packets for storing moving image encoded data,
Decoding processing means for decoding the moving image encoded data and outputting moving image data;
Split edit control means for controlling split edit processing of the data packet;
Receiving the moving image data corresponding to the first screen, which is the first moving image screen after the division editing, from the decoding processing means, re-encoding in a mode that does not use prediction from the previous screen in terms of time Split screen re-encoding means for outputting moving image encoded data;
A packet reconstructing unit that combines the moving image encoded data and a time stamp value indicating a transmission time of the data packet at the time of reproduction, and generates a data packet after the division editing process ;
The time stamp value is a data amount of the re-encoded video encoded data in the data packet storing the re-encoded video encoded data among the data packets after the division editing process. Is updated according to the above, while the data packet composed of moving image encoded data not related to the re-encoding is not updated,
The image editing device includes:
A file storage unit having a storage medium divided into a plurality of sectors;
A file management unit that controls management information for configuring the moving image file from data stored in the plurality of sectors;
Anda file writing unit for writing data to the file storage unit,
The file writing unit executes data rewriting on the moving image encoded data required for the division editing processing for each sector unit,
The image editing apparatus, wherein the data stored in the sector that does not require data rewriting is maintained in the same content as before the division editing process.
前記ファイル管理部は、前記分割編集処理に伴って前記動画像ファイルについての前記セクタの構成が変化した場合においては、前記管理情報を更新する、請求項10記載の画像編集装置。The image editing apparatus according to claim 10 , wherein the file management unit updates the management information when a configuration of the sector for the moving image file is changed with the division editing process.
JP2000042697A 2000-02-21 2000-02-21 Image editing device Expired - Fee Related JP3976979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000042697A JP3976979B2 (en) 2000-02-21 2000-02-21 Image editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000042697A JP3976979B2 (en) 2000-02-21 2000-02-21 Image editing device

Publications (2)

Publication Number Publication Date
JP2001238169A JP2001238169A (en) 2001-08-31
JP3976979B2 true JP3976979B2 (en) 2007-09-19

Family

ID=18565737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000042697A Expired - Fee Related JP3976979B2 (en) 2000-02-21 2000-02-21 Image editing device

Country Status (1)

Country Link
JP (1) JP3976979B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3578069B2 (en) 2000-09-13 2004-10-20 日本電気株式会社 Long-term image / sound compression apparatus and method
JP3855862B2 (en) * 2002-04-01 2006-12-13 ソニー株式会社 Editing method and apparatus
EP1689178A4 (en) * 2003-11-04 2009-04-15 Sharp Kk Resume reproduction system
JP2005165870A (en) * 2003-12-04 2005-06-23 Tsubasa System Co Ltd E-mail client program
JP2005346800A (en) 2004-06-02 2005-12-15 Funai Electric Co Ltd Recording and reproducing controller
WO2007043256A1 (en) 2005-10-12 2007-04-19 Nec Corporation Moving image conversion method, moving image conversion device, moving image conversion system, server device, and program
JP2008010110A (en) * 2006-06-30 2008-01-17 Sony Corp File dividing apparatus, file dividing method, and file dividing program
JP4779921B2 (en) * 2006-10-05 2011-09-28 ソニー株式会社 Data processing apparatus, data processing method, and computer program
JP4539755B2 (en) * 2008-04-11 2010-09-08 ソニー株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP2001238169A (en) 2001-08-31

Similar Documents

Publication Publication Date Title
KR100429745B1 (en) Time-varying image editing method, time-varying image editing device, and time-varying image reproducing device
KR100821575B1 (en) Method and apparatus for editing digital video recordings, and recordings made by such methods
US6807363B1 (en) Digital moving picture data player system having a time-based access list
JP4833367B2 (en) Recording apparatus, recording method, reproducing apparatus, and reproducing method
JP4684319B2 (en) Data recording method, data editing method, data decoding method, apparatus therefor, and recording medium
JP3976979B2 (en) Image editing device
JP2010022003A (en) Moving image file reproduction device, moving image file reproduction method, and program
JP2008167061A (en) Encoding device and encoding method
JPH10243342A (en) Method and device for editing video file, method for cutting off segment from video file, method and device for copying segment from video file, method and device for sticking video file segment, and computer readable medium
JP4251219B2 (en) Editing apparatus and editing method
JP2008028793A (en) Stream edit method and stream editor
JP2005117660A (en) Information storage medium with av data containing non-multiplexed streams recorded thereon, and method and apparatus for reproducing the same
TW579652B (en) Changing a playback speed for video presentation recorded in a field structure format
JP4040343B2 (en) Moving image processing device
US9025931B2 (en) Recording apparatus, recording method, and program
JP3876943B2 (en) Stream editing apparatus and method, and stream decoding apparatus and method
JP2004120099A (en) Information processing apparatus and method, program, and recording medium
JP4289403B2 (en) Editing apparatus and editing method
Kelly et al. Virtual editing of MPEG-2 streams
JP2008262609A (en) Information processor and information processing method, program storing medium, and program
JP2004228679A (en) Image processor, image processing method, and program
JP2008066852A (en) Information processor and information processing method, recording medium, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050119

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050124

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees