JP3755206B2 - Editing device and editing method - Google Patents

Editing device and editing method Download PDF

Info

Publication number
JP3755206B2
JP3755206B2 JP26626896A JP26626896A JP3755206B2 JP 3755206 B2 JP3755206 B2 JP 3755206B2 JP 26626896 A JP26626896 A JP 26626896A JP 26626896 A JP26626896 A JP 26626896A JP 3755206 B2 JP3755206 B2 JP 3755206B2
Authority
JP
Japan
Prior art keywords
picture
video data
decoding
point
image type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26626896A
Other languages
Japanese (ja)
Other versions
JPH10112840A (en
Inventor
玲 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26626896A priority Critical patent/JP3755206B2/en
Publication of JPH10112840A publication Critical patent/JPH10112840A/en
Application granted granted Critical
Publication of JP3755206B2 publication Critical patent/JP3755206B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は映像素材の編集装置と編集方法に関する。詳しくはMPEGのようなフレーム間予測によって圧縮されたディジタル映像信号などの映像素材を複数使用して編集を行うとき、編集区間での映像素材の伸長および再圧縮処理区間をできるだけ短くして、編集に要する時間の短縮と、編集に伴う画質劣化を防止できるようにした編集装置と編集方法に関する。
【0002】
【従来の技術】
映像素材を編集する編集装置にあっては、複数例えば2つの映像素材を適当なところで継いだり、あるいは一方の映像素材の一部区間を切り取ったりする編集がしばしば行われる。
【0003】
【発明が解決しようとする課題】
最近の映像素材はデータが圧縮されていることが多い。例えばMPEGのようなフレーム間予測を使用した圧縮映像信号が使用される機会が増えている。そのため、圧縮された映像信号を映像素材として編集装置に提供される場合が多くなってきた。
【0004】
このようにフレーム間予測などによって圧縮された映像信号の映像素材同士を編集する場合には、編集対象の映像素材のうちカットイン側の映像素材に対してはカットイン以降の映像素材が元の圧縮されていない状態に一旦伸長され、その状態で編集作業を行い、その後再度圧縮して編集後の映像素材を形成するようにしている。
【0005】
例えば図5a,bに示すように2つの映像素材A,Bを用意し、映像素材Aに関しては点p(カットアウト点)までを使用し、他方の映像素材Bにあっては点q(カットイン点)から使用して、同図cに示す映像素材Cとなるような編集を想定する。
【0006】
この場合には、同図dのように一方の映像素材Aにあっては少なくとも編集点pを含む所定のエリアに対してデータの伸長処理が施される。また他方の映像素材Bにあっては同図eのように編集点qを含む直前のエリアから後の全てのデータに対して伸長処理が施される。そして、編集点p,qの前後ではこれら伸長された映像素材を用いて継ぎ処理(素材AとBを用いた再圧縮)が行われ、それ以降は伸長された映像素材Bを再圧縮することによって同図cのような映像素材Cを得るようにしている。
【0007】
これは次のような理由による。
MPEGのようなフレーム間予測によって圧縮された映像信号には周知のようにIピクチャー、 Pピクチャー、 Bピクチャーの3種類の画像タイプが存在する。
Iピクチャー(Intra Picture:フレーム内符号化画像)はそのフレームの情報だけから符号化された画面で、フレーム間予測を使わずに生成される。
Pピクチャー(Predictive Picture:フレーム間順方向予測符号化画像)はそのフレームの情報とそのフレームより時間的に1つ前のフレームの情報により生成される。
Bピクチャー(Bidirectionally predictive Picture:双方向予測符号画像)はそのフレームの情報とそのフレームより時間的に前後のフレームの情報に基づいて生成される。
【0008】
PピクチャーやBピクチャーはそれらの信号の圧縮生成に際して時間的に1つ前のフレームの情報あるいは時間的に前後のフレームの情報が使用されるが、ピクチャーの配列、つまり画像タイプおよび画像タイプの画像シーケンス(GOP)を無視して単純に切り貼りした場合、この継ぎ目においては、他のフレーム画像を参照して伸長するPピクチャーやBピクチャーの伸長がうまくできない場合があり、画質が劣化してしまう。
【0009】
そのため、従来の方法では、編集対象の素材のうち編集後に必要な部分のすべての素材を元の圧縮されていない状態に一旦伸長して編集作業を行い、そして再度上述した画像タイプとなるような圧縮作業を行っている。
【0010】
このように編集に必要な部分のすべての素材は、映像素材Bを元の圧縮されていない状態に一旦伸長して編集作業を行い、再度圧縮作業を行う必要があるため、編集作業には非常に多くの時間を必要とする。
【0011】
また、編集点以降のピクチャー再構成においても、映像素材Bを伸長し、そして再圧縮するものであるから、再圧縮された画像データには量子化誤差が発生して映像全体の画質が劣化してしまうことになる。
【0012】
本発明は以上の点を考慮してなされたもので、フレーム間予測による圧縮された映像信号を短時間でしかも画質の劣化を最小限に抑えながら編集することができる編集装置と編集方法を提案しようとするものである。
【0013】
【課題を解決するための手段】
上述した課題を解決するために本発明の編集装置においては、第1の映像素材の圧縮映像データの画像タイプを識別する第1の画像タイプ識別手段と、第2の映像素材の圧縮映像データの画像タイプを識別する第2の画像タイプ識別手段と、上記第1の映像素材に設定されたカットアウト点から時間的に前方探索して上記第1の画像タイプ識別手段で識別された最初のIピクチャーを復号開始点とし、上記カットアウト点から時間的に後方探索して上記第1の画像タイプ識別手段で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第1の映像素材の圧縮映像データを復号する第1の復号手段と、上記第2の映像素材に設定されたカットイン点から時間的に前方探索して上記第2の画像タイプ識別手段で識別された最初のIピクチャーを復号開始点とし、上記カットイン点から時間的に後方探索して上記第2の画像タイプ識別手段で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第2の映像素材の圧縮映像データを復号する第2の復号手段と、上記カットアウト点及び上記カットイン点を接続点として、上記第1の復号手段により復号された第1の映像データと上記第2の復号手段により復号された第2の映像データとを接続する接続手段と、上記接続手段により接続された映像データを再符号化して再圧縮映像データを生成する再符号化手段とを有するものである。また、本発明の編集方法は、第1の映像素材の圧縮映像データの画像タイプを識別する第1の画像タイプ識別工程と、第2の映像素材の圧縮映像データの画像タイプを識別する第2の画像タイプ識別工程と、上記第1の映像素材に設定されたカットアウト点から時間的に前方探索して上記第1の画像タイプ識別工程で識別された最初のIピクチャーを復号開始点とし、上記カットアウト点から時間的に後方探索して上記第1の画像タイプ識別工程で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第1の映像素材の圧縮映像データを復号する第1の復号工程と、上記第2の映像素材に設定されたカットイン点から時間的に前方探索して上記第2の画像タイプ識別工程で識別された最初のIピクチャーを復号開始点とし、上記カットイン点から時間的に後方探索して上記第2の画像タイプ識別工程で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第2の映像素材の圧縮映像データを復号する第2の復号工程と、上記カットアウト点及び上記カットイン点を接続点として、上記第1の復号工程により復号された第1の映像データと上記第2の復号工程により復号された第2の映像データとを接続する接続工程と、上記接続工程により接続された映像データを再符号化して再圧縮映像データを生成する再符号化工程とを有するものである。
【0014】
この発明では、カットアウト側となる映像素材Aにあっては、伸長可能な最小画像タイプの圧縮データに対してIピクチャー、PピクチャーおよびBピクチャーを使用して伸長処理(ベースバンド処理)が行われる。カットイン側の映像素材Bに対しては、カットイン点を含む少なくとも1画像シーケンス(GOP)内の圧縮データに対して同様な伸長処理が行われる。カットイン側ではカットインを含む1GOPの画像データをそのまま編集後の画像データとして再利用する必要があるからである。
【0015】
そして、伸長データA′とB′を用いて再圧縮される。図2の例ではカットアウト点Aoutの2フレーム前より再圧縮データが使用され、カットイン点Binになると伸長データA′とB′を用いて画像タイプにしたがって再圧縮処理される。この編集区間での画像タイプの配列は例えば映像素材Aのピクチャー配列に従う。そして、映像素材BのIピクチャーが位置するフレームからは映像素材Bの圧縮データそのものが使用される。
【0016】
これにより、伸長、圧縮処理されるフレーム数が最小となるため、編集処理時間が短縮される。また必要最小限の領域だけ画像データの伸長処理、再圧縮処理を行っているので、編集点から離れた素材については圧縮されたままの映像素材A,Bがそのまま使用される。したがって伸長、圧縮処理に伴う画質の劣化を最小限にとどめることができる。
【0017】
【発明の実施の形態】
続いて、この発明に係る編集装置の一実施形態について図面を参照しながら詳細に説明する。
【0018】
図1に示す編集装置10では2つの映像素材(編集素材)A,Bを対象とする。同図において、データ再生装置11には、映像素材Aが予め例えばMPEGなどの手法を用いたフレーム間予測によって圧縮された状態で記録されている。同じくデータ再生装置14にも、映像素材Bが予めMPEGなどの手法を用いたフレーム間予測によって圧縮された状態で記録されている。
【0019】
再生された映像素材A,Bはそれぞれデータ伸長器13,16と画像タイプ判別器12,15とに送られ、画像タイプ識別器12,15では再生された映像素材A,Bのうち編集点を含む画像シーケンス(1GOP)におけるピクチャー構成(I/P/Bピクチャー)が自動的に判別される。ピクチャーの種類である画像タイプを判別するようにしたのは、圧縮された画像データから元の映像信号に正しく戻すには画像タイプの異なる別のピクチャーを利用する場合があるからである。
【0020】
判別された画像タイプの情報はCPU20に送られ、編集時の再圧縮情報として利用される。データ伸長器13,16では編集時に必要とされる最小限の画像シーケンス内におけるピクチャーが元の非圧縮映像信号の状態となるように、圧縮データの伸長処理が行われ、これら伸長画像データと、圧縮されたままの映像素材A,Bがスイッチャー17に送られる。
【0021】
スイッチャー17ではCPU20からの制御信号(図示はしない)に基づいてデータ圧縮器18を介してデータ記録装置19に送るべきピクチャー(伸長データ)と、直接データ記録装置19に送るべきピクチャー(圧縮データ)の選択が行われる。
【0022】
そのため、CPU20では、映像素材Aの編集点(カットアウト点)Aoutを含む圧縮シーケンス内の圧縮データに関する画像タイプの構成と、映像素材Bの編集点(カットイン点)Binを含む圧縮シーケンス内の圧縮データに関する画像タイプの構成の解析がそれぞれ行われる。そして、伸長器13,16での伸長開始点や伸長終了点を始めとしてスイッチャー17での画像データの切替点、データ圧縮器18での圧縮開始点および圧縮終了点などの編集制御情報が生成されて、伸長器13,16、スイッチャー17、データ圧縮器18などに送られて、対応する編集処理動作が実行される。以下にその内容を説明する。
【0023】
先ず、データ再生装置11ではカットアウト点Aoutを含む所定フレーム数の圧縮データが再生され、再生された圧縮データが伸長器13に転送され、編集処理に必要な所定フレーム数分の伸長データA′がスイッチャー17に送られる。同様に映像素材Aと映像素材Bとの継ぎがうまくいくようにタイミングを見計らって他方のデータ再生装置14からもカットイン点Binを含む所定フレーム数分の圧縮データが再生されて、これが伸長器16に転送され、そして編集処理に必要な伸長画像データがスイッチャー17に転送される。
【0024】
スイッチャー17で選択された伸長データA′,B′がデータ圧縮器18に転送されて一時的に保存される。データ圧縮器18では CPU20で決定した再圧縮の開始点から再圧縮の終了点までの間、伸長データA′およびA′とB′を用いて画像タイプにしたがった再圧縮処理が行われ、再圧縮処理された画像データは最終的にはデータ記録装置19で記録される。
【0025】
再圧縮するときのピクチャーの配列はこの例では映像素材Aのピクチャー配列にしたがう。したがって再圧縮処理された圧縮データを使用するフレームまでは映像素材Aのピクチャー配列となり、それ以降は映像素材Bのピクチャー配列と同じになる。この結果、編集区間では1GOPが完全なるフレーム数では構成されないことが起こり得る。
【0026】
最後に、編集領域以外の圧縮データに関しては編集処理が行われずにそのままスイッチャー17をスルーしてデータ記録装置19に転送されて記録される。
【0027】
続いて、具体的な編集処理について図2以下を参照して説明する。図3は編集区間での詳細を示し、図4は編集処理を実現するフローチャートの一例である。映像素材A,Bとしては、図2aのように1GOPが15フレームで構成され、このGOPのピクチャー配列、つまり画像タイプの配列が「BBIBBPBBPBBPBBP」のように、規則性をもったフレーム間予測による圧縮を行った圧縮データであるものとする。
【0028】
図2bはデータ再生装置内のフレーム間予測による圧縮された映像素材Aであって、「BBIBBPBBPBBPBBP」の規則性をもつこの15フレームを1つのまとまり(1GOP)とし、その各GOPをGA0〜GA4とする。さらに各フレームに対してA000,A001,〜,A014,A100〜A414の番号をつける。
【0029】
同様に同図cはデータ再生装置14から再生されたフレーム間予測による圧縮された映像素材Bであって、同じく規則性をもつ15フレームを1つのまとまりとし、それぞれのGOPをGB0〜GB4とする。さらに各フレームに対してB000,B001,〜,B014,B100〜B414の番号をつける。
【0030】
ここで、圧縮され、符号化されたデータの配列は、MPEGの場合には同図Aとは異なり、「IBBPBBPBBPBBPBB」のようなピクチャー配列である。しかし以下では説明の便宜上、同図aのようにピクチャーが配列されて記録されているものとする。
【0031】
映像素材Aに対してはグループGA3の適当なフレームがカットアウト点Aoutとして、他方の映像素材BではグループGB2がカットイン点Binとして選ばれている。したがってこれら映像素材A,Bのフレーム構成(ピクチャー構成)は同図dおよびfとなり、編集後のピクチャー構成は同図eのようになる。
【0032】
図3は編集区間での詳細を示すもので、編集に使用するフレーム数については後述するとして、映像素材A,Bをそれぞれ伸長したデータ(ベースバンド成分)がA′であり、B′である。
【0033】
さて、図4を参照してこの発明による編集処理の一例を説明すると、CPU20からの指示にしたがい、データ再生装置11から映像素材Aのカットアウト点Aoutより少し前のフレームから圧縮データが順に画像タイプ識別部12に転送される。画像タイプ識別部12では、映像素材Aのカットアウト点Aoutを含むフレーム付近での圧縮データの画像タイプ(I,B,Pピクチャー)が識別され(ステップ31)、その情報がCPU20に送られる。これによって、 CPU20はカットアウト点Aout付近での画像タイプの構成が図3aのような構成(シーケンス)であることを判別できる。
【0034】
そして、カットアウト点Aoutから時間的に前方向に検索(前方検索)して最初のIピクチャーA302を伸長開始点と定める。そして今度は時間的に後方向に検索(後方検索)してその間に存在するBピクチャー(場合によってはPピクチャー)を伸長するために使用されるピクチャー(Iピクチャー若しくはPピクチャー)を探し、そのピクチャーを伸長終了点とする(ステップ32)。
【0035】
図3の例ではIピクチャーA302とこれに続く最初のPピクチャーA305を用いれば、その間に存在する2つのBピクチャーを正しく伸長できるので、この例ではA305のPピクチャーが伸長終了点となる。
【0036】
編集に使用するピクチャーが定まると、それらに対する伸長処理が行われる(ステップ33)。この伸長処理は周知のように、IピクチャーA302が伸長されて伸長IピクチャーA′302となされる(図3参照)。伸長されたIピクチャーA′302とPピクチャーA305から、伸長されたPピクチャーA′305が生成される。続いて、伸長されたIピクチャーA′302とPピクチャーA′305から、BピクチャーA303とA304が、これらの画像データ(A303,A304)を使用しながら伸長されてA′303(A′304は図示しない)となされる。
【0037】
これら伸長データA′のうちカットアウト点Aout までがデータ圧縮部18に供給されて一旦保存される(ステップ34)。ここで、カットアウト点Aout以降の伸長データを編集用の画像データとしては使用しないのは、このカットアウト点Aout以降は映像素材Bの情報に切り換える必要があるためである。
【0038】
同様の処理が映像素材Bに対しても行われる(ステップ35〜38)。データ再生装置14から映像素材Bのカットイン点Binより少し前のフレームから数えて少なくとも1GOP以上の圧縮データが順に画像タイプ識別部15に転送される。
【0039】
画像タイプ識別部15では、映像素材Bのカットイン点Binを含むフレーム付近での圧縮データの画像タイプ(I,B,Pピクチャー)が識別され(ステップ35)、その情報がCPU20に送られる。これによって、 CPU20はカットイン点Bin付近での画像タイプの構成が図3cのような構成(シーケンス)であることを判別できる。
【0040】
そして、カットイン点Binから前方検索して最初のIピクチャーB202を伸長開始点と定め、後方検索してその間に存在する複数のピクチャーをそれぞれ伸長するために使用されるピクチャー(Iピクチャー若しくはピクチャー)を探し、そのピクチャーを伸長終了点とする(ステップ36)。
【0041】
すなわち、カットイン点Bin以降は映像素材Bを継ぐために、映像素材Bのピクチャー配列で切れ目のよい最小ピクチャー区間を求める必要がある。図3cを参照すると、カットイン点Bin付近のピクチャーを伸長するためには、カットイン点Bin以降の最初のIピクチャーB302まで伸長する必要がある。
【0042】
図3cの例ではIピクチャーB302よりもさらに3フレームあとのピクチャーB305まで使用しなければならない(1GOP+3フレーム)。これは、図3bからも明らかなようにカットイン点BinからIピクチャーB302までは、映像素材Aのピクチャー配列に従うからである。このようなことから、図3cの例ではIピクチャーB202からPピクチャーB305まで伸長処理が施される(ステップ37)。
【0043】
伸長されたデータB′のうちカットイン点Binから必要なフレーム数だけ、この例ではBピクチャーB303までデータ圧縮部18に転送され、そして保存される(ステップ38)。
【0044】
データ圧縮部18ではこれら伸長データA′,B′に基づいて画像データの再圧縮処理が行われる(ステップ39)。編集区間のピクチャー配列が映像素材Aのピクチャー配列となるように設定されているときの再圧縮処理例を次に説明する。
(1)伸長されたIピクチャーA′302を利用して再圧縮される(A302′)。
(2)伸長されたBピクチャーB′209とIピクチャーA302′からPピクチャーB209′が算出される。
(3)IピクチャーA302′、PピクチャーB209′およびBピクチャーA′303を使用して新しいBピクチャーA303′が算出される。
(4)IピクチャーA302′、PピクチャーB209′およびBピクチャーB′208を使用して新しいBピクチャーB208′が算出される。以上の処理で編集点を含む4フレーム構成のピクチャー(I、B、B、Pピクチャー)が得られる。
(5)これ以降のピクチャーに関しても同様な処理が行われる。ただし、3フレーム後のPピクチャーB212′は直前のPピクチャーB209′に基づいて生成される。つまりIピクチャーの代わりにPピクチャーが使用される。その後のPピクチャーに関しても同じような処理が行われて再圧縮されたピクチャーが順次生成される。
(6)この再圧縮処理を順次行うと、IピクチャーB302の1つ前に位置するBピクチャーB301′は、2フレーム後のPピクチャーB303′などを使用して生成される。しかし、BピクチャーB301′以降は映像素材Bそのものが使用される関係でBピクチャーB′302とB′303は再圧縮データとしては使用されない。編集点Aout,Binが1GOP内のどのフレームにあろーとも上述した再圧縮処理は変わらない。ただし、フレーム位置によって伸長するそれぞれのフレーム数は若干変動する。
【0045】
再圧縮された画像データ(A302′〜B301′までの11フレーム)はデータ記録部19で編集後の圧縮データとして記録され、その前後は元の映像素材A,Bがそのまま記録される。この編集処理によって映像素材AとBが継ぎ合わせられた新しい映像素材Cを得ることができる。
【0046】
このように映像素材Aに関しては、図3の例では4フレーム(A302〜A305)だけ伸長処理が施される。映像素材Bに関しては、再圧縮するフレームとして数フレーム分が使用される関係で、1GOP+3フレーム(B202〜B305)だけが伸長処理されて、映像素材AとBを継ぎ合わせることができる。
【0047】
特にカットイン側の映像素材Bはカットイン点Binから後方検索して得られる最初のIピクチャーからは、元の圧縮データそのものが編集後の画像データとして使用されるようになるため、データ伸長区間を必要最小限のフレーム区間に留めることができる。映像素材Bに関しては場合によっては1GOP内だけの伸長処理で済む。
【0048】
その結果、編集時間の大幅な短縮と、伸長、再圧縮処理に伴う画質の劣化を大幅に改善できる。
【0049】
編集区間のピクチャー配列が映像素材Aではなく、映像素材Bのピクチャー配列となるようにその画像シーケンスが設定されているときはカットイン点以後は映像素材Bのピクチャー配列となるように再圧縮処理が行われる。
【0050】
図1に示した編集装置10では、映像素材Aが記録されているデータ再生装置11、映像素材Bが記録されているデータ再生装置14、編集後のデータが記録されているデータ記録装置19の3つのデータ記録再生装置で構成されているが、ハードディスクドライブなどのランダムアクセスが可能な記録再生装置を用いれば、それらは1つに統合することができる。この場合には、単に論理的なデータのつながりを管理すればよく、編集点の処理を行うだけで短時間での編集作業が可能になる。
【0051】
【発明の効果】
以上説明したように、この発明では編集点付近の画像データのみその画像タイプを判別しながら伸長することによって最小の画像タイプのシーケンス内だけで編集作業を行い、それ以外の区間における画像データについては圧縮データのまま使用するようにしたものである。
【0052】
その結果、再圧縮処理区間が短くなるため編集処理時間が短縮される。また必要最小限の領域だけデータの伸長処理および再圧縮処理を行っているので、編集点から離れた素材に付いては圧縮されたままの映像素材がそのまま使用される。これによって伸長、圧縮処理に伴う画質の劣化を最小限にとどめることができる。
【0053】
したがって、本発明によれば、フレーム間予測による圧縮された映像信号を短時間で、しかも画質の劣化を最小限に抑えながら編集処理を実現できる特徴を有する。
【図面の簡単な説明】
【図1】この発明に係る編集装置の一実施形態を示す要部の系統図である。
【図2】編集動作の説明図である。
【図3】編集動作の説明図である。
【図4】編集処理の一例を示すフローチャートである。
【図5】従来の編集処理の説明図である。
【符号の説明】
10・・・編集装置、11,14・・・データ再生装置、12,15・・・画像タイプ識別部、13,16・・・伸長器、17・・・スイッチャー、18・・・データ圧縮器、19・・・データ記録装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video material editing apparatus and editing method . Specifically, when editing using multiple video materials such as digital video signals compressed by inter-frame prediction such as MPEG, the video material decompression and recompression processing section in the editing section should be made as short as possible. The present invention relates to an editing apparatus and an editing method capable of shortening the time required for image processing and preventing image quality deterioration associated with editing.
[0002]
[Prior art]
In an editing apparatus that edits video material, editing is often performed in which a plurality of, for example, two video materials are connected at an appropriate place, or a part of one video material is cut out.
[0003]
[Problems to be solved by the invention]
In recent video materials, data is often compressed. For example, the opportunity to use a compressed video signal using inter-frame prediction such as MPEG is increasing. For this reason, compressed video signals are often provided to editing apparatuses as video material.
[0004]
In this way, when editing video materials of video signals compressed by inter-frame prediction etc., the video material after cut-in is the original video material for the cut-in side of the video material to be edited. The image is once decompressed into an uncompressed state, editing is performed in that state, and then compressed again to form an edited video material.
[0005]
For example, as shown in FIGS. 5A and 5B, two image materials A and B are prepared. For the image material A, up to a point p (cutout point) is used, and in the other image material B, a point q (cut) The editing is assumed to be the video material C shown in FIG.
[0006]
In this case, as shown in FIG. 6D, in one video material A, data expansion processing is performed on a predetermined area including at least the editing point p. In the other video material B, as shown in FIG. 5E, all the data after the area immediately before including the editing point q is expanded. Then, before and after the editing points p and q, the joint processing (recompression using the materials A and B) is performed using the decompressed video material, and after that, the decompressed video material B is recompressed. Thus, a video material C as shown in FIG.
[0007]
This is due to the following reason.
As is well known, there are three types of video signals such as I picture, P picture, and B picture in a video signal compressed by inter-frame prediction such as MPEG.
An I picture (Intra Picture: an intra-frame encoded image) is a screen encoded only from information on the frame, and is generated without using inter-frame prediction.
A P picture (Predictive Picture: an inter-frame forward direction predictive encoded image) is generated from information on the frame and information on a frame immediately preceding the frame.
A B picture (Bidirectionally predictive picture) is generated based on information on the frame and information on frames preceding and following the frame.
[0008]
The P picture and B picture use the information of the previous frame in time or the information of the previous and subsequent frames in the compression generation of these signals, but the picture arrangement, that is, the image type and the image type image When the sequence (GOP) is ignored and the image is simply cut and pasted, the P picture or B picture that is decompressed with reference to other frame images may not be successfully decompressed at this joint, and the image quality deteriorates.
[0009]
Therefore, in the conventional method, all the materials necessary for editing after editing are temporarily decompressed to the original uncompressed state, and the editing operation is performed again. We are doing compression work.
[0010]
In this way, all the materials necessary for editing need to be expanded once after the video material B is uncompressed, and then compressed again. Need a lot of time.
[0011]
Also, in the picture reconstruction after the editing point, the video material B is expanded and recompressed. Therefore, a quantization error occurs in the recompressed image data, and the image quality of the entire video is deteriorated. It will end up.
[0012]
The present invention has been made in consideration of the above points, and proposes an editing apparatus and an editing method capable of editing a video signal compressed by inter-frame prediction in a short time while minimizing deterioration in image quality. It is something to try.
[0013]
[Means for Solving the Problems]
In order to solve the above-described problems, in the editing apparatus of the present invention, the first image type identifying means for identifying the image type of the compressed video data of the first video material, and the compressed video data of the second video material. Second image type identifying means for identifying the image type, and the first I identified by the first image type identifying means by performing a forward search in time from the cutout point set in the first video material. The first video material with the picture as a decoding start point and the first I picture or P picture identified by the first image type identification means as a result of backward search from the cutout point in time. A first decoding means for decoding the compressed video data, and a forward search in time from the cut-in point set in the second video material, and the second image type identification means The first I picture is set as a decoding start point, the first I picture or P picture identified by the second image type identifying means by backward searching in time from the cut-in point is set as the decoding end point, and the second A second decoding means for decoding the compressed video data of the video material, and the first video data decoded by the first decoding means and the second video using the cut-out point and the cut-in point as connection points. Connecting means for connecting the second video data decoded by the decoding means, and re-encoding means for re-encoding the video data connected by the connecting means to generate re-compressed video data. is there. The editing method of the present invention also includes a first image type identifying step for identifying the image type of the compressed video data of the first video material, and a second for identifying the image type of the compressed video data of the second video material. The first I picture identified in the first image type identification step by temporally searching forward from the cut-out point set in the first video material, and the decoding start point, The compressed video data of the first video material is decoded with the first I picture or P picture identified in the first image type identification step as a decoding end point by backward searching from the cutout point in time. First decoding step and starting to decode the first I picture identified in the second image type identification step by temporally searching forward from the cut-in point set in the second video material And using the first I picture or P picture identified in the second image type identification step as a result of backward searching from the cut-in point in time, the compressed video data of the second video material is used as the decoding end point. A second decoding step for decoding, the first video data decoded by the first decoding step and the second decoding step decoded by the second decoding step, using the cut-out point and the cut-in point as connection points. And a re-encoding step of re-encoding the video data connected in the connection step to generate re-compressed video data.
[0014]
In the present invention, in the video material A on the cutout side, decompression processing (baseband processing) is performed on the compressed data of the smallest image type that can be decompressed using the I picture, P picture, and B picture. Is called. For video material B on the cut-in side, similar decompression processing is performed on the compressed data in at least one image sequence (GOP) including the cut-in point. This is because the 1 GOP image data including the cut-in side needs to be reused as the image data after editing on the cut-in side.
[0015]
Then, it is recompressed using the decompressed data A ′ and B ′. In the example of FIG. 2, the recompressed data is used from two frames before the cutout point Aout. When the cutin point Bin is reached, recompression processing is performed according to the image type using the decompressed data A ′ and B ′. The arrangement of image types in the editing section follows the picture arrangement of the video material A, for example. The compressed data itself of the video material B is used from the frame where the I picture of the video material B is located.
[0016]
This minimizes the number of frames to be decompressed and compressed, thereby shortening the editing processing time. In addition, since the image data is decompressed and recompressed only in the minimum necessary area, the compressed video materials A and B are used as they are for the material away from the editing point. Therefore, it is possible to minimize the deterioration of image quality due to the decompression and compression processing.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of an editing apparatus according to the present invention will be described in detail with reference to the drawings.
[0018]
The editing apparatus 10 shown in FIG. 1 targets two video materials (editing materials) A and B. In the figure, a video material A is recorded in the data reproducing apparatus 11 in a state compressed in advance by inter-frame prediction using a technique such as MPEG. Similarly, the video material B is recorded in the data reproducing apparatus 14 in a state compressed in advance by inter-frame prediction using a technique such as MPEG.
[0019]
The reproduced video materials A and B are sent to the data decompressors 13 and 16 and the image type discriminators 12 and 15, respectively. The image type discriminators 12 and 15 select the editing points of the reproduced video materials A and B. The picture configuration (I / P / B picture) in the included image sequence (1 GOP) is automatically determined. The reason why the image type that is the type of picture is determined is that another picture having a different image type may be used in order to correctly restore the compressed video data to the original video signal.
[0020]
The determined image type information is sent to the CPU 20 and used as recompression information at the time of editing. The data decompressors 13 and 16 decompress the compressed data so that the pictures in the minimum image sequence required for editing are in the original uncompressed video signal state. The compressed video materials A and B are sent to the switcher 17.
[0021]
In the switcher 17, a picture (expanded data) to be sent to the data recording device 19 via the data compressor 18 and a picture (compressed data) to be sent directly to the data recording device 19 based on a control signal (not shown) from the CPU 20. Is selected.
[0022]
Therefore, in the CPU 20, the configuration of the image type relating to the compressed data in the compression sequence including the editing point (cutout point) Aout of the video material A and the compression sequence including the editing point (cut-in point) Bin of the video material B are included. Each analysis of the composition of the image type with respect to the compressed data is performed. Then, editing control information such as an image data switching point at the switcher 17, a compression start point and a compression end point at the data compressor 18, starting from the decompression start point and decompression end point at the decompressors 13 and 16, is generated. Then, the data is sent to the decompressors 13 and 16, the switcher 17, the data compressor 18, and the like, and the corresponding editing processing operation is executed. The contents will be described below.
[0023]
First, the data reproducing apparatus 11 reproduces a predetermined number of frames of compressed data including the cut-out point Aout, and the reproduced compressed data is transferred to the decompressor 13 and decompressed data A ′ corresponding to a predetermined number of frames necessary for editing processing. Is sent to the switcher 17. Similarly, at a timing so that the connection between the video material A and the video material B is successful, compressed data for a predetermined number of frames including the cut-in point Bin is reproduced from the other data reproduction device 14 and this is expanded. 16 and the decompressed image data necessary for the editing process is transferred to the switcher 17.
[0024]
The decompressed data A ′ and B ′ selected by the switcher 17 are transferred to the data compressor 18 and temporarily stored. The data compressor 18 performs recompression processing according to the image type using the decompressed data A ′ and A ′ and B ′ from the recompression start point determined by the CPU 20 to the recompression end point. The compressed image data is finally recorded by the data recording device 19.
[0025]
In this example, the picture arrangement for recompression follows the picture arrangement for video material A. Accordingly, the picture arrangement of the video material A is made up to the frame using the recompressed compressed data, and thereafter the picture arrangement of the video material B is the same. As a result, it may happen that 1 GOP is not composed of a complete number of frames in the editing section.
[0026]
Finally, the compressed data outside the editing area is not subjected to the editing process and is directly passed through the switcher 17 and transferred to the data recording device 19 for recording.
[0027]
Next, specific editing processing will be described with reference to FIG. FIG. 3 shows details in the editing section, and FIG. 4 is an example of a flowchart for realizing editing processing. As shown in FIG. 2a, video materials A and B are composed of 15 frames per GOP, and the GOP picture array, that is, the image type array is “BBIBBPBBPBBPBBP”. It is assumed that the compressed data has been subjected to.
[0028]
FIG. 2b shows a compressed video material A by inter-frame prediction in the data reproducing apparatus. The 15 frames having the regularity of “BBIBBPBBPBBPBBP” are defined as one unit (1 GOP), and each GOP is represented by GA0 to GA4. To do. Further, numbers A000, A001,..., A014, A100 to A414 are assigned to each frame.
[0029]
Similarly, FIG. 5C shows a compressed video material B reproduced from the data reproducing apparatus 14 by inter-frame prediction, and 15 frames having the same regularity are grouped into one, and each GOP is GB0 to GB4. . Further, numbers B000, B001,..., B014, B100 to B414 are assigned to each frame.
[0030]
Here, the arrangement of compressed and encoded data is a picture arrangement such as “IBBPBBPBBPBBPBB” unlike MPEG in the case of MPEG. However, hereinafter, for convenience of explanation, it is assumed that pictures are arranged and recorded as shown in FIG.
[0031]
For the video material A, an appropriate frame of the group GA3 is selected as the cut-out point Aout, and in the other video material B, the group GB2 is selected as the cut-in point Bin. Accordingly, the frame configurations (picture configurations) of these video materials A and B are d and f in the figure, and the edited picture configuration is as in e in the figure.
[0032]
FIG. 3 shows details in the editing section. As will be described later, the number of frames used for editing will be described later. Data (baseband components) obtained by decompressing the video materials A and B are A ′ and B ′. .
[0033]
Now, an example of the editing process according to the present invention will be described with reference to FIG. 4. In accordance with an instruction from the CPU 20, compressed data is sequentially displayed from the data reproducing apparatus 11 from a frame a little before the cutout point Aout of the video material A. It is transferred to the type identification unit 12. The image type identification unit 12 identifies the image type (I, B, P picture) of the compressed data near the frame including the cut-out point Aout of the video material A (step 31), and sends the information to the CPU 20. Thereby, the CPU 20 can determine that the configuration of the image type in the vicinity of the cutout point Aout is the configuration (sequence) as shown in FIG.
[0034]
Then, the first I picture A302 is determined as the expansion start point by searching forward from the cutout point Aout (forward search). Then, this time, a picture (I picture or P picture) used to decompress a B picture (possibly a P picture in some cases) existing in the meantime is searched backwards (backward search). Is the extension end point (step 32).
[0035]
In the example of FIG. 3, if the I picture A302 and the first P picture A305 following this are used, the two B pictures existing between them can be correctly decompressed. In this example, the P picture of A305 is the decompression end point.
[0036]
When pictures to be used for editing are determined, decompression processing is performed on them (step 33). As is well known, in this extension process, the I picture A302 is extended into an extended I picture A′302 (see FIG. 3). An expanded P picture A ′ 305 is generated from the expanded I picture A ′ 302 and P picture A 305. Subsequently, from the expanded I picture A′302 and P picture A′305, B pictures A303 and A304 are expanded using these image data (A303, A304) to obtain A′303 (A′304 is (Not shown).
[0037]
Of the decompressed data A ′, the data up to the cut-out point Aout is supplied to the data compression unit 18 and temporarily stored (step 34). Here, the reason why the decompressed data after the cut-out point Aout is not used as the image data for editing is that it is necessary to switch to the information of the video material B after the cut-out point Aout.
[0038]
Similar processing is performed on the video material B (steps 35 to 38). Compressed data of at least 1 GOP counted from the data playback device 14 from the frame slightly before the cut-in point Bin of the video material B is sequentially transferred to the image type identification unit 15.
[0039]
In the image type identification unit 15, the image type (I, B, P picture) of the compressed data near the frame including the cut-in point Bin of the video material B is identified (step 35), and the information is sent to the CPU 20. Thereby, the CPU 20 can determine that the configuration of the image type in the vicinity of the cut-in point Bin is a configuration (sequence) as shown in FIG.
[0040]
Then, a forward search is performed from the cut-in point Bin and the first I picture B202 is determined as an expansion start point, and a picture (I picture or P picture) used to search backward and expand a plurality of pictures existing therebetween. ) And the picture is set as the end point of expansion (step 36).
[0041]
That is, in order to succeed the video material B after the cut-in point Bin, it is necessary to obtain a minimum picture section having a good cut in the picture arrangement of the video material B. Referring to FIG. 3c, in order to extend a picture near the cut-in point Bin, it is necessary to extend to the first I picture B302 after the cut-in point Bin.
[0042]
In the example of FIG. 3c, it is necessary to use picture B305, which is three frames after I picture B302 (1 GOP + 3 frames). This is because the cut-in point Bin to the I picture B302 follow the picture arrangement of the video material A, as is apparent from FIG. For this reason, in the example of FIG. 3c, decompression processing is performed from I picture B 202 to P picture B 305 (step 37).
[0043]
Of the decompressed data B ′, the necessary number of frames from the cut-in point Bin is transferred to the data compression unit 18 up to B picture B303 in this example and stored (step 38).
[0044]
The data compression unit 18 re-compresses the image data based on the decompressed data A ′ and B ′ (step 39). An example of recompression processing when the picture arrangement of the editing section is set to be the picture arrangement of the video material A will be described next.
(1) Recompression is performed using the expanded I picture A′302 (A302 ′).
(2) P picture B209 'is calculated from the expanded B picture B'209 and I picture A302'.
(3) A new B picture A303 ′ is calculated using the I picture A302 ′, the P picture B209 ′, and the B picture A′303.
(4) A new B picture B 208 ′ is calculated using the I picture A 302 ′, P picture B 209 ′, and B picture B ′ 208. With the above processing, a 4-frame picture (I, B, B, P picture) including edit points is obtained.
(5) Similar processing is performed for subsequent pictures. However, the P picture B 212 ′ after three frames is generated based on the immediately preceding P picture B 209 ′. That is, P picture is used instead of I picture. Similar processing is performed on the subsequent P pictures, and recompressed pictures are sequentially generated.
(6) When this recompression process is sequentially performed, a B picture B301 ′ positioned immediately before the I picture B302 is generated using a P picture B303 ′ after two frames, and the like. However, since the picture material B itself is used after the B picture B301 ′, the B pictures B′302 and B′303 are not used as recompressed data. The recompression process described above does not change regardless of the frame where the edit points Aout and Bin are in one GOP. However, the number of each extended frame varies slightly depending on the frame position.
[0045]
The recompressed image data (11 frames from A302 ′ to B301 ′) is recorded as compressed data after editing by the data recording unit 19, and the original video materials A and B are recorded as they are before and after that. By this editing process, a new video material C in which the video materials A and B are joined can be obtained.
[0046]
As described above, the video material A is subjected to the decompression process for only four frames (A302 to A305) in the example of FIG. Regarding the video material B, since several frames are used as frames to be recompressed, only 1 GOP + 3 frames (B202 to B305) are decompressed, and the video materials A and B can be joined together.
[0047]
In particular, the video material B on the cut-in side uses the original compressed data itself as the edited image data from the first I picture obtained by backward searching from the cut-in point Bin. Can be kept in the minimum necessary frame section. In some cases, the video material B may be decompressed only within one GOP.
[0048]
As a result, the editing time can be greatly shortened, and the image quality deterioration caused by the decompression / recompression process can be greatly improved.
[0049]
When the image sequence is set so that the picture arrangement of the editing section is not the picture material A but the picture material B, the recompression processing is performed so that the picture arrangement of the picture material B is made after the cut-in point. Is done.
[0050]
In the editing apparatus 10 shown in FIG. 1, the data reproduction apparatus 11 in which the video material A is recorded, the data reproduction apparatus 14 in which the video material B is recorded, and the data recording apparatus 19 in which the edited data is recorded. Although it is composed of three data recording / reproducing apparatuses, if a recording / reproducing apparatus capable of random access, such as a hard disk drive, is used, they can be integrated into one. In this case, it is only necessary to manage the logical data connection, and the editing operation can be performed in a short time only by processing the editing points.
[0051]
【The invention's effect】
As described above, according to the present invention, only image data near the editing point is expanded while determining its image type, and editing is performed only within the sequence of the minimum image type. The compressed data is used as it is.
[0052]
As a result, the recompression processing section is shortened, so that the editing processing time is shortened. Further, since the data decompression processing and recompression processing are performed only for the minimum necessary area, the compressed video material is used as it is for the material away from the editing point. As a result, it is possible to minimize degradation of image quality due to the decompression and compression processing.
[0053]
Therefore, according to the present invention, it is possible to realize an editing process for a video signal compressed by inter-frame prediction in a short time and with minimal deterioration in image quality.
[Brief description of the drawings]
FIG. 1 is a system diagram of a main part showing an embodiment of an editing apparatus according to the present invention.
FIG. 2 is an explanatory diagram of an editing operation.
FIG. 3 is an explanatory diagram of an editing operation.
FIG. 4 is a flowchart illustrating an example of editing processing.
FIG. 5 is an explanatory diagram of a conventional editing process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Editing apparatus, 11, 14 ... Data reproduction apparatus, 12, 15 ... Image type identification part, 13, 16 ... Expander, 17 ... Switcher, 18 ... Data compressor 19 Data recording device

Claims (5)

第1の映像素材の圧縮映像データの画像タイプを識別する第1の画像タイプ識別手段と、
第2の映像素材の圧縮映像データの画像タイプを識別する第2の画像タイプ識別手段と、
上記第1の映像素材に設定されたカットアウト点から時間的に前方探索して上記第1の画像タイプ識別手段で識別された最初のIピクチャーを復号開始点とし、上記カットアウト点から時間的に後方探索して上記第1の画像タイプ識別手段で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第1の映像素材の圧縮映像データを復号する第1の復号手段と、
上記第2の映像素材に設定されたカットイン点から時間的に前方探索して上記第2の画像タイプ識別手段で識別された最初のIピクチャーを復号開始点とし、上記カットイン点から時間的に後方探索して上記第2の画像タイプ識別手段で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第2の映像素材の圧縮映像データを復号する第2の復号手段と、
上記カットアウト点及び上記カットイン点を接続点として、上記第1の復号手段により復号された第1の映像データと上記第2の復号手段により復号された第2の映像データとを接続する接続手段と、
上記接続手段により接続された映像データを再符号化して再圧縮映像データを生成する再符号化手段とを有する
ことを特徴とする編集装置。
First image type identifying means for identifying the image type of the compressed video data of the first video material;
Second image type identifying means for identifying the image type of the compressed video data of the second video material;
The first I picture identified by the first image type identifying means by temporally searching forward from the cutout point set in the first video material is used as a decoding start point, and temporally from the cutout point. First decoding means for decoding the compressed video data of the first video material, using the first I picture or P picture identified backward by the first image type identification means as a decoding end point;
The first I picture identified by the second image type identifying means by temporally searching forward from the cut-in point set for the second video material is used as a decoding start point, and temporally from the cut-in point. Second decoding means for decoding the compressed video data of the second video material with the first I picture or P picture identified by the second image type identification means as the end point of decoding,
A connection for connecting the first video data decoded by the first decoding means and the second video data decoded by the second decoding means, using the cut-out point and the cut-in point as connection points. Means,
An editing apparatus comprising: re-encoding means for re-encoding the video data connected by the connecting means to generate re-compressed video data .
上記第1の映像素材の圧縮映像データ及び上記第2の映像素材の圧縮映像データと、上記再圧縮映像データとを切り換えて出力することにより、編集された編集圧縮映像データを生成する編集手段を更に有する
ことを特徴とする請求項1記載の編集装置。
Editing means for generating edited edited compressed video data by switching and outputting the compressed video data of the first video material, the compressed video data of the second video material, and the recompressed video data. The editing apparatus according to claim 1, further comprising: an editing apparatus.
再符号化手段により生成された上記編集圧縮映像データを、記録媒体に記録する記録手段を更に有する
ことを特徴とする請求項1記載の編集装置。
It further has recording means for recording the edited compressed video data generated by the re-encoding means on a recording medium.
The editing apparatus according to claim 1 .
上記再符号化手段は、上記接続手段で接続された映像データを、上記第1の映像素材の圧縮映像データのピクチャー配列に対応させて再符号化を行うものとし、
上記第2の復号手段は、上記カットイン点から時間的に後方探索して、上記第2の画像タイプ識別手段で識別された最初のIピクチャーの前までの映像範囲を、上記再符号化手段によって上記第1の映像素材の圧縮映像データのピクチャー配列に対応させて再符号化できるように上記復号終了点を移動した
ことを特徴とする請求項1記載の編集装置。
The re-encoding means re-encodes the video data connected by the connecting means in correspondence with the picture arrangement of the compressed video data of the first video material,
The second decoding means performs a backward search in time from the cut-in point, and re-encodes a video range before the first I picture identified by the second image type identifying means. To move the decoding end point so that it can be re-encoded corresponding to the picture arrangement of the compressed video data of the first video material.
The editing apparatus according to claim 1 .
第1の映像素材の圧縮映像データの画像タイプを識別する第1の画像タイプ識別工程と、A first image type identifying step for identifying the image type of the compressed video data of the first video material;
第2の映像素材の圧縮映像データの画像タイプを識別する第2の画像タイプ識別工程と、A second image type identifying step for identifying the image type of the compressed video data of the second video material;
上記第1の映像素材に設定されたカットアウト点から時間的に前方探索して上記第1の画像タイプ識別工程で識別された最初のIピクチャーを復号開始点とし、上記カットアウト点から時間的に後方探索して上記第1の画像タイプ識別工程で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第1の映像素材の圧縮映像データを復号する第1の復号工程と、The first I picture identified in the first image type identification step by temporally searching forward from the cutout point set in the first video material is used as a decoding start point, and temporally from the cutout point. A first decoding step of decoding the compressed video data of the first video material using the first I picture or P picture identified backward in the first image type identification step as a decoding end point;
上記第2の映像素材に設定されたカットイン点から時間的に前方探索して上記第2の画The second image is searched forward in time from the cut-in point set in the second video material. 像タイプ識別工程で識別された最初のIピクチャーを復号開始点とし、上記カットイン点から時間的に後方探索して上記第2の画像タイプ識別工程で識別された最初のIピクチャー若しくはPピクチャーを復号終了点として、上記第2の映像素材の圧縮映像データを復号する第2の復号工程と、The first I picture identified in the image type identification process is used as a decoding start point, and the first I picture or P picture identified in the second image type identification process is searched backward in time from the cut-in point. As a decoding end point, a second decoding step of decoding the compressed video data of the second video material,
上記カットアウト点及び上記カットイン点を接続点として、上記第1の復号工程により復号された第1の映像データと上記第2の復号工程により復号された第2の映像データとを接続する接続工程と、A connection for connecting the first video data decoded by the first decoding step and the second video data decoded by the second decoding step, using the cut-out point and the cut-in point as connection points. Process,
上記接続工程により接続された映像データを再符号化して再圧縮映像データを生成する再符号化工程とを有するA re-encoding step for re-encoding the video data connected in the connection step to generate re-compressed video data.
ことを特徴とする編集方法。An editing method characterized by that.
JP26626896A 1996-10-07 1996-10-07 Editing device and editing method Expired - Fee Related JP3755206B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26626896A JP3755206B2 (en) 1996-10-07 1996-10-07 Editing device and editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26626896A JP3755206B2 (en) 1996-10-07 1996-10-07 Editing device and editing method

Publications (2)

Publication Number Publication Date
JPH10112840A JPH10112840A (en) 1998-04-28
JP3755206B2 true JP3755206B2 (en) 2006-03-15

Family

ID=17428616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26626896A Expired - Fee Related JP3755206B2 (en) 1996-10-07 1996-10-07 Editing device and editing method

Country Status (1)

Country Link
JP (1) JP3755206B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0923243B1 (en) 1997-07-25 2010-09-15 Sony Corporation Editing device, editing method, splicing device, splicing method, encoding device, and encoding method
JP4743119B2 (en) * 2004-08-25 2011-08-10 ソニー株式会社 Information processing apparatus, information processing method, recording medium, and program
JP4221667B2 (en) 2004-08-25 2009-02-12 ソニー株式会社 Information processing apparatus, information processing method, recording medium, and program

Also Published As

Publication number Publication date
JPH10112840A (en) 1998-04-28

Similar Documents

Publication Publication Date Title
EP1119200B1 (en) Image transmitting method, image processing method, image processor, and data storage medium
JP3019912B2 (en) Image data editing device
US5991502A (en) Optical recording device which calculates distances between I-frames and records I-frame addresses in a sector
JP3932546B2 (en) MPEG video editing apparatus and MPEG video editing method
JPH10145798A (en) System for processing digital coding signal
CA2329926C (en) Nonlinear editing device and nonlinear editing method
JP3506951B2 (en) Digital video playback with trick playback features
JP3755206B2 (en) Editing device and editing method
TW571588B (en) Modifying video signals by converting non-intra pictures
JP3161228B2 (en) Data processing device
JPH0918830A (en) Video editing device
JP3852114B2 (en) Compressed image data transmission method and apparatus
JPH07193785A (en) Device and method for recording/reproducing information
JP3045066B2 (en) Compressed video editing device
JP3384563B2 (en) Optical disc, reproducing apparatus and reproducing method
JP3384562B2 (en) Recording device and recording method
JP3370659B1 (en) Reproduction device and reproduction method
JP3801894B2 (en) Recording method and recording apparatus for disc-shaped recording medium, and reproducing method and reproducing apparatus
JP3370660B1 (en) Recording device and recording method
JPH09247620A (en) Video data recorder and its method
JPH10276430A (en) Adaptive simplified motion jpeg compressing device and adaptive simplified motion jpeg compressing method
JP3994786B2 (en) Video tape recorder
JP3100793B2 (en) Video playback device
JPH0795586A (en) Method for managing compressed moving picture data
JPH1056613A (en) Compressed image decoder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110106

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120106

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees