JPH11243525A - Dynamic image editor and dynamic image editing method - Google Patents

Dynamic image editor and dynamic image editing method

Info

Publication number
JPH11243525A
JPH11243525A JP4529198A JP4529198A JPH11243525A JP H11243525 A JPH11243525 A JP H11243525A JP 4529198 A JP4529198 A JP 4529198A JP 4529198 A JP4529198 A JP 4529198A JP H11243525 A JPH11243525 A JP H11243525A
Authority
JP
Japan
Prior art keywords
image
cross
fade
encoding
bit streams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4529198A
Other languages
Japanese (ja)
Other versions
JP3461280B2 (en
Inventor
Tomoya Kodama
知也 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP04529198A priority Critical patent/JP3461280B2/en
Publication of JPH11243525A publication Critical patent/JPH11243525A/en
Application granted granted Critical
Publication of JP3461280B2 publication Critical patent/JP3461280B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce an operation amount required to apply re-coding to a cross fade image in the case of using a motion between frames to connect two bit streams that are inter-frame coded by means of the cross fade image by adopting the picture experts group (MPEG)2 or the like. SOLUTION: Generated code amount prediction devices 8, 9 predict respectively a code amount in the case of decoding a cross fade image, by using coding parameters of one bit stream and of decoding the cross fade image through the use of coding parameters of other bit stream among the coding parameters represented by motion vectors which are extracted from the two kinds of the bit streams A, B going to be connected. Then re-coding is applied to the cross fade image by using the coding parameter whose predicted code amount is smaller. Thus, the need for applying motion detection processing to the cross fade image is eliminated, and the operation amount is reduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は符号化された複数の
動画像データを再編集し、1つの動画像データとする動
画像編集装置および動画像編集方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture editing apparatus and a moving picture editing method in which a plurality of coded moving picture data are re-edited into one moving picture data.

【0002】[0002]

【従来の技術】動画像符号化の国際標準MPEG2(M
oving Picture Experts Gro
up phase2)に代表されるディジタル動画像符
号化技術は、現行のアナログによる動画像メディアであ
るテレビジョン放送・ビデオなどを置き換える可能性を
持つ技術として現在注目されている。
2. Description of the Related Art The international standard MPEG2 (M
oving Picture Experts Gro
2. Description of the Related Art Digital video coding technology represented by up phase 2) is currently receiving attention as a technology that has the potential to replace current analog video media such as television broadcasts and videos.

【0003】MPEG2における動画像圧縮は、フレー
ム間予測と呼ばれる時間方向の冗長性を取り除き情報量
を削減する方式が取り入れられている。MPEG2の符
号化装置の例を図7に示す。
[0003] Moving picture compression in MPEG2 employs a method called inter-frame prediction, which removes redundancy in the time direction and reduces the amount of information. FIG. 7 shows an example of an MPEG2 encoding apparatus.

【0004】時間方向の冗長性の除去は図7中の動き検
出部40と動き補償部39によって実行される。動き検
出部40では、図8に示されるように、参照画像メモリ
41に保存されている過去に符号化した画像から画面を
16×16画素に分割したブロック(マクロブロック)
単位で似た部分を探索することで2つのフレーム間の動
きを検出する。この動きの情報(動きベクトル)はビッ
トストリームとして外部へ送出されるとともに、動き補
償部39へ出力される。
The removal of the redundancy in the time direction is executed by the motion detecting section 40 and the motion compensating section 39 in FIG. As shown in FIG. 8, the motion detecting unit 40 divides the screen into 16 × 16 pixels from a previously coded image stored in the reference image memory 41 (macro block).
A motion between two frames is detected by searching for a similar part in units. The motion information (motion vector) is sent to the outside as a bit stream, and is also output to the motion compensation unit 39.

【0005】動き補償部39では、動きベクトルから符
号化するマクロブロックと類似する16×16画素の領
域を参照画像メモリ41から読み出し、予測画像とす
る。減算部31では、フレーム順並び替え部30によっ
て符号化画面順に並び替えられた入力画像信号の符号化
しようとするマクロブロックと、予測画像との差分が取
られ(残差信号を得る)、これにより符号化対象の当該
マクロブロックが持っていた情報量は大幅に抑制され
る。この抑制されたマクロブロックに対し、次に空間方
向の情報圧縮が行われる。
[0005] The motion compensating section 39 reads from the reference image memory 41 an area of 16 × 16 pixels similar to the macroblock to be coded from the motion vector, and sets it as a predicted image. The subtraction unit 31 obtains a difference between the macroblock to be coded of the input image signal rearranged in the coding screen order by the frame rearrangement unit 30 and the predicted image (obtains a residual signal). As a result, the information amount of the macroblock to be coded is greatly reduced. Next, information compression in the spatial direction is performed on the suppressed macroblock.

【0006】まず、離散コサイン変換(DCT)部32
によって残差信号を周波数空間に写像し、量子化部33
により所定の荒さで量子化する。次にこれを可変長符号
化部(VLC)34で可変長符号化することにより、も
ともとあった動画像情報は数十分の一にまで圧縮され
る。この情報は、前述の動きベクトルとともに多重化部
35で多重化され、ビットストリームとして出力され
る。
First, a discrete cosine transform (DCT) unit 32
The residual signal is mapped to the frequency space by the
To quantize with a predetermined roughness. Next, this is subjected to variable-length coding by a variable-length coding unit (VLC) 34, so that the original moving picture information is compressed to several tenths. This information is multiplexed with the motion vector in the multiplexing unit 35, and is output as a bit stream.

【0007】また、量子化部33からの出力は、逆量子
化部36、逆DCT部37、加算部38を介して復号さ
れた後、参照画像メモリ41に参照画像として記録され
る。このような処理の中で最も処理量が多いのが動き検
出処理である。代表的な動き検出の方法には、符号化す
るマクロブロックと探索範囲内の領域の画素値を0.5
画素単位でずらしながら画素値の差分の自乗和を計算
し、最も自乗和の値が小さなものを動きベクトルとする
というものがある。このような動き検出法は、一般にそ
の演算量が膨大であることが知られており、リアルタイ
ムに符号化を行う場合に必要となる単位時間あたりの演
算量は数百GOPS(Giga Operation
per second)にもなる。このため、実時間の
符号化処理を行うためには専用のプロセッサなどの特別
なハードウェアが必要とされる。
The output from the quantization unit 33 is decoded via an inverse quantization unit 36, an inverse DCT unit 37, and an addition unit 38, and then recorded in a reference image memory 41 as a reference image. Among these processes, the motion detection process has the largest processing amount. A typical motion detection method includes a macroblock to be coded and a pixel value of an area within a search range of 0.5.
There is a method in which the sum of squares of the difference between pixel values is calculated while shifting in pixel units, and the one having the smallest value of the sum of squares is used as a motion vector. It is known that such a motion detection method generally requires a huge amount of calculation, and the amount of calculation per unit time required for performing encoding in real time is several hundred GOPS (Giga Operation).
per second). Therefore, special hardware such as a dedicated processor is required to perform the real-time encoding process.

【0008】一方、近年のパーソナルコンピュータ(以
下、PCと称する)の処理能力の向上に伴い、ディジタ
ル動画像の加工・編集処理が個人レベルで可能になって
きている。PCによる動画像の加工・編集処理は、あら
かじめ符号化された複数の動画像データ(ビットストリ
ーム)から、一定期間に相当する部分を取り出し、シー
ンチェンジ、またはフェードイン・フェードアウト、ク
ロスフェードなどの特種効果を用いて他のビットストリ
ームと接続し、一つのビットストリーム(プログラム)
にまとめるといった作業が代表的なものとなる。
On the other hand, with the improvement in the processing capability of personal computers (hereinafter, referred to as PCs) in recent years, it has become possible to process and edit digital moving images on an individual level. The processing and editing processing of moving images by a PC extracts a portion corresponding to a certain period from a plurality of moving image data (bit streams) encoded in advance, and performs a special change such as a scene change or a fade-in / fade-out or a cross-fade. Connect with other bitstreams using effects, one bitstream (program)
The work of putting them together in a representative way is typical.

【0009】MPEG2における動画像の編集に関して
は、例えば特開平8−251582号公報に示されるよ
うな2つの動画像ビットストリームをシーンチェンジに
より接続する方法が提案されている。これは、ビットス
トリームAとビットストリームBを時間的に重ねること
なく接続するものであり、仮想デコーダのバッファ容量
を調整して接続することにより、接続する際に必要な演
算量は問題とならない。
With regard to editing of a moving image in MPEG2, for example, a method of connecting two moving image bit streams by a scene change has been proposed as disclosed in Japanese Patent Application Laid-Open No. Hei 8-251582. This is to connect the bit stream A and the bit stream B without overlapping temporally, and by adjusting the buffer capacity of the virtual decoder for connection, the amount of computation required for connection does not matter.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、2つの
シーンをつなぎ合わせる際に頻繁に用いられる特種効果
の一つであるクロスフェードを実現しようとした場合、
異なる2つの動画像ビットストリームからクロスフェー
ド画像を新たに生成することが必要となる。
However, when trying to realize crossfade, which is one of the special effects frequently used when joining two scenes,
It is necessary to newly generate a cross fade image from two different video bit streams.

【0011】この場合、図9に示されているように、復
号部20,21による2つの動画像ビットストリーム
A,Bそれぞれの復号処理、合成部22による復号画像
A,Bの合成処理、この合成によって得られたクロスフ
ェード画像を符号化部23によって再符号化する処理が
必要となる。
In this case, as shown in FIG. 9, the decoding processes of the two video bit streams A and B by the decoding units 20 and 21 and the synthesis process of the decoded images A and B by the synthesis unit 22 are performed. A process of re-encoding the cross-fade image obtained by the synthesis by the encoding unit 23 is required.

【0012】前述の通り、符号化には動き検出処理が必
要であるため、再符号化に要する計算量は膨大なものと
なる。したがって、付加的なハードウェアを用いず汎用
のプロセッサだけで構成されたシステムにおいてはこの
処理に時間がかかり、ユーザーインタフェースの低下を
引き起こす。
As described above, since the motion detection processing is required for encoding, the amount of calculation required for re-encoding is enormous. Therefore, in a system composed of only a general-purpose processor without using additional hardware, this processing takes a long time, and causes a reduction in the user interface.

【0013】本発明はこのような点に鑑みてなされたも
のであり、その目的は、特別なハードウェアの追加をせ
ずに2種類の動画像ビットストリームをクロスフェード
によってつなぎ合わせる際の再符号化処理における処理
時間を低減し、ユーザーの操作性を損なわない動画像編
集装置および動画像編集方法を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has as its object to re-encode two types of moving image bit streams when they are connected by cross-fading without adding special hardware. An object of the present invention is to provide a moving image editing apparatus and a moving image editing method that reduce the processing time in the conversion processing and do not impair the operability of the user.

【0014】[0014]

【課題を解決するための手段】上述の課題を解決するた
めに、本発明は、フレーム間予測を用いて符号化されて
いる第1および第2の2種類の動画像ビットストリーム
をクロスフェードによって一部重ね合わせて結合する機
能を有する動画像編集装置であって、前記クロスフェー
ドで結合する期間に対応する前記第1および第2のビッ
トストリームそれぞれを復号化する手段と、復号化によ
って得られた2つの動画像からクロスフェード画像を作
成する手段と、前記クロスフェードで結合する期間にお
ける前記第1および第2のビットストリームを解析し、
それぞれの符号化パラメータを取り出す手段と、前記第
1および第2のビットストリームそれぞれの符号化パラ
メータを用いて前記クロスフェード画像を符号化したと
きの符号量を予測する符号量予測手段と、この予測結果
に基づいて前記第1および第2のビットストリームのい
ずれか一方の符号化パラメータを選択し、その選択した
符号化パラメータを用いて前記クロスフェード画像を再
符号化する手段とを具備することを特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a method for cross-fading a first and a second type of moving image bit stream encoded using inter-frame prediction. A moving image editing apparatus having a function of partially overlapping and combining, wherein: means for decoding each of the first and second bit streams corresponding to a period to be combined by the crossfade; Means for creating a cross-fade image from the two moving images, and analyzing the first and second bit streams during the period of combining with the cross-fade,
Means for extracting the respective coding parameters; code amount predicting means for predicting the code amount when the cross-fade image is coded using the respective coding parameters of the first and second bit streams; Means for selecting one of the encoding parameters of the first and second bit streams based on the result, and re-encoding the cross-fade image using the selected encoding parameter. Features.

【0015】この動画像編集装置においては、まず、結
合しようとする2種類のビットストリームそれぞれのク
ロスフェード部の復号化が行われ、復号化された画像の
重ね合わせによってクロスフェード画像が生成される。
そして、2種類のビットストリームそれぞれから取り出
された動きベクトルに代表される符号化パラメータの中
で、一方のビットストリームの符号化パラメータを用い
てクロスフェード画像を復号化した場合の符号量と、他
方のビットストリームの符号化パラメータを用いてクロ
スフェード画像を復号化した場合の符号量とがそれぞれ
予測される。そして、予測符号量が小さくなる方の符号
化パラメータを用いて、クロスフェード画像の再符号化
が行われる。
In this moving picture editing apparatus, first, a cross-fade portion of each of two types of bit streams to be combined is decoded, and a cross-fade image is generated by superimposing the decoded images. .
Then, among the encoding parameters represented by the motion vectors extracted from each of the two types of bit streams, the code amount when the cross-fade image is decoded using the encoding parameter of one bit stream, and the other And the amount of code when the cross-fade image is decoded using the coding parameter of the bit stream of. Then, re-encoding of the cross-fade image is performed using the encoding parameter with the smaller predicted code amount.

【0016】このように、接続しようとする2種類のビ
ットストリームに記録された、動きベクトルに代表され
る符号化パラメータを、本来クロスフェード画像の符号
化処理に必要とされる動き検出処理によって求められる
符号化パラメータの代わりに用いることにより、クロス
フェード部分の再符号化処理に要する演算量を大幅に削
減することができる。
As described above, the coding parameters represented by the motion vectors recorded in the two types of bit streams to be connected are obtained by the motion detection processing which is originally required for the coding processing of the cross-fade image. By using the coding parameters instead of the coding parameters to be used, it is possible to greatly reduce the amount of calculation required for the recoding process of the cross-fade portion.

【0017】また、2つのビットストリームから求めら
れる2つの符号化パラメータのどちらを用いるかを判断
する際に、クロスフェード部分の符号化に当該符号化パ
ラメータを用いたときに発生する符号量を予測し、少な
い方の符号化パラメータを選択し、再符号化することに
より、符号化パラメータの誤選択による符号化効率の低
下を抑制することができる。
Further, when judging which of the two coding parameters obtained from the two bit streams is to be used, the code amount generated when the coding parameter is used for coding the cross-fade portion is estimated. Then, by selecting the smaller encoding parameter and re-encoding, it is possible to suppress a decrease in encoding efficiency due to erroneous selection of the encoding parameter.

【0018】また、本発明は、前記クロスフェード画像
の符号化対象の画像領域毎に、その画像領域に対応する
前記第1および第2のビットストリームそれぞれの符号
化パラメータを用いたときの符号量を予測し、前記クロ
スフェード画像の符号化対象の画像領域毎に前記第1お
よび第2のビットストリームのいずれか一方の符号化パ
ラメータを動的に選択することを特徴とする。これによ
り、クロスフェード画像のマクロブロック毎に最適な符
号化パラメータを適用することが可能となり、より符号
化効率を高めることが可能となる。
Further, according to the present invention, for each image area to be encoded of the cross-fade image, a code amount when each of the encoding parameters of the first and second bit streams corresponding to the image area is used. And dynamically selecting one of the encoding parameters of the first and second bit streams for each image region to be encoded of the cross-fade image. As a result, it is possible to apply an optimal encoding parameter to each macroblock of the cross-fade image, and it is possible to further enhance encoding efficiency.

【0019】[0019]

【発明の実施の形態】本発明は、2つの動画像ビットス
トリームを復号し、合成して得られるクロスフェード画
像を再符号化する際に符号化に要する演算量を低減する
ことを可能にするものである。本発明の具体的な構成を
説明する前に、まず、MPEG2の符号化構造を説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention makes it possible to reduce the amount of calculation required for encoding when a cross-fade image obtained by decoding and combining two moving image bit streams is re-encoded. Things. Before describing the specific configuration of the present invention, the encoding structure of MPEG2 will be described first.

【0020】MPEG2では、符号化するピクチャはそ
の種類に応じてIピクチャ・Pピクチャ・Bピクチャに
分類される。Iピクチャは空間的な冗長度だけを利用し
て圧縮される。すなわち、動き検出は行われない。Pピ
クチャは、時間軸上で過去のピクチャからの動きを利用
して符号化される。Bピクチャは時間軸上で過去と未来
の両方のピクチャからの動きをともに利用して、補間に
より符号化される。この予測構造を示した図を図3に示
す。図3において、Iピクチャの直前の2つのBピクチ
ャから次のIピクチャの直前のPピクチャまでのピクチ
ャ群をGroup Of Picture(GOP)と
呼ぶ。
In MPEG2, pictures to be coded are classified into I pictures, P pictures and B pictures according to their types. I-pictures are compressed using only spatial redundancy. That is, no motion detection is performed. The P picture is encoded using a motion from a past picture on the time axis. The B picture is encoded by interpolation using both motions from both past and future pictures on the time axis. FIG. 3 shows this prediction structure. In FIG. 3, a group of pictures from two B pictures immediately before an I picture to a P picture immediately before a next I picture is called a Group Of Picture (GOP).

【0021】以下、本実施形態の動画像編集処理につい
て説明する。本実施形態では、図4に示すように、GO
P単位で編集を行うものである。ここでは、元となるビ
ットストリームA(GOP1a〜GOP16a)および
ビットストリームB(GOP6b〜GOP21b)から
新たなビットストリームCを作成する場合の例を表して
いる。
Hereinafter, the moving image editing process according to the present embodiment will be described. In the present embodiment, as shown in FIG.
Editing is performed in P units. Here, an example is shown in which a new bit stream C is created from the original bit stream A (GOP1a to GOP16a) and the bitstream B (GOP6b to GOP21b).

【0022】この例では、ビットストリームCの最初の
5GOPはビットストリームA(GOP1a〜GOP5
a)をそのまま用いる。ビットストリームCの最後の5
GOPはビットストリームB(GOP17b〜GOP2
1b)をそのまま用いる。途中の11GOPについて
は、ビットストリームA(GOP6a〜GOP16a)
とビットストリームB(GOP6b〜GOP16b)を
復号化し、クロスフェード画像となるように合成したも
のを再符号化して得る。
In this example, the first 5 GOPs of bit stream C are bit stream A (GOP1a to GOP5
Use a) as is. Last 5 of bitstream C
The GOP is a bit stream B (GOP17b to GOP2).
1b) is used as is. Bit stream A (GOP6a to GOP16a) for 11 GOPs on the way
And the bit stream B (GOP6b to GOP16b) are decoded, and a result obtained by synthesizing the decoded image into a cross-fade image is obtained by re-encoding.

【0023】ここで、典型的なクロスフェード画像は、
フェードアウトされるビットストリームA(GOP6a
〜GOP16a)の画像とフェードインされるビットス
トリームB(GOP6b〜GOP16b)の画像との重
ね合わせにより得られるものであるが、合成画像の画素
値が予め決められた所定の上限値を超えない範囲であれ
ば、ビットストリームA(GOP6a〜GOP16a)
の画像をフェードアウトしながらビットストリームB
(GOP6b〜GOP16b)の画像をそれに重なるよ
うにカットインしたり、あるいはその逆に、ビットスト
リームB(GOP6b〜GOP16b)の画像をフェー
ドインしながらその途中でビットストリームA(GOP
6a〜GOP16a)の画像をカットアウトするといっ
た処理も可能である。
Here, a typical crossfade image is
Bit stream A (GOP6a) to be faded out
To GOP16a) and the image of the bit stream B (GOP6b to GOP16b) to be faded in, but the pixel value of the composite image does not exceed a predetermined upper limit. If so, the bit stream A (GOP6a to GOP16a)
Bit stream B while fading out the image of
The image of (GOP6b to GOP16b) is cut in so as to overlap the image, or conversely, the image of bitstream B (GOP6b to GOP16b) is faded in while the bitstream A (GOP
Processing such as cutting out images of 6a to GOP16a) is also possible.

【0024】図1には、本実施形態のクロスフェード画
像再符号化処理部の詳細な構成が示されている。このク
ロスフェード画像再符号化処理部には、図1に示すよう
に、記憶装置として、ビットストリームAを記憶する記
憶装置1と、ビットストリームBを記憶する記憶装置2
と、ビットストリームAのクロスフェード期間における
符号化パラメータAが記録される記憶装置3と、ビット
ストリームBのクロスフェード期間における符号化パラ
メータAが記録される記憶装置4と、ビットストリーム
Aのクロスフェード期間についての復号化画像Aが記録
される記憶装置5と、ビットストリームBのクロスフェ
ード期間についての復号化画像Bが記録される記憶装置
6と、編集後の動画像ビットストリームCが記録される
記憶装置14とが設けられている。なお、これら記憶装
置1、2、3、4、5、6、14は同一の記憶装置の異
なる領域を用いて構成してもかまわない。
FIG. 1 shows a detailed configuration of the cross-fade image re-encoding processing unit of the present embodiment. As shown in FIG. 1, the cross-fade image re-encoding processing unit includes, as storage devices, a storage device 1 that stores a bit stream A and a storage device 2 that stores a bit stream B.
A storage device 3 in which the coding parameter A is recorded during the cross-fade period of the bit stream A; a storage device 4 in which the coding parameter A is recorded during the cross-fade period of the bit stream B; A storage device 5 for storing the decoded image A for the period, a storage device 6 for storing the decoded image B for the cross-fade period of the bit stream B, and a moving image bit stream C after editing. A storage device 14 is provided. Note that these storage devices 1, 2, 3, 4, 5, 6, and 14 may be configured using different areas of the same storage device.

【0025】また、クロスフェード画像再符号化処理部
には、ビットストリームA,Bの復号を行う復号化器7
と、二つの発生符号量予測器8,9と、復号化画像A,
Bの合成によってクロスフェード画像を生成するクロス
フェード画像作成器10と、予測された発生符号量を比
較してビットストリームA,Bいずれかの符号化パラメ
ータを選択する比較器11と、選択された符号化パラメ
ータを用いてクロスフェード画像を符号化する符号化器
12と、ビットストリームA、符号化されたクロスフェ
ード画像、ビットストリームBを多重化して編集後の動
画像ビットストリームCを生成する多重化器13とから
構成される。
The cross-fade image re-encoding unit includes a decoder 7 for decoding the bit streams A and B.
And two generated code amount predictors 8 and 9 and decoded images A and
A cross-fade image creator 10 for generating a cross-fade image by synthesizing B, a comparator 11 for comparing the predicted generated code amount and selecting one of the bit stream A and B encoding parameters, and An encoder 12 that encodes a cross-fade image by using an encoding parameter; and a multiplex that multiplexes a bit stream A, an encoded cross-fade image, and a bit stream B to generate an edited video bit stream C. And a converter 13.

【0026】これら復号化器7、発生符号量予測器8、
9、比較器11、クロスフェード画像作成器10、符号
化器12、多重化器13は、ハードウェアで実現しても
ソフトウェアで実現してもよい。
These decoder 7, generated code amount predictor 8,
9, the comparator 11, the cross-fade image creator 10, the encoder 12, and the multiplexer 13 may be realized by hardware or software.

【0027】次に、図2のフローチャートを参照して、
クロスフェードによる動画像のつなぎ合わせ処理の手順
ついて説明する。まず、記憶装置1に記録されているビ
ットストリームAのうち、これからクロスフェード画像
を作成しようとする部分が復号化器7に送られる。そし
て、復号化器7では、ビットストリームAがマクロブロ
ック毎に復号されてその復号された画像情報が記憶装置
5に送出される同時に、復号処理で用いられた動きベク
トル、符号化タイプなどの各マクロブロックについての
符号化パラメータの情報が記憶装置3に送出される(ス
テップS101)。復号化器7で作成された画像および
動きベクトルは、一旦それぞれ記憶装置5、記憶装置3
で記憶される。
Next, referring to the flowchart of FIG.
A description will be given of a procedure of processing for joining moving images by crossfade. First, of the bit stream A recorded in the storage device 1, a portion from which a cross-fade image is to be created is sent to the decoder 7. Then, in the decoder 7, the bit stream A is decoded for each macroblock, and the decoded image information is sent to the storage device 5. At the same time, each of the motion vector used in the decoding process, the encoding type, etc. Information on the coding parameters for the macroblock is sent to the storage device 3 (step S101). The image and the motion vector created by the decoder 7 are temporarily stored in the storage devices 5 and 3 respectively.
Is stored.

【0028】これと同様に、記憶装置2に記録されてい
るビットストリームBのうち、これからクロスフェード
画像を作成しようとする部分は復号化器7に送られる。
復号化器7では、復号した画像情報を記憶装置6に送出
すると同時に復号に用いた動きベクトル、符号化タイプ
などの各マクロブロックについての符号化パラメータの
情報を記憶装置4に送出する(ステップS102)。復
号化器7で作成された画像および動きベクトルは、一旦
それぞれ記憶装置6、記憶装置4で記憶される。
Similarly, a portion of the bit stream B recorded in the storage device 2 from which a cross-fade image is to be created is sent to the decoder 7.
The decoder 7 sends the decoded image information to the storage device 6 and, at the same time, sends to the storage device 4 information on the coding parameters for each macroblock such as the motion vector and the coding type used for decoding (step S102). ). The image and the motion vector created by the decoder 7 are temporarily stored in the storage devices 6 and 4, respectively.

【0029】クロスフェード画像作成器10は、記憶装
置5および6に記録された復号された動画像からクロス
フェード画像を作成する(ステップS103)。クロス
フェードが開始されてから終了するまでの時間をT、ク
ロスフェード開始時刻からの経過時間をt(0≦t≦
T)とし、時刻tにおいて復号されるビットストリーム
A,Bそれぞれのマクロブロックの画素値をPa、Pb
とすると、ビットストリームAの画像をフェードアウト
しながらビットストリームBの画像をフェードインする
クロスフェードを行った場合、時刻tにおけるクロスフ
ェード画像Pcは、例えば次式のような式を適用するこ
とにより作成することができる。
The crossfade image creator 10 creates a crossfade image from the decoded moving images recorded in the storage devices 5 and 6 (step S103). The time from the start of the crossfade to the end thereof is T, and the elapsed time from the crossfade start time is t (0 ≦ t ≦
T), and the pixel values of the macroblocks of the bit streams A and B decoded at time t are Pa and Pb, respectively.
Then, when a cross-fade in which the image of the bit stream B is faded in while the image of the bit stream A is faded out, the cross-fade image Pc at the time t is created by applying, for example, the following equation: can do.

【0030】 Pc= Pa×(T−t)/T+Pb×(t/T) 発生符号量予測器8,9ではそれぞれビットストリーム
AとビットストリームBの動きベクトルをクロスフェー
ド画像の符号化に用いたときの発生符号量をマクロブロ
ック単位で予測される(ステップS104,S10
5)。
Pc = Pa × (T−t) / T + Pb × (t / T) In the generated code amount predictors 8 and 9, the motion vectors of the bit stream A and the bit stream B are used for coding a cross-fade image. The generated code amount at the time is predicted in macroblock units (steps S104 and S10).
5).

【0031】今、ビットストリームAを復号化した画像
PA の成分がαで、ビットストリームBを復号化した画
像PB の成分が1−αであるマクロブロックのピクチャ
αPA +(1−α)PB を、ビットストリームAに含ま
れていた対応するマクロブロック位置の動きベクトルM
VA で符号化したとすると、そのピクチャを符号化した
ときに発生する符号量は、PA をMVA で符号化したと
きに発生する符号量と、PB をMVA で符号化したとき
に発生する符号量との重み付け加算で近似できる。
Now, a picture αPA + (1-α) PB of a macroblock in which the component of the image PA obtained by decoding the bit stream A is α and the component of the image PB obtained by decoding the bit stream B is 1-α. , The motion vector M at the corresponding macroblock position contained in the bit stream A
If the picture is coded by VA, the code amount generated when the picture is coded is the code amount generated when PA is coded by MVA and the code amount generated when PB is coded by MVA. Can be approximated by weighted addition.

【0032】PB をMVA で符号化したときに発生する
符号量は、動きベクトルが全くあわないことが予想され
るため、ビットストリームBにおける最も近いIピクチ
ャ上における同じ位置のマクロブロックの符号化時に発
生した符号量で近似する。
Since the amount of code generated when PB is encoded by MVA is expected to have no motion vector at all, when encoding a macroblock at the same position on the nearest I picture in bit stream B, Approximate by the generated code amount.

【0033】図5は、ある画像に対しその画素値をα
(0≦α≦1)倍した場合において、DCT係数を符号
化する際に発生する符号量とαとの関係を表した図であ
る。この図から、αと発生符号量との関係は、ほぼ直線
で近似できることがわかる。
FIG. 5 shows the pixel value of a certain image as α.
FIG. 9 is a diagram illustrating a relationship between α and a code amount generated when encoding a DCT coefficient when multiplying by (0 ≦ α ≦ 1). From this figure, it can be seen that the relationship between α and the generated code amount can be approximated by a substantially straight line.

【0034】以上のことから、ビットストリームAの動
きベクトルMVA を使用してクロスフェード画像のマク
ロブロックを復号化したときの予測発生符号量BA は、
例えば次の式で表すことができる。
From the above, the predicted generated code amount BA when a macroblock of a cross-fade image is decoded using the motion vector MVA of the bit stream A is:
For example, it can be represented by the following equation.

【0035】BA = BA0+BAdct ×(T−t)/
T+BBIdct × t/T ここで、BA0はビットストリームAにおける当該マクロ
ブロックにおけるヘッダ部分(動きベクトルや符号化モ
ードなどの情報が含まれる)のビット量、BAdctはビッ
トストリームAにおける当該マクロブロックにおけるD
CT係数のビット量、BBIdct はビットストリームBに
おいて当該マクロブロックに最も時間的に近いIピクチ
ャ上の当該マクロブロックと同じ位置のマクロブロック
におけるDCT係数のビット量を表す。
BA = BA0 + BAdct × (Tt) /
T + BBIdct × t / T where BA0 is the bit amount of the header portion (including information such as a motion vector and a coding mode) in the macroblock in the bit stream A, and BAdct is D in the macroblock in the bit stream A.
The bit amount of the CT coefficient, BBIdct, represents the bit amount of the DCT coefficient in the macroblock at the same position as the macroblock on the I picture closest to the macroblock in the bit stream B.

【0036】同様に、ビットストリームBの動きベクト
ルMVB を使用したときのマクロブロックの予測発生符
号量BB は、例えば次の式を用いることができる。 BB = BB0+BBdct × t/T+BAIdct ×(T
−t)/T ここで、BB0はビットストリームBにおける当該マクロ
ブロックにおけるヘッダ部分のビット量、BBdctはビッ
トストリームBにおける当該マクロブロックにおけるD
CT係数のビット量、BAIdct はビットストリームAに
おいて最も時間的に近いIピクチャの当該マクロブロッ
クと同じ位置のマクロブロックにおけるDCT係数のビ
ット量を表す。
Similarly, the following formula can be used for the predicted code amount BB of the macroblock when the motion vector MVB of the bit stream B is used. BB = BB0 + BBdct × t / T + BAidct × (T
−t) / T where BB0 is the bit amount of the header part in the macroblock in the bitstream B, and BBdct is D in the macroblock in the bitstream B.
The bit amount of the CT coefficient, BAIdct, represents the bit amount of the DCT coefficient in the macroblock at the same position as the macroblock of the I picture closest in time in the bit stream A.

【0037】比較器11では、発生符号量予測器8,9
から得られる予測発生符号量が比較され、予測発生符号
量が少ない側の動きベクトル、すなわちBA < BB な
らばMVA を、BA >BB ならばMVB を、記憶装置
3、4から選び出して符号化器12に送出する(ステッ
プS106)。
In the comparator 11, generated code amount predictors 8, 9
Are calculated from the storage devices 3 and 4, and the motion vector on the side where the predicted code amount is small, that is, MVA if BA <BB, and MVB if BA> BB are selected from the storage devices 3 and 4. 12 (step S106).

【0038】符号化器12では、クロスフェード画像作
成器10から得られるクロスフェード画像を比較器11
から送られる動きベクトルを用いてマクロブロック毎に
フレーム間符号化する(ステップS107,S10
8)。
The encoder 12 converts the cross-fade image obtained from the cross-fade image generator 10 into a comparator 11
(Steps S107, S10)
8).

【0039】符号化されたビットストリームは、多重化
器13によって記憶装置1、2に保存されているビット
ストリームと組み合わされ、ビットストリームAからビ
ットストリームBへクロスフェードで接続された一つの
ビットストリームとして記憶装置14に記憶され、目的
であるビットストリームAとビットストリームBのクロ
スフェードによる接続が実現される。
The coded bit stream is combined with the bit streams stored in the storage devices 1 and 2 by the multiplexer 13 to form one bit stream connected from the bit stream A to the bit stream B by cross-fading. Is stored in the storage device 14, and the intended connection between the bit stream A and the bit stream B is realized by cross-fading.

【0040】このようにして、クロスフェード画像全て
の符号化が完了するまで、クロスフェード画像のマクロ
ブロック単位に、ビットストリームA,Bそれぞれの対
応する2つのマクロブロックのいずれか一方の符号化パ
ラメータが動的に選択されながら、ステップS104〜
S108の処理が繰り返し実行される(ステップS10
9)。
In this manner, until coding of all the cross-fade images is completed, one of the coding parameters of one of the two corresponding macro blocks of the bit streams A and B is used in units of macro blocks of the cross-fade image. Are dynamically selected, and steps S104-
The processing of S108 is repeatedly executed (Step S10
9).

【0041】図6には、図1の符号化器12の具体的な
構成の一例が示されている。この符号化器は、図示のよ
うに、フレーム順並び替え部50、減算部51、DCT
変換部52、量子化部53、可変長符号化部(VLC)
54、多重化部55,逆量子化部56、逆DCT変換部
57、加算部58、動き補償部59、参照画像メモリ6
0から構成されており、これらは、それぞれ図7のフレ
ーム順並び替え部30、減算部31、DCT変換部3
2、量子化部33、可変長符号化部(VLC)34、多
重化部35,逆量子化部36、逆DCT変換部37、加
算部38、動き補償部39、参照画像メモリ41に対応
しており、図7の動き検出部40に相当する機能が省略
されている。
FIG. 6 shows an example of a specific configuration of the encoder 12 shown in FIG. The encoder includes a frame order rearranging unit 50, a subtracting unit 51, a DCT
Conversion unit 52, quantization unit 53, variable length coding unit (VLC)
54, multiplexing section 55, inverse quantization section 56, inverse DCT transform section 57, adder section 58, motion compensation section 59, reference image memory 6
0, which are respectively composed of the frame order rearranging unit 30, the subtracting unit 31, and the DCT converting unit 3 shown in FIG.
2. Corresponds to a quantization unit 33, a variable length coding unit (VLC) 34, a multiplexing unit 35, an inverse quantization unit 36, an inverse DCT transformation unit 37, an addition unit 38, a motion compensation unit 39, and a reference image memory 41. In this case, a function corresponding to the motion detection unit 40 in FIG. 7 is omitted.

【0042】すなわち、本実施形態では、動き補償部5
9に対してビットストリームAまたはBの符号化パラメ
ータがそのまま与えられることから、符号化の際に新た
に動き検出処理を行う必要がない。したがって、図7に
示される符号化器に比べ、動き検出部が省略されている
のである。
That is, in this embodiment, the motion compensator 5
Since the encoding parameter of the bit stream A or B is given to 9 as it is, there is no need to perform a new motion detection process at the time of encoding. Therefore, as compared with the encoder shown in FIG. 7, the motion detector is omitted.

【0043】このため、図1の符号化器12が要求する
演算量は、復号化器7が通常のMPEG2ビットストリ
ームの復号に必要とする演算量の2倍程度に抑えること
ができる。復号化器7は2つのビットストリームの復号
を行うことを考えれば、本システムにおいて符号化器1
2が符号化に要する演算量は復号化器7が2つのビット
ストリームを復号するのに要する演算量程度まで削減す
ることが可能である。
For this reason, the amount of calculation required by the encoder 12 in FIG. 1 can be suppressed to about twice the amount of calculation required by the decoder 7 for decoding an ordinary MPEG2 bit stream. Given that the decoder 7 decodes two bit streams, the encoder 1 in the present system
The amount of operation required for encoding 2 can be reduced to about the amount of operation required for the decoder 7 to decode two bit streams.

【0044】すなわち、MPEG2の復号をソフトウェ
アでリアルタイムで行うことができるPCによって本実
施形態の編集処理を構成した場合、クロスフェードによ
る接続処理を付加的なハードウェアなしでソフトウェア
によって実現したとしても、待ち時間に起因するユーザ
ーに与えるストレスは極めて少ないものとすることがで
きる。
That is, when the editing process of this embodiment is configured by a PC capable of decoding MPEG2 in real time by software, even if the connection process by crossfade is realized by software without additional hardware, The stress on the user due to the waiting time can be extremely small.

【0045】以上のように、本実施形態によれば、接続
しようとする2種類のビットストリームA,Bに記録さ
れた動きベクトルに代表される符号化パラメータを、本
来クロスフェード画像の符号化処理に必要とされる動き
検出処理によって求められる符号化パラメータの代わり
に用いることにより、クロスフェード部分の再符号化処
理に要する演算量を大幅に削減することが可能となる。
As described above, according to the present embodiment, the encoding parameters typified by the motion vectors recorded in the two types of bit streams A and B to be connected are originally encoded in the cross-fade image encoding process. By using the parameters instead of the coding parameters obtained by the motion detection processing required for, it is possible to greatly reduce the amount of calculation required for the re-coding processing of the cross-fade portion.

【0046】また、2つのビットストリームから求めら
れる2つの符号化パラメータのどちらを用いるかを判断
する際に、クロスフェード部分の符号化に当該符号化パ
ラメータを用いたときの発生符号量を予測し、少ない方
の符号化パラメータを用いて再符号化することにより、
符号化パラメータの誤選択による符号化効率の低下を抑
制することができる。特に、クロスフェード画像のマク
ロブロック毎に最適な符号化パラメータを動的に選択す
ることにより、高い符号化効率を得ることができる。
When judging which of the two encoding parameters obtained from the two bit streams is to be used, the amount of generated code when the encoding parameter is used for encoding the cross-fade portion is estimated. , By re-encoding using the lesser encoding parameter,
It is possible to suppress a decrease in coding efficiency due to erroneous selection of a coding parameter. In particular, high encoding efficiency can be obtained by dynamically selecting the optimal encoding parameter for each macroblock of the cross-fade image.

【0047】なお、以上の説明では、フェードアウトさ
れるビットストリームAの画像とフェードインされるビ
ットストリームBの画像との重ね合わせにより作成され
たクロスフェード画像についての発生符号量を予測する
場合について説明したが、発生符号量の予測は、時間の
経過に対するビットストリームA、Bの混合の割合に基
づいて求めることができるので、例えばビットストリー
ムAの画像をフェードアウトしながらビットストリーム
Bの画像をそれに重なるようにカットインしたり、ある
いはその逆に、ビットストリームBの画像をフェードイ
ンしながらその途中でビットストリームAの画像をカッ
トアウトするといった合成処理によって得られたクロス
フェード画像についても、本実施形態による編集方法を
適用することができる。
In the above description, a case is described in which the generated code amount of a cross-fade image created by superimposing a fade-out bit stream A image and a fade-in bit stream B image is superimposed. However, since the prediction of the generated code amount can be obtained based on the mixing ratio of the bit streams A and B with the passage of time, for example, the image of the bit stream B overlaps the image of the bit stream A while fading out the image of the bit stream A. The cross-fade image obtained by the synthesizing process in which the image of the bit stream A is cut out in the middle while the image of the bit stream B is faded in while the image of the bit stream B is faded in, You can apply the editing method by That.

【0048】[0048]

【発明の効果】以上説明したように、本発明によれば、
フレーム間符号化されたビットストリーム同士をクロス
フェードによりつなぎ合わせる動画像編集装置におい
て、もともと符号化されているビットストリームにおけ
る動きベクトルなどの符号化パラメータを再利用してク
ロスフェード画像部分の再符号化を行うことにより、再
符号化に必要な演算量を大幅に削減することが可能とな
る。
As described above, according to the present invention,
In a moving image editing apparatus for connecting inter-coded bit streams by cross-fading, re-encoding of a cross-fade image portion by reusing coding parameters such as motion vectors in the originally coded bit stream. , It is possible to greatly reduce the amount of calculation required for re-encoding.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る動画像編集装置の構
成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of a moving image editing apparatus according to an embodiment of the present invention.

【図2】同実施形態において二つのビットストリームを
クロスフェードによって結合する場合の手順を示すフロ
ーチャート。
FIG. 2 is an exemplary flowchart showing a procedure when two bit streams are combined by crossfading in the embodiment.

【図3】同実施形態で編集対象となるMPEG2ビット
ストリームのピクチャの予測構造の例を示す図。
FIG. 3 is an exemplary view showing an example of a prediction structure of a picture of an MPEG2 bit stream to be edited in the embodiment.

【図4】同実施形態の編集処理で得られるクロスフェー
ド接続後のビットストリームの一例を示す図。
FIG. 4 is an exemplary view showing an example of a bit stream after cross-fade connection obtained by the editing process of the embodiment.

【図5】同実施形態における編集処理画像のダイナミッ
クレンジと発生符号量との関係を表す図。
FIG. 5 is a diagram showing a relationship between a dynamic range of an edited image and a generated code amount in the embodiment.

【図6】同実施形態に適用される動画像符号化器の構成
の一例を示す図。
FIG. 6 is an exemplary view showing an example of the configuration of a video encoder applied to the embodiment.

【図7】従来の動画像符号化器の構成を示す図。FIG. 7 is a diagram showing a configuration of a conventional video encoder.

【図8】従来の動画像符号化器における動き検出処理の
原理を説明するための図。
FIG. 8 is a diagram for explaining the principle of motion detection processing in a conventional video encoder.

【図9】従来のクロスフェード接続にる動画像変種動作
を説明するための図。
FIG. 9 is a view for explaining a moving image variation operation based on a conventional cross-fade connection.

【符号の説明】[Explanation of symbols]

1、2、3、4、5、6、14…記憶装置 7…復号化器 8、9…発生符号量予測器 10…クロスフェード画像作成器 11…比較器 12…符号化器 13…多重化器 20、21…復号化器 22…クロスフェード画像合成器 23…符号化器 30,50…フレーム順並び替え部 31,51…減算部 32、52…離散コサイン変換部 33、53…量子化部 34、54…可変長符号化部 35、55…多重化部 36、56…逆量子化部 37、57…逆離散コサイン変換部 38、58…加算部 39、59…動き補償部 40…動き検出部 41、60…参照画像メモリ 1, 2, 3, 4, 5, 6, 14 ... storage device 7 ... decoder 8, 9 ... generated code amount predictor 10 ... cross-fade image creator 11 ... comparator 12 ... encoder 13 ... multiplexing Decoders 20 and 21 Decoders 22 Crossfade image synthesizers 23 Encoders 30 and 50 Frame order rearranging units 31 and 51 Subtracting units 32 and 52 Discrete cosine transform units 33 and 53 Quantizing units 34, 54 ... variable length coding unit 35, 55 ... multiplexing unit 36, 56 ... inverse quantization unit 37, 57 ... inverse discrete cosine transform unit 38, 58 ... addition unit 39, 59 ... motion compensation unit 40 ... motion detection Units 41, 60: Reference image memory

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 フレーム間予測を用いて符号化されてい
る第1および第2の2種類の動画像ビットストリームを
クロスフェードによって一部重ね合わせて結合する機能
を有する動画像編集装置であって、 前記クロスフェードで結合する期間に対応する前記第1
および第2のビットストリームそれぞれを復号化する手
段と、 復号化によって得られた2つの動画像からクロスフェー
ド画像を作成する手段と、 前記クロスフェードで結合する期間における前記第1お
よび第2のビットストリームを解析し、それぞれの符号
化パラメータを取り出す手段と、 前記第1および第2のビットストリームそれぞれの符号
化パラメータを用いて前記クロスフェード画像を符号化
したときの符号量を予測する符号量予測手段と、 この予測結果に基づいて前記第1および第2のビットス
トリームのいずれか一方の符号化パラメータを選択し、
その選択した符号化パラメータを用いて前記クロスフェ
ード画像を再符号化する手段とを具備することを特徴と
する動画像編集装置。
1. A video editing apparatus having a function of partially overlapping and combining first and second types of video bit streams coded using inter-frame prediction by crossfading. The first period corresponding to the period of combining with the cross fade
Means for decoding each of the first and second bit streams, means for creating a cross-fade image from two moving images obtained by decoding, and the first and second bits during a period of combining by the cross-fade. Means for analyzing a stream and extracting respective coding parameters; code amount prediction for predicting a code amount when the cross-fade image is coded using the respective coding parameters of the first and second bit streams Means for selecting one of the first and second bitstream encoding parameters based on the prediction result;
Means for re-encoding the cross-fade image using the selected encoding parameter.
【請求項2】 前記符号量予測手段は、 前記クロスフェード画像の符号化対象の画像領域毎に、
その画像領域に対応する前記第1および第2のビットス
トリームそれぞれの符号化パラメータを用いたときの符
号量を予測し、 前記クロスフェード画像の符号化対象の画像領域毎に前
記第1および第2のビットストリームのいずれか一方の
符号化パラメータが動的に選択されることを特徴とする
請求項1記載の動画像編集装置。
2. The method according to claim 1, wherein the code amount predicting unit comprises:
Predicting the code amount when using the respective coding parameters of the first and second bit streams corresponding to the image area, and calculating the first and second code areas for each of the coding target image areas of the cross-fade image. The moving picture editing apparatus according to claim 1, wherein one of the encoding parameters of the bit stream is dynamically selected.
【請求項3】 前記符号化パラメータは動きベクトル情
報であることを特徴とする請求項1または2記載の動画
像編集装置。
3. The moving picture editing apparatus according to claim 1, wherein the encoding parameter is motion vector information.
【請求項4】 フレーム間予測を用いて符号化されてい
る第1および第2の2種類の動画像ビットストリームを
クロスフェードによって一部重ね合わせて結合する動画
像編集方法であって、 前記クロスフェードで結合する期間に対応する前記第1
および第2のビットストリームそれぞれを復号化し、 復号化によって得られた2つの動画像からクロスフェー
ド画像を作成し、 前記クロスフェードで結合する期間における前記第1お
よび第2のビットストリームそれぞれの符号化パラメー
タを用いて前記クロスフェード画像を符号化したときの
符号量を予測し、 この予測結果に基づいて前記第1および第2のビットス
トリームのいずれか一方の符号化パラメータを選択し、 その選択した符号化パラメータを用いて前記クロスフェ
ード画像を再符号化することにより、第1および第2の
2種類の動画像ビットストリームをクロスフェードによ
って結合することを特徴とする動画像編集方法。
4. A moving image editing method in which first and second two types of moving image bit streams encoded using inter-frame prediction are partially overlapped and combined by crossfading, The first corresponding to the time period of the fading
And a second bit stream are respectively decoded, and a cross-fade image is created from the two moving images obtained by the decoding, and each of the first and second bit streams is encoded during a period in which the cross-fade is combined. A code amount when the cross-fade image is coded is predicted using parameters, and one of the first and second bit streams is selected based on the prediction result, and the selected coding parameter is selected. A moving picture editing method, characterized in that the first and second moving picture bit streams are combined by cross-fading by re-encoding the cross-fade picture using coding parameters.
【請求項5】 前記クロスフェード画像の符号化対象の
画像領域毎に、その画像領域に対応する前記第1および
第2のビットストリームそれぞれの符号化パラメータを
用いたときの符号量を予測し、 前記クロスフェード画像の符号化対象の画像領域毎に前
記第1および第2のビットストリームのいずれか一方の
符号化パラメータを動的に選択することを特徴とする請
求項4記載の動画像編集方法。
5. For each image region to be encoded of the cross-fade image, predict a code amount when using each of the encoding parameters of the first and second bit streams corresponding to the image region; 5. The moving image editing method according to claim 4, wherein one of the first and second bitstream encoding parameters is dynamically selected for each image region to be encoded of the cross-fade image. .
【請求項6】 前記符号化パラメータは動きベクトル情
報であることを特徴とする請求項4または5記載の動画
像編集方法。
6. The moving picture editing method according to claim 4, wherein said encoding parameter is motion vector information.
JP04529198A 1998-02-26 1998-02-26 Moving image editing apparatus and moving image editing method Expired - Fee Related JP3461280B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04529198A JP3461280B2 (en) 1998-02-26 1998-02-26 Moving image editing apparatus and moving image editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04529198A JP3461280B2 (en) 1998-02-26 1998-02-26 Moving image editing apparatus and moving image editing method

Publications (2)

Publication Number Publication Date
JPH11243525A true JPH11243525A (en) 1999-09-07
JP3461280B2 JP3461280B2 (en) 2003-10-27

Family

ID=12715220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04529198A Expired - Fee Related JP3461280B2 (en) 1998-02-26 1998-02-26 Moving image editing apparatus and moving image editing method

Country Status (1)

Country Link
JP (1) JP3461280B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514453A (en) * 1999-11-10 2003-04-15 トムソン ライセンシング ソシエテ アノニム Mixing function for DVD playback device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003514453A (en) * 1999-11-10 2003-04-15 トムソン ライセンシング ソシエテ アノニム Mixing function for DVD playback device

Also Published As

Publication number Publication date
JP3461280B2 (en) 2003-10-27

Similar Documents

Publication Publication Date Title
KR100766740B1 (en) Apparatus and method for converting data using encoding history information
KR0161551B1 (en) Method and apparatus for editing or mixing compressed pictures
US6574274B2 (en) Picture signal processing system, decoder, picture signal processing method, and decoding method
JP3877234B2 (en) Method and apparatus for transcoding a bitstream having video data
KR100440953B1 (en) Method for transcoding of image compressed bit stream
JP4480671B2 (en) Method and apparatus for controlling rate distortion trade-off by mode selection of video encoder
US20040252901A1 (en) Spatial scalable compression
JP5090158B2 (en) VIDEO INFORMATION RECORDING DEVICE, VIDEO INFORMATION RECORDING METHOD, VIDEO INFORMATION RECORDING PROGRAM, AND RECORDING MEDIUM CONTAINING VIDEO INFORMATION RECORDING PROGRAM
JPH10145798A (en) System for processing digital coding signal
JP2000278692A (en) Compressed data processing method, processor and recording and reproducing system
KR20060045719A (en) High-fidelity transcoding
JP2001218213A (en) Image signal conversion coder
JP2000059790A (en) Dynamic image code string converter and method therefor
JP3348612B2 (en) Inter-block prediction coding device, inter-block prediction decoding device, inter-block prediction coding method, inter-block prediction decoding method, and inter-block prediction coding / decoding device
US6271774B1 (en) Picture data processor, picture data decoder and picture data encoder, and methods thereof
KR100202538B1 (en) Mpeg video codec
US20070025438A1 (en) Elastic storage
JP2002199392A (en) Method and device for encoding image
JP3461280B2 (en) Moving image editing apparatus and moving image editing method
JP2005012249A (en) Image processing apparatus and image processing method, information processing apparatus, recording medium, and program
JPH11308618A (en) Image signal processor and method therefor, and image signal reproducing device
JP4133581B2 (en) Telop synthesis device, telop synthesis method, and telop synthesis program
JPH0951538A (en) Encoding method for image signal
JP2947089B2 (en) Moving picture decoding method and apparatus
JP3289695B2 (en) Video encoding method and apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070815

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080815

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090815

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees