JPH10174065A - 画像音声多重化データ編集方法およびその装置 - Google Patents

画像音声多重化データ編集方法およびその装置

Info

Publication number
JPH10174065A
JPH10174065A JP32640396A JP32640396A JPH10174065A JP H10174065 A JPH10174065 A JP H10174065A JP 32640396 A JP32640396 A JP 32640396A JP 32640396 A JP32640396 A JP 32640396A JP H10174065 A JPH10174065 A JP H10174065A
Authority
JP
Japan
Prior art keywords
data
audio
image
encoded data
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32640396A
Other languages
English (en)
Inventor
Takayuki Sasaki
孝幸 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP32640396A priority Critical patent/JPH10174065A/ja
Publication of JPH10174065A publication Critical patent/JPH10174065A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 符号化方法が異なる画像符号化データと音声
符号化データを多重化した画像音声多重化データの結合
編集を行なう際、画像と音声の同期にずれがない画像音
声多重化データを作成する。 【解決手段】 (a)において、編集に必要と画像符号化
データV2からV6と音声符号化データA1の表示開始
時間の差と画像符号化データV10からV13と音声符
号化データA5の表示開始時間の差を記憶保持しておく
ことで、各符号化データを結合し多重化する際にこれら
表示開始時間の差を持ちいることで画像と音声の同期が
ずれない画像音声多重化データの編集を行なう。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像符号化データ
と音声符号化データを多重化した画像音声多重化データ
を編集する方法、及びその編集方法を用いた装置に関す
るものである。
【0002】
【従来の技術】画像音声多重化データを構成する画像符
号化データと音声符号化データとでは、符号化方法が異
なっていることが多い。
【0003】画像データの符号化方法としては、フレー
ム内のデータのみを利用した方法と、フレーム間の相関
を利用した方法(フレーム間予測符号化)がある。
【0004】フレーム内符号化では、そのフレームの圧
縮データのみで復号化が可能である。フレーム間予測符
号化には、時間的に前のフレームとの相関を利用する前
方向予測符号化と、時間的に前のフレームか後のフレー
ムまたは両方のフレームとの相関を利用する両方向予測
符号化とがある。フレーム間予測符号化はフレーム内符
号化に比べ圧縮率を高めることができるが、符号化や再
生を行なう時にエラーを生じた場合、エラーが時間方向
に伝わってしまう。このため、周期的にフレーム内符号
化を行なってエラーの伝播を防いでいる。
【0005】このように、画像符号化データは、フレー
ム内符号化データ及びフレーム間予測符号化データを組
み合わせたデータで構成されている。
【0006】一方、音声データの符号化方法として、帯
域分割を利用した方法が知られている。音声符号化デー
タは単独で音声データに復号でき、復号された結果が同
じ再生時間となる単位で構成されている。
【0007】上記のように符号化方法が異なる画像と音
声を多重化した画像音声多重化データでは、各画像・音
声符号化データをパケット化したデータに各画像・音声
符号化データの表示時間を付加することで画像と音声の
同期をとっていた。
【0008】また、画像音声多重化データを編集点で結
合する際、画像音声多重化データから画像符号化データ
と音声符号化データを分離し、必要とする画像符号化デ
ータとそれに対応する音声符号化データを取り出し記憶
保持し、再パケット化、再多重化を行なっている。
【0009】ここで編集点で結合する際、必要とする画
像符号化データに対応する音声符号化データを画像符号
化データの再生時間と同じ時間のデータ分だけ取り出せ
れば、各データの結合を行なっていっても編集された多
重化データで画像と音声の同期が最後までとれることに
なる。
【0010】
【発明が解決しようとする課題】しかし、音声符号化デ
ータを画像符号化データの再生時間と同じ時間のデータ
分だけ取り出せなければ、編集された多重化データで画
像と音声の同期が崩れてしまうことになる。
【0011】また、画像音声多重化データを画像符号化
データと音声符号化データに分離し、必要とする画像符
号化データとそれに対応する音声符号化データを記憶保
持することは多くの蓄積資源と時間を要することにな
る。
【0012】
【課題を解決するための手段】上記課題を解決するた
め、本発明は、一つまたは複数の画像音声多重化データ
を編集点で結合する時、前記画像音声多重化データから
必要とする画像符号化データと前記画像符号化データに
対応する前記音声符号化データの表示開始時間の差を記
憶保持し、前記画像符号化データと前記音声符号化デー
タをパケット化する際に前記表示開始時間の差を用いて
時間情報を付加し多重化することで画像音声多重化デー
タの編集を行なうものである。
【0013】また、画像音声多重化データを復号する手
段と、前記画像音声多重化データから必要とする画像符
号化データと前記画像符号化データ部分に対応する音声
符号化データを抽出する手段と、前記画像符号化データ
と前記音声符号化データの表示開始時間の差を記憶保持
する手段と、画像符号化データと音声符号化データをパ
ケット化する手段と、画像パケットと音声パケットに時
間情報とパケットに含まれるデータの情報を付加する手
段と、画像パケットと音声パケットを多重化する手段で
構成する。
【0014】
【発明の実施の形態】これより、本発明の一実施の形態
について図面を用いて説明を行なう。
【0015】(実施の形態1)図1は、本発明の第1の
実施の形態に係る画像音声多重化データ編集装置のブロ
ック図で、図2は本実施の形態における処理の流れを示
すフローチャートである。
【0016】図1に示すように、まず入力画像音声多重
化データ蓄積部101より編集を行なう画像音声多重化
データが画像音声多重化データ復号化部102に入力さ
れる(図2のS201、S202)。この画像音声多重
化データ復号化部102の出力結果である画像データが
画像データ表示部103に入力される。
【0017】必要とする画像符号化データ部分の画像デ
ータが画像データ表示部103に表示されている時に、
画像データ指定部104から抽出開始信号が画像・音声
符号化データ抽出部105に入力されると(図2のS2
03)、画像・音声符号化データ抽出部105では、画
像データ表示部103に表示されている画像符号化デー
タを含む画像パケットに付加されたパケット情報を解析
し、抽出始点となる画像符号化データの表示時間を取り
出し記憶保持する(図2のS204)。
【0018】次に、必要とする画像符号化データ部分の
画像データが画像データ表示部103に表示されている
時に、画像データ指定部104から抽出終了信号が画像
・音声符号化データ抽出部105に入力されると(図2
のS205)、画像・音声符号化データ抽出部106で
は、画像データ表示部103に表示されている画像符号
化データを含む画像パケットに付加されたパケット情報
を解析し、抽出終点となる画像符号化データの表示時間
を取り出し記憶保持する(図2のS206)。
【0019】これらの処理を繰り返すことによって、画
像音声多重化データから結合するために必要とする画像
符号化データを選択し、必要とする画像符号化データの
抽出始点と抽出終点の表示時間を記憶保持していく(図
2のS207)。選択が終了すると、画像・音声符号化
データ抽出部105では、記憶保持された抽出始点と抽
出終点の表示時間を元に各画像符号化データと各画像符
号化データに対応する音声符号化データの抽出を行な
う。
【0020】画像符号化データの抽出において、記憶保
持された抽出始点と終点の表示時間に従って画像パケッ
トに付加されているパケット情報を解析し画像符号化デ
ータのみを抽出し、抽出データ記憶部106に記憶保持
する(図2のS208)。
【0021】音声符号化データの抽出においては、抽出
始点は画像符号化データの抽出始点の表示時間と同時間
か最も近い表示時間となるように音声パケットに付加さ
れているパケット情報を解析して求め、データの長さは
画像符号化データの再生時間と同時間か最も等しくなる
ように音声パケットから音声符号化データのみ抽出し、
抽出データ記憶部106に記憶保持する(図2のS20
9)。
【0022】ここで、画像符号化データと音声符号化デ
ータを抽出する時、画像符号化データと音声符号化デー
タの抽出始点の表示開始時間の差を求め、抽出した符号
化データと関連付けて抽出データ記憶部106に記憶保
持しておく(図2のS210)。
【0023】これらの処理を選択したデータの数だけ繰
り返すことによって、結合するために必要とする画像符
号化データと画像符号化データに対応する音声符号化デ
ータの抽出を行なう(図2のS211)。
【0024】符号化データパケット化部107では、パ
ケット化開始信号が入力されると(図2のS211)、
抽出データ記憶部106に上記処理で記憶保持された画
像符号化データに対して表示時間とパケットに関するデ
ータを付加してパケット化(図2のS212、213)
を行ない、これらの画像パケットデータをパケットデー
タ記憶部108に記憶保持しておく。このとき、画像パ
ケットに付加された画像符号化データの表示開始時間及
び表示終了時間を記憶保持しておく(図2のS21
4)。
【0025】画像符号化データのパケット化が終了する
と、前記処理で記憶保持された画像符号化データの表示
開始時間と抽出データ記憶部106に記憶保持された画
像符号化データとそれに対応する音声符号化データの表
示時間の差を用いて、対応する音声符号化データの表示
開始時間を求め(図2のS215)、新しい音声符号化
データの表示開始時間に対する表示時間とパケットに関
するデータを付加してパケット化(図2のS216)を
行ない、これらの音声パケットデータをパケットデータ
記憶部108に記憶保持しておく。
【0026】画像符号化データと対応する音声符号化デ
ータのパケット化が終了すると、パケットデータ多重化
部109で画像パケットと音声パケットの多重化を行な
い、画像音声多重化データを作成する(図2のS21
7)。ここで、抽出した符号化データをすべてパケット
化をしてなければ、画像符号化データをパケット化する
処理から多重化までの処理を繰り返す(図2のS21
8)。
【0027】これらの処理において、結合点より後ろに
結合される画像符号化データの表示開始時間は、上記処
理中で記憶保持した結合点より前の画像符号化データの
表示終了時間を元に求める(図2のS212)。また、
音声符号化データの表示開始時間については画像符号化
データの表示開始時間を求めた後、上記同じ処理を行な
う(図2のS215)。
【0028】なお、画像データ表示部103を見ながら
必要とする画像符号化データ部分を指定するのではな
く、画像データ指定部104より必要とする画像符号化
データの範囲、画像音声多重化データにおける表示開始
位置及び表示終了位置などを直接入力してもよい。
【0029】この場合、符号化データ抽出部105では
表示開始位置における画像パケットのパケット情報から
表示開始時間と表示終了位置における画像パケットのパ
ケット情報から表示終了時間を取り出す。
【0030】この後の処理は上記に示した処理と同じで
ある。なお、画像符号化データと音声符号化データを1
組づづパケット化し多重化するのではなく、画像符号化
データ及び音声符号化データをすべてパケット化した後
に多重化を行なっても良い。
【0031】この場合は、結合点より後ろの画像符号化
データの表示開始時間を記憶保持しておき、各音声符号
化データの表示開始時間を求めパケットの情報を付加し
ながらパケット化を行なっていく。
【0032】これらパケット化に関する処理以前の処理
は上記に述べた処理(図2のS201〜S211)と同
じで、パケット化処理のあと多重化処理を行なう。
【0033】後の処理は上記で述べたものと同じであ
る。次に、具体的に画像音声多重化データを用いた本実
施の形態における処理の流れを説明する。
【0034】図3に図1の画像音声多重化データ編集装
置を用いる時の画像音声多重化データの構成を示す。
【0035】図3(a)は入力画像音声多重化データ蓄積
部101から入力される画像音声多重化データ構成図で
ある。
【0036】図3中の記号で、VPは画像符号化データ
を含む画像パケット、APは音声符号化データを含む音
声パケット、Vは画像符号化データ、Aは音声符号化デ
ータ、VTは画像符号化データの表示時間、ATは音声
符号化データの表示時間である。
【0037】VP、APの添字は順番で、VT、ATの
添字は画像符号化データ及び音声符号化データに対応し
たものである。
【0038】入力画像音声多重化データ蓄積部101よ
り画像音声多重化データ復号化部102に入力される
(図2のS201、S202)と画像データ表示部10
3に画像データが表示される。
【0039】必要とする画像符号化データが図3(a)の
画像パケットVP2からVP6までに、それに対応する
音声符号化データが音声パケットAP1に含まれていて
るとする。
【0040】画像データ表示部103に図3(a)のVP
2に含まれる画像符号化データV2内の最初の画像が表
示されたとき、画像データ指定部104より抽出開始信
号が画像・音声符号化データ抽出部105に入力される
(図2のS203)。
【0041】この抽出開始信号が入力されると、画像・
音声符号化データ抽出部105はVP2に付加されてい
る画像符号化データV2内の最初の画像の表示時間VT
2を一時保持する(図2のS204)。
【0042】次に画像データ表示部103に図3(a)の
VP6に含まれる画像符号化データVP6内の最後の画
像が表示されたとき、画像データ指定部104より抽出
終了信号が画像・音声符号化データ抽出部105に入力
される(図2のS205のY)。
【0043】この抽出終了信号が入力されると、画像・
音声符号化データ抽出部105はVP6に付加されてい
る画像符号化データV6内の最後の画像の表示時間VT
6を一時保持する(図2のS206)。
【0044】上記の処理を繰り返すこと(図2のS20
7)により、必要とする画像符号化データの選択を行な
い、選択した画像符号化データの開始部分と終了部分の
表示時間を一時保持する。
【0045】選択が終了すると(図2のS207の
N)、画像・音声符号化データ抽出部105では、一時
保持された画像符号化データの開始部分と終了部分の表
示時間に対応する画像符号化データV2からV6を画像
パケットVP2からVP6より抽出し、図3(b)のよう
に画像符号化データとして抽出データ記憶部106に記
憶保持する(図2の208)。
【0046】次に必要とする画像符号化データの抽出及
び記憶が終了すると、抽出された画像符号化データV2
の最初の画像の表示時間VT2と同時間か最も近い表示
時間となり、表示の長さが画像符号化データと同じか最
も等しくなる音声符号化データA1を音声パケットAP
1より抽出し、図3(c)のように音声符号化データとし
て抽出データ記憶部106に記憶保持する(図2の20
9)。
【0047】この時、VT2とA1の表示時間AT1の
差D0(=VT2-AT1)を求め、画像符号化データ
V2からV6と音声符号化データA1とに関連付けて表
示開始時間の差D0を抽出データ記憶部106に記憶保
持する(図2の210)。
【0048】以下同様の処理を選択されたすべての画像
符号化データに対して行ない(図2の211)、抽出さ
れた画像符号化データ(V10からV13、図3(d))
とそれに対応する音声符号化データ(A5、図3(e))
と画像符号化データとそれに対応する音声符号化データ
の表示開始時間(D1=VT10-AT5)の差を抽出
データ記憶部106に記憶保持する。
【0049】符号化データパケット化部107では、パ
ケット化開始信号が入力されると(図2のS211)、
抽出データ記憶部106に上記処理で記憶保持された画
像符号化データV2からV6に対して新しい表示時間と
パケットに関するデータを付加してパケット化(図2の
S212、213)を行ない、これらの画像パケットデ
ータをパケットデータ記憶部108に記憶保持してお
く。このとき、画像符号化データV2からV6の表示開
始時間newVT2及び表示終了時間newVT6を記
憶保持しておく(図2のS214)。
【0050】画像符号化データV2からV6のパケット
化が終了すると、符号化データパケット化部107に記
憶保持されたnewVT2と抽出データ記憶部106に
記憶保持された画像符号化データと対応する音声符号化
データの表示開始時間の差D0を用いて、音声符号化デ
ータA1の表示開始時間newAT1(=newVT2
+D0)を求め(図2のS215)、表示時間とパケッ
トに関するデータを付加してパケット化(図2のS21
6)を行ない、これらの音声パケットデータをパケット
データ記憶部108に記憶保持しておく。
【0051】これらのパケット化が終了すると、パケッ
トデータ多重化部109で画像パケットと音声パケット
の多重化を行ない、画像音声多重化データを作成する
(図2のS217)。
【0052】次に、抽出した符号化データがあるので
(図2のS218)、符号化データパケット化部107
では画像符号化データV10からV13のパケット化を
行なう。画像符号化データV2からV6の時の処理と同
様にして、画像符号化データV10からV13に対して
新しい表示時間とパケットに関するデータを付加してパ
ケット化(図2のS212、213)を行ない、これら
の画像パケットデータをパケットデータ記憶部108に
記憶保持しておく。画像符号化データV10からV13
の表示開始時間は画像符号化データV2からV6の表示
終了時間newVT6に画像1枚の再生時間を足すこと
で求められる。この時、画像符号化データV10からV
13の表示開始時間newVT10及び表示終了時間n
ewVT13を同様に記憶保持しておく(図2のS21
4)。
【0053】画像符号化データV10からV13のパケ
ット化が終了すると、符号化データパケット化部107
に記憶保持されたnewVT10と抽出データ記憶部1
06に記憶保持された画像符号化データと対応する音声
符号化データの表示開始時間の差D1を用いて、音声符
号化データA5の表示開始時間newAT5(=new
VT10+D1)を求め(図2のS215)、表示時間
とパケットに関するデータを付加してパケット化(図2
のS216)を行ない、これらの音声パケットデータを
パケットデータ記憶部108に記憶保持しておく。
【0054】これらのパケット化が終了すると、パケッ
トデータ多重化部109で画像パケットと音声パケット
の多重化を行ない、画像音声多重化データを作成する
(図2のS217)。
【0055】これらの処理によって作成された画像音声
多重化データは図3(f)に示すように編集点で結合さ
れ、画像符号化データと音声符号化データの同期がとれ
たものとなる。
【0056】なお、本実施の形態の入力画像音声多重化
データ蓄積部101に蓄積されている画像音声多重化デ
ータ及び必要とする画像符号化データと対応する音声符
号化データの構成は本発明を説明するための一例であ
り、多重化の構成及び必要とする画像符号化データと音
声符号化データの構成はこの例に限るものではない。
【0057】(実施の形態2)次に、本発明の第2の実
施の形態について説明する。
【0058】図4は本実施の形態に係る画像音声多重化
データ編集装置のブロック図で、図5は本実施形態の画
像音声多重化データ編集装置における処理の流れを示す
フローチャートである。
【0059】図4において、入力画像音声多重化データ
蓄積部101と抽出データ記憶部106及び符号化デー
タ多重化部109が接続されている点が前記実施の形態
1の図1と異なり、他の構成は同じである。
【0060】また、本実施の形態における基本的な処理
の流れは前記実施の形態1の処理の流れと同じである
が、一部異なる処理を行なう。なお図5において図2と
同一の符号を付した処理要素は図2と同一の処理要素を
示している。
【0061】図5に示すように、入力画像音声多重化デ
ータ蓄積部101より編集を行なう画像音声多重化デー
タが画像音声多重化データ復号化部102に入力され、
必要とする画像符号化データを指定し、抽出始点と抽出
終点となる画像符号化データの表示時間を一時保持し、
結合するために必要な画像符号化データの選択する部分
までは図2に示すS201からS207と同様の処理を
行なう(図5のS201からS207)。
【0062】画像符号化データの抽出において、記憶保
持された抽出始点と抽出終点の表示時間に従って画像パ
ケットを解析し、画像音声多重化データにおける画像符
号化データの開始位置と終了位置のみを抽出データ記憶
部106に記憶保持する(図5のS508)。これによ
って必要とする画像符号化データを指定する。
【0063】音声符号化データの抽出においては、前記
実施の形態1では抽出し記憶した音声符号化データ(図
2のS209)の画像音声多重化データにおける開始位
置と終了位置のみを抽出データ記憶部106に記憶保持
する(図5のS509)。これによって対応する音声符
号化データを指定する。
【0064】ここで、画像符号化データと音声符号化デ
ータの開始位置と終了位置を記憶保持する時、画像符号
化データと音声符号化データの抽出始点の表示開始時間
の差を求め、記憶保持した位置データと関連付けて抽出
データ記憶部106に記憶保持しておく(図5のS21
0)。
【0065】これらの処理を選択したデータの数だけ繰
り返すことによって、結合するために必要とする画像符
号化データと画像符号化データに対応する音声符号化デ
ータの選択を行なう(図5のS211)。
【0066】符号化データパケット化部107では、パ
ケット化開始信号が入力されると(図5のS211)、
抽出データ記憶部106に上記処理で指定された画像符
号化データに対して画像パケットに付加される表示時間
とパケットに関するデータをパケットデータ記憶部10
8に記憶保持しておく(図5のS512、513)。こ
のとき、画像符号化データの表示開始時間及び終了時間
を記憶保持しておく(図5のS214)。
【0067】画像符号化データのパケット情報の記憶保
持が終了すると、前記処理で記憶保持された画像符号化
データの表示開始時間と抽出データ記憶部106に記憶
保持された画像符号化データと対応する音声符号化デー
タの表示時間の差を用いて、対応する音声符号化データ
の表示開始時間を求め(図5のS215)、音声符号化
データをパケット化した時に音声パケットに付加される
表示時間とパケットに関するデータをパケットデータ記
憶部108に記憶保持しておく(図5のS516)。
【0068】画像符号化データと対応する音声符号化デ
ータのパケット化に必要なデータの記憶保持が終了する
と、パケットデータ多重化部109では画像パケットと
音声パケットの多重化を行ない、画像音声多重化データ
を作成する(図5のS517)。多重化を行なう際に、
画像パケットに含まれる画像符号化データは抽出データ
記憶部106に記憶保持された画像符号化データの開始
位置と終了位置及びパケットデータ記憶部108に記憶
保持された画像パケットに関する情報を用いて画像音声
多重化データから抽出されることになる。また、音声パ
ケットに含まれる音声符号化データについても同様の処
理を行なう。
【0069】ここで、指定した符号化データをすべてパ
ケット化してなければ、画像符号化データをパケット化
する処理から多重化までの処理を繰り返す(図5のS2
18)。
【0070】なお、前記実施の形態1でも述べたよう
に、画像データ表示部103を見ながら必要とする画像
符号化データ部分を指定するのではなく、画像データ指
定部104より必要とする画像符号化データの範囲、画
像音声多重化データにおける表示開始位置及び表示終了
位置などを直接入力してもよい。
【0071】この場合、符号化データ抽出部105では
表示開始位置における画像パケットのパケット情報から
表示開始時間と表示終了位置における画像パケットのパ
ケット情報から表示終了時間を取り出す。
【0072】この後の処理は上記に示した処理と同じで
ある。なお、画像符号化データと音声符号化データを1
組づづパケット化し多重化するのではなく、画像符号化
データ及び音声符号化データをすべてパケット化した後
に多重化を行なっても良い。
【0073】この場合は、結合点より後ろの画像符号化
データの表示開始時間を記憶保持しておき、各音声符号
化データの表示開始時間を求めパケットの情報を付加し
ながらパケット化を行なっていく。
【0074】これらパケット化に関する処理以前の処理
は上記に述べた処理(図5のS201〜S511)と同
じで、パケット化処理のあと多重化処理を行なう。
【0075】後の処理は上記で述べたものと同じであ
る。次に、具体的に画像音声多重化データを用いた本実
施の形態2における処理の流れを説明する。
【0076】図6に図4の画像音声多重化データ編集装
置を用いる時の画像音声多重化データの構成を示す。
【0077】図6(a)は入力画像音声多重化データ蓄積
部101から入力される画像音声多重化データ構成図で
ある。
【0078】図6中の記号で、VPは画像符号化データ
を含む画像パケット、APは音声符号化データを含む音
声パケット、Vは画像符号化データ、Aは音声符号化デ
ータ、VTは画像符号化データの表示時間、ATは音声
符号化データの表示時間、pは画像音声多重化データに
おける位置を示すものである。
【0079】VP、APの添字は順番で、VT、ATの
添字は画像符号化データ及び音声符号化データに対応し
たものである。
【0080】前記実施の形態1と同様に、必要とする画
像符号化データが図6(a)の画像パケットVP2からV
P6までに、それに対応する音声符号化データが音声パ
ケットAP1に含まれていてるとする。
【0081】図5に示すように、必要とする画像符号化
データの選択までは前記実施の形態1と同じ処理である
(図5のS201からS207)。
【0082】選択が終了すると(図5のS207の
N)、画像・音声符号化データ抽出部105では、一時
保持された画像符号化データの開始部分と終了部分の表
示時間に対応する画像符号化データV2からV6の画像
符号化データの位置を抽出し、図6(b)のように抽出デ
ータ記憶部106に記憶保持する(図5の508)。
【0083】次に必要とする画像符号化データの開始位
置と終了位置の記憶が終了すると、指定されている画像
符号化データV2の最初の画像の表示時間VT2と同時
間か最も近い表示時間となり表示の長さが画像符号化デ
ータと同じか最も等しくなる音声符号化データA1の開
始位置と終了位置を抽出し、図6(c)のように抽出デー
タ記憶部106に記憶保持する(図5の509)。
【0084】この時、VT2とA1の表示時間AT1の
差D0(=VT2-AT1)を求め、画像符号化データ
V2からV6と音声符号化データA1とに関連付けて表
示開始時間の差D0を抽出データ記憶部106に記憶保
持する(図5の210)。
【0085】以下同様の処理を選択されたすべての画像
符号化データに対して行ない(図5の211)、指定さ
れた画像符号化データ(V10からV13、図6(d))
とそれに対応する音声符号化データ(A5、図6(e))
と画像符号化データとそれに対応する音声符号化データ
の表示開始時間(D1=VT10-AT5)の差を抽出
データ記憶部106に記憶保持する。
【0086】符号化データパケット化部107では、パ
ケット化開始信号が入力されると(図5のS211)、
抽出データ記憶部106に上記処理で指定された画像符
号化データV2からV6に対して新しい表示時間を求め
(図5のS512)、パケットに関するデータと共にパ
ケットデータ記憶部108に記憶保持しておく(図5の
S513)。このとき、画像符号化データV2からV6
の表示開始時間newVT2及び表示終了時間newV
T6を記憶保持しておく(図5のS214)。
【0087】画像符号化データV2からV6のパケット
情報の記憶保持が終了すると、符号化データパケット化
部107に記憶保持されたnewVT2と抽出データ記
憶部106に記憶保持された画像符号化データと対応す
る音声符号化データの表示開始時間の差D0を用いて、
音声符号化データA1の表示開始時間newAT1(=
newVT2+D0)を求め(図5のS215)、パケ
ットに関するデータと共にパケットデータ記憶部108
に記憶保持しておく(図5のS516)。
【0088】これらのパケット情報の記憶保持が終了す
ると、パケットデータ多重化部109では、画像パケッ
トに含まれる画像符号化データを抽出データ記憶部10
6に記憶保持された画像符号化データの開始位置と終了
位置及びパケットデータ記憶部108に記憶保持された
画像パケットに関する情報を用いて画像音声多重化デー
タから抽出し画像パケットを作成し、同様にして音声パ
ケットの作成を行ない、画像パケットと音声パケットの
多重化を行ない、画像音声多重化データを作成する(図
5のS517)。
【0089】次に、抽出した符号化データがあるので
(図5の218)、符号化データパケット化部107で
は画像符号化データV10からV13に対して画像符号
化データV2からV6の時の処理と同様にして、新しい
表示開始時間を画像符号化データV2からV6の表示終
了時間newVT6に画像1枚の再生時間を足すことに
よって求め(図5のS212)、この新しい表示開始時
間に対する表示時間とパケットに関するデータと共にパ
ケットデータ記憶部108に記憶保持しておく(図5の
S513)。
【0090】この時、画像符号化データV10からV1
3の表示開始時間newVT10及び表示終了時間ne
wVT13を同様に記憶保持しておく(図5のS21
4)。
【0091】画像符号化データV10からV13のパケ
ット情報の記憶保持が終了すると、符号化データパケッ
ト化部107に記憶保持されたnewVT10と抽出デ
ータ記憶部106に記憶保持された画像符号化データと
対応する音声符号化データの表示開始時間の差D1を用
いて、音声符号化データA5の表示開始時間newAT
5(=newVT10+D1)を求め(図2のS21
5)、この新しい表示開始時間に対する表示時間とパケ
ットに関するデータをパケットデータ記憶部108に記
憶保持しておく(図5のS516)。
【0092】これらのパケット情報の記憶保持が終了す
ると、パケットデータ多重化部109では前記の多重化
処理と同様にして画像パケットと音声パケットの多重化
を行ない、画像音声多重化データを作成する(図5のS
517)。
【0093】これらの処理によって作成された画像音声
多重化データは図6(f)に示すように編集点で結合さ
れ、画像符号化データと音声符号化データの同期がとれ
たものとなり、画像符号化データ及び音声符号化データ
を編集途中で画像音声多重化データより分離して記憶保
持することがないために、蓄積資源と編集時間の削減を
行なうことができる。
【0094】なお、画像符号化データ及び音声符号化デ
ータの開始位置と終了位置の記憶保持の形式は一例であ
り、図6(b)、(d)の例に捕らわれるものではない。
【0095】なお、本実施の形態の入力画像音声多重化
データ蓄積部101に蓄積されている画像音声多重化デ
ータ及び必要とする画像符号化データと対応する音声符
号化データの構成は本発明を説明するための一例であ
り、多重化の構成及び必要とする画像符号化データと音
声符号化データの構成はこの例に限るものではない。
【0096】
【発明の効果】以上説明したように本発明によれば、画
像符号化データとそれに対応する音声符号化データの結
合を行なっても画像と音声の同期がずれることがない画
像音声多重化データを作成することができる。
【0097】また、結合を続けても画像符号化データと
音声符号化データの同期が最後までずれることがなくな
るだけでなく、必要とする画像符号化データとそれに対
応する音声符号化データを画像音声多重化データより編
集を行なっている最中に取り出し記憶保持することがな
いために蓄積資源と編集時間の削減を行なうことができ
る。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の画像音声多重化デー
タ編集装置の構成を示すブロック図
【図2】本発明の第1の実施形態における処理の流れを
示すフローチャート
【図3】本発明の第1の実施形態における画像音声多重
化データの構成図
【図4】本発明の第2の実施形態の画像音声多重化デー
タ編集装置の構成を示すブロック図
【図5】本発明の第2の実施形態における処理の流れを
示すフローチャート
【図6】本発明の第2の実施形態における画像音声多重
化データの構成図
【符号の説明】
101 入力画像音声多重化データ蓄積部 102 画像音声多重化データ復号化部 103 画像データ表示部 104 画像データ指定部 105 画像・音声符号化データ抽出部 106 抽出データ記憶部 107 符号化データパケット化部 108 パケットデータ記憶部 109 パケットデータ多重化部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 動画像をフレーム内符号化、時間的に前
    のフレームとの相関を利用する前方向予測符号化、時間
    的に前のフレームか後のフレームまたは両方のフレーム
    との相関を利用する両方向予測符号化のいずれかまたは
    組み合わせて構成する画像符号化データを、時間情報と
    パケットに含まれるデータの情報を付加してパケット化
    を行なった画像パケットと、 音声を同一の再生時間となる単位で復号できるように符
    号化した音声符号化データに、時間情報とパケットに含
    まれるデータの情報を付加してパケット化を行なった音
    声パケットとを多重化した画像音声多重化データを編集
    する方法であって、 一つのまたは複数の画像音声多重化データを編集点で結
    合する際に、 前記画像音声多重化データから必要とする画像符号化デ
    ータを抽出するとともに、前記抽出した画像符号化デー
    タに対応する音声符号化データを抽出して記憶保持し、 前記抽出した画像符号化データと前記取り出した音声符
    号化データの表示開始時間の差を記憶保持し、 前記抽出した画像符号化データと前記音取り出した声符
    号化データをパケット化する際に前記表示開始時間の差
    を用いて時間情報を付加して多重化することを特徴とす
    る画像音声多重化データ編集方法。
  2. 【請求項2】 画像音声多重化データから抽出した画像
    符号化データおよび音声符号化データを記憶保持する代
    わりに、 前記抽出した画像符号化データを含む画像音声多重化デ
    ータにおける、前記抽出した画像符号化データの位置を
    示す情報と、 前記抽出した音声符号化データを含む画像音声多重化デ
    ータにおける、前記抽出した音声符号化データの位置を
    示す情報とを記憶保持することを特徴とする請求項1記
    載の画像音声多重化データ編集方法。
  3. 【請求項3】 動画像をフレーム内符号化、時間的に前
    のフレームとの相関を利用する前方向予測符号化、時間
    的に前のフレームか後のフレームまたは両方のフレーム
    との相関を利用する両方向予測符号化のいずれかまたは
    組み合わせて構成する画像符号化データを、少なくとも
    時間情報とパケットに含まれるデータの種類を付加して
    パケット化を行なった画像パケットと、 音声を同一の再生時間となる単位で復号できるように符
    号化した音声符号化データに、時間情報とパケットに含
    まれるデータの種類を付加してパケット化を行なった音
    声パケットとを多重化した画像音声多重化データを編集
    する装置であって、 画像音声多重化データを復号する手段と、 前記画像音声多重化データから必要とする画像符号化デ
    ータを抽出するとともに、前記抽出した画像符号化デー
    タに対応する音声符号化データを抽出する手段と、 前記抽出した画像符号化データと前記抽出した音声符号
    化データを記憶保持する手段と、 前記抽出した画像符号化データと前記抽出した音声符号
    化データの表示開始時間の差を記憶保持する手段と、 前記抽出した画像符号化データと前記抽出した音声符号
    化データをパケット化する手段と、 画像パケットと音声パケットに時間情報とパケットに含
    まれるデータの情報を付加する手段と、 画像パケットと音声パケットを多重化する手段とを備え
    た画像音声多重化データ編集装置。
  4. 【請求項4】 抽出した画像符号化データと音声符号化
    データを記憶保持する手段に代えて、 前記抽出した画像符号化データを含む画像音声多重化デ
    ータにおける、前記抽出した画像符号化データの位置を
    示すデータを記憶保持する手段と、 前記抽出した音声符号化データを含む画像音声多重化デ
    ータにおける、前記抽出した音声符号化データの位置を
    示すデータを記憶保持する手段とを備えた請求項3記載
    の画像音声多重化データ編集装置。
JP32640396A 1996-12-06 1996-12-06 画像音声多重化データ編集方法およびその装置 Pending JPH10174065A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32640396A JPH10174065A (ja) 1996-12-06 1996-12-06 画像音声多重化データ編集方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32640396A JPH10174065A (ja) 1996-12-06 1996-12-06 画像音声多重化データ編集方法およびその装置

Publications (1)

Publication Number Publication Date
JPH10174065A true JPH10174065A (ja) 1998-06-26

Family

ID=18187411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32640396A Pending JPH10174065A (ja) 1996-12-06 1996-12-06 画像音声多重化データ編集方法およびその装置

Country Status (1)

Country Link
JP (1) JPH10174065A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1369870A1 (en) * 2001-05-25 2003-12-10 Matsushita Electric Industrial Co., Ltd. INFORMATION SIGNAL EDITION APPARATUS, INFORMATION SIGNAL EDITION METHOD, AND INFORMATION SIGNAL EDITION PROGRAM
US7088776B2 (en) * 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7339991B2 (en) 2002-07-24 2008-03-04 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements of division operations
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
KR101298632B1 (ko) * 2011-12-30 2013-08-21 신수재 위치 정보에 기초하여 오디오 서비스를 제공하는 시스템의 제어 방법 및 모바일 디바이스

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7664375B2 (en) 2001-05-25 2010-02-16 Panasonic Corporation Information signal edition apparatus, information signal edition method, and information edition program
EP1369870A4 (en) * 2001-05-25 2004-07-28 Matsushita Electric Ind Co Ltd DATA SIGNAL EDITING DEVICE, DATA SIGNAL EDITING METHOD, AND DATA SIGNAL EDITING PROGRAM
EP1369870A1 (en) * 2001-05-25 2003-12-10 Matsushita Electric Industrial Co., Ltd. INFORMATION SIGNAL EDITION APPARATUS, INFORMATION SIGNAL EDITION METHOD, AND INFORMATION SIGNAL EDITION PROGRAM
US7668240B2 (en) 2002-07-15 2010-02-23 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US10154277B2 (en) 2002-07-15 2018-12-11 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7548584B2 (en) 2002-07-15 2009-06-16 Apple Inc. Using order value for computing motion vector
US7551674B2 (en) 2002-07-15 2009-06-23 Apple Inc. Using order difference for calculating motion vector
US7292636B2 (en) 2002-07-15 2007-11-06 Apple Inc. Using order value for processing a video picture
US8837580B2 (en) 2002-07-15 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7826528B2 (en) 2002-07-15 2010-11-02 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7903730B2 (en) 2002-07-15 2011-03-08 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9838707B2 (en) 2002-07-15 2017-12-05 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9516337B2 (en) 2002-07-15 2016-12-06 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US9204161B2 (en) 2002-07-15 2015-12-01 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US7088776B2 (en) * 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8837597B2 (en) 2002-07-15 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
US8934546B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8942287B2 (en) 2002-07-24 2015-01-27 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8885732B2 (en) 2002-07-24 2014-11-11 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8934547B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8934551B2 (en) 2002-07-24 2015-01-13 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US7339991B2 (en) 2002-07-24 2008-03-04 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements of division operations
US8938008B2 (en) 2002-07-24 2015-01-20 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8837603B2 (en) 2002-07-24 2014-09-16 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8953693B2 (en) 2002-07-24 2015-02-10 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8009736B2 (en) 2002-07-24 2011-08-30 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US9554151B2 (en) 2002-07-24 2017-01-24 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8009737B2 (en) 2002-07-24 2011-08-30 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US10123037B2 (en) 2002-07-24 2018-11-06 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
KR101298632B1 (ko) * 2011-12-30 2013-08-21 신수재 위치 정보에 기초하여 오디오 서비스를 제공하는 시스템의 제어 방법 및 모바일 디바이스

Similar Documents

Publication Publication Date Title
US20010050958A1 (en) Decoding method and apparatus and recording method and apparatus for moving picture data
WO2006137425A1 (ja) オーディオ符号化装置、オーディオ復号化装置およびオーディオ符号化情報伝送装置
US8676038B2 (en) Recording/reproducing apparatus, recording apparatus, reproducing apparatus, recording method, reproducing method and computer program
JPH10174065A (ja) 画像音声多重化データ編集方法およびその装置
JP4835645B2 (ja) 音声符号化方法及び音声復号方法
JP4367450B2 (ja) 音声信号伝送方法及び音声信号復号方法
JP2822940B2 (ja) 動画像音声データ編集装置
JPH08191434A (ja) 動画/音声符号化データ多重化方法及び動画/音声符号化データ多重化装置
JP3865257B2 (ja) 音声符号化方法及び音声復号方法
JPH1175155A (ja) 画像と音声の再生装置
JP3856330B2 (ja) 音声符号化方法及び音声復号方法
JP3864985B2 (ja) 音声符号化方法及び音声復号方法
JP3856327B2 (ja) 音声符号化方法及び音声復号方法
JP3865254B2 (ja) 音声符号化方法及び音声復号方法
JP3856331B2 (ja) 音声符号化方法及び音声復号方法
JP3856333B2 (ja) 音声符号化方法及び音声復号方法
JP3865256B2 (ja) 音声符号化方法及び音声復号方法
JP3856334B2 (ja) 音声符号化方法及び音声復号方法
JP3864984B2 (ja) 音声符号化方法及び音声復号方法
JP3865258B2 (ja) 音声符号化方法及び音声復号方法
JP3856332B2 (ja) 音声符号化方法及び音声復号方法
JP3856325B2 (ja) 音声符号化方法及び音声復号方法
JPH09147496A (ja) オーディオ復号装置
JP4367451B2 (ja) 音声信号伝送方法及び音声信号復号方法
JP4148259B2 (ja) 音声符号化方法及び音声復号方法