JP2003169296A - 動画像の再生方法 - Google Patents

動画像の再生方法

Info

Publication number
JP2003169296A
JP2003169296A JP2001364067A JP2001364067A JP2003169296A JP 2003169296 A JP2003169296 A JP 2003169296A JP 2001364067 A JP2001364067 A JP 2001364067A JP 2001364067 A JP2001364067 A JP 2001364067A JP 2003169296 A JP2003169296 A JP 2003169296A
Authority
JP
Japan
Prior art keywords
image
output time
moving image
time information
code string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001364067A
Other languages
English (en)
Inventor
Makoto Yasuda
誠 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001364067A priority Critical patent/JP2003169296A/ja
Publication of JP2003169296A publication Critical patent/JP2003169296A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

(57)【要約】 【課題】 動きのある画像でも、画像スキップや画像フ
リーズが発生するような、画像が音声に対して進みすぎ
及び遅れすぎの状態でも、動画像のぎくつきの目立たな
い滑らかな再生画像を実現する。 【解決手段】 画像処理手段12は、画像スキップや画
像フリーズの際に、単純にフレーム間引きや繰り返し表
示を行うのでなく、画像フリーズ及び画像スキップする
画像近傍の複数のフィールドを用いて新たに出力画像を
合成し生成して表示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、蓄積記憶装置に格
納された動画像を再生する際に用いる動画像の再生方法
に関するものである。
【0002】
【従来の技術】近年、情報化社会の急速な進展に伴い、
時間や距離の壁を越え動画像を他者に伝えたいという要
望が高まっている。ディジタル技術の本格的な実用化の
時代を迎え、動画像を記録再生装置、パソコンやホーム
サーバーといった装置で記録・再生したり、インターネ
ットをはじめとする通信網を用いて遠距離間を伝送する
ことが可能になってきた。また、放送の分野において
も、テレビジョンをはじめとする動画像に対して、ディ
ジタル技術を用いた伝送及び符号化方式の採用が行われ
ている。
【0003】ディジタル信号の動画像や音声信号は、ア
ナログ信号のまま処理する場合と比較して、柔軟な処理
形態が採用できるため、高品質化、高信頼性化が実現で
きるという特長がある一方で、ディジタル化したそのま
まの状態では一般に符号量が膨大になるため、効率よく
記録および伝送するためには、高能率符号化技術の利用
が必須とされており、符号化装置や復号化装置がすでに
実用に供されている。
【0004】このような高能率符号化技術として、通称
MPEG規格(Moving Picture Experts Group)と呼ばれ
る「インフォメーション・テクノロジー ジェネリック
・コーディング・オブ・ムービング・ピクチャーズ・ア
ンド・アソシエーティッド・オーディオ・フォー・ディ
ジタル・インフォメーション」(Information technol
ogy - Generic coding of moving pictures and associ
ated audio for digital information(ISO/IEC13818-
2))に記述の方法に準じた方法が用いられることがあ
る。
【0005】CD(コンパクト・ディスク)に動画像を
記録したビデオCDや、ビデオCDよりもより高画質で
長時間の動画像を記録したDVDは、その応用例のひと
つである。
【0006】一般に、動画像の復号化装置では、単に動
画像を逐次復号して提示するだけでなく、予め決められ
た基準時間軸に沿って、画像の遅れ・進みを微調整し、
適正な出力時間に画像を提示する、いわゆる同期再生の
機能が必須である。
【0007】その一例として、音声と同一のビットスト
リーム中に多重化された動画像を、復号したのち順次出
力する際に、音声と同期して出力する、いわゆる「リッ
プ・シンク(lip sync)」がある。この場合、基準時間は
音声信号の出力時間とし、動画像をそれに合わせて、出
力時間を調整することが多く、従来例として、特開平8
−251543号公報に開示された方法がある。
【0008】以下、上述の方法を用いた従来の動画像の
再生方法について説明する。
【0009】はじめに、対象となる動画像としてMPE
G規格を想定し、その動画像の符号化方法及びビットス
トリームの構造について説明する。
【0010】MPEG規格では、図8に示すように、動
画像は一続きのフレーム700から構成されると想定
し、(A)に示すように、シーケンスと呼ばれる一連の
フレーム群500を符号化する。シーケンスは、グルー
プ・オブ・ピクチャーズと呼ばれる、通常0.5秒程度
ごとの一連の画像フレーム群600に分割して符号化さ
れている。
【0011】GOPは、一例として(B)に模式的に示
すように、自分自身のフレームのみのデータを用いて符
号化したI(intra)フレーム、時間的に前のフレーム
(Iフレーム及びPフレーム)のデータから予測符号化
が可能なP(predictive)フレーム、時間的に前及び後ろ
のIフレーム及びPフレームから内挿予測符号化が可能
なB(bi-directionally predictive)フレームから構成
される。
【0012】尚、各フレームはピクチャと呼ばれ、I、
PおよびBの種別は、ピクチャタイプと呼ばれる。ピク
チャタイプに付属する数字は、フレーム番号でそのGO
P内の表示順番を表している。
【0013】各フレーム内の構造を(D)に示す。ピク
チャは、1個以上のスライスと呼ばれる画面上で帯状の
一続きの領域から構成され、さらにスライスは、1個以
上のマクロブロックと呼ばれる横16画素*縦16ライ
ンの画像ブロック800から構成される。
【0014】マクロブロックは、(E)及び(F)に示
すようにブロックと呼ばれる横8画素*縦8ラインの画
像ブロック複数個から成り、一例として輝度信号(Y)の
ブロック4個と、2系統の色信号(Cb,Cr)それぞれ1個
のブロックから構成される。この場合、色信号は原画像
を縦、横ともに輝度信号に対して半分の解像度でサンプ
リングされている。
【0015】マクロブロック以下の階層では、符号化時
に選択されたマクロブックの予測モード情報、動き補償
予測に用いる動きベクトル、符号化されたDCT係数情
報などの情報が存在する。これらのマクロブロック層以
下の各情報の符号化には、可変長符号が用いられてお
り、出現頻度が高いものほど短い符号を割り当てること
で、ビットストリームの大半を占めるマクロブロック層
の情報を効率的に符号化している。
【0016】以上のように、構成された全階層の情報
は、(C)に示すように、復号化装置側で順番に正しく
デコードできるように符号化順に並び変えられて、各フ
レームに各階層の符号化情報を保持するヘッダやエクス
テンションと呼ばれる階層情報とともに配置され、ビッ
トストリームを構成する。
【0017】次に、MPEGビットストリームにおけ
る、同期再生を実現する動画像の再生方法について、図
6、図7を用いて説明する。
【0018】図6は、従来の動画像の再生方法を用いた
再生装置の構成を示すブロック図である。ここで、10
は入力端子、11は分離手段、12は画像処理手段、1
3は音声処理手段、14は制御手段、15及び16は出
力端子である。
【0019】最初に、入力端子10にMPEG規格を用
いて符号化された音声と動画像を多重化したビットスト
リーム(以下、プログラムストリームと呼ぶ。)が入力
されると、分離手段11において、画像用ビットストリ
ームと音声用ビットストリームに分離され、それぞれ画
像処理手段12と音声処理手段13に入力される。
【0020】この際、分離手段11から出力される画像
用ストリームと音声用ビットストリームは、それぞれ画
像のみ及び音声のみの符号データをストリーム中に含む
単一のビットストリームで、その中に画像及び音声の出
力時間に関する時刻情報PTS(Presentation Time Sta
mp)が通常周期的にヘッダとして埋め込まれている。
【0021】PTSは、画像や音声の再生時の提示時間
を表し、それが挿入されたビットストリーム内位置の近
傍のデータが復号後実際に出力されるべき時間を表し、
値が増加する方向が、時間軸上で未来方向に対応する。
以下では、特に画像のPTSをVPTS(Video PTS)、
音声のPTSをAPTS(Audio PTS)と区別して記す。
【0022】1個のVPTSは、1フレームに対して規
定されているが、一般には、VPTSは0.5秒程度毎
に1個出現するのみであるため、通常全てのフレームに
VPTSが付いていることはなく、その結果、VPTS
が存在しないフレームが存在する可能性が高い。これら
のフレームについては、VPTSが確定したフレームを
起点として、動画像のフレームレートに対応した1フレ
ーム時間だけ増えて行くように外挿して求め、VPTS
として確定する。以上のことは、音声についても同様な
ことが多い。
【0023】画像処理手段12では、MPEGビデオ規
格で符号化された符号データが復号されて、出力端子1
5から動画像が出力されると同時に、復号化された画像
のVPTSが内部で計算され、VPTSが出力される。
【0024】音声処理手段13では、MPEGオーディ
オ規格で符号化された符号データが復号されて、出力端
子16から音声データが出力されると同時に、復号され
た音声のAPTSが内部で計算され、APTSが出力さ
れる。
【0025】制御手段14では、画像処理手段12で求
められたVPTSと音声処理手段13で求められたAP
TSを入力とし、それらを後述する方法で画像処理手段
12に対して、必要に応じて画像スキップまたは画像フ
リーズを指示する。
【0026】次に、制御手段14における処理内容を、
図7を用いて説明する。図7は、表示における1フレー
ム処理ごとの処理フローを示している。
【0027】まず、各フレームの処理ごとに、VPTS
とAPTSの差分が、ある決められた閾値Nと比較され
る(処理70)。これは、動画像と音声のずれが時間N
より大きいかどうかの比較であり、大きくなければ終了
となる。これは、画像と音声の同期再生が順調に行われ
ている状態であって、とりわけ時間合わせのための措置
を行う必要がない状態に対応する。
【0028】一方、処理70の結果、VPTSとAPT
Sの差分が時間N以上の場合は、画像と音声の同期再生
がうまく行われていない状態に対応する。そこで、次に
VPTSとAPTSが比較され(処理71)、VPTS
の方が大きければ、画像が進み過ぎていると判断され、
画像処理手段12に画像フリーズが指示されて(処理7
2)、終了となる。
【0029】画像フリーズとは、同じ画像を複数回繰り
返して表示することであり、当然画像は次に進まず、そ
の結果、VPTSは一定値を保つこととなり、その間A
PTSが増加することが期待され、画像が音声より進み
すぎている状態が解消される機会が与えられることにな
る。
【0030】また、処理71の結果、VPTSの方が小
さければ画像が遅れ過ぎていると判断され、次に、現在
のフレームのピクチャタイプが取得される(処理7
3)。このピクチャタイプの結果が判定されて(処理7
4)、Bフレームであれば、画像処理手段12に画像ス
キップが指示されて(処理75)、終了となる。
【0031】処理74の結果、IまたはPフレームであれ
ば、終了する。
【0032】この場合、画像スキップとは、現在処理中
の画像を再生画像として表示せず、次のフレームの再生
処理に移行することであり、その結果、当然画像は次に
進むため、VPTSはその進んだフレームの時間分だけ
増加することとなり、VPTSがAPTSよりも速い速
度で増加することが期待され、画像が音声より遅れすぎ
ている状態が解消される機会が与えられることになる。
【0033】以上のようにして、時間N、VPTSとA
PTSの大小関係、ピクチャタイプを参照して、画像フ
リーズ及び画像スキップを指示することで、動画像と音
声の同期再生を実現している。
【0034】
【発明が解決しようとする課題】しかしながら、上記従
来の構成では、画像が音声より進みすぎている状態を解
消するために、一連の画像の中で画像のフリーズ状態が
発生するが、元の動画像に動きがある場合、一連のフレ
ームの中で唯一静止する箇所ができるため、その静止画
像の前後において動きの連続性が失われる結果、ぎくつ
きが目立ち、なめらかな動画像が得られない、という課
題があった。
【0035】また、以上の構成では、通常再生の際に、
画像が音声より遅れすぎている状態を解消するために画
像スキップが発生するが、元の動画像に動きがある場
合、一連の画像の中から少なくとも1枚のフレームが完
全に欠落する結果、その欠落した画像の前後において動
きの連続性が失われ、ぎくつきが目立ち、なめらかな動
画像が得られない、という課題があった。
【0036】本発明は、かかる点に鑑み、動きのある動
画像においても、再生画像のぎくつきの目立たない、な
めらかな動画像を得ることができる動画像の再生方法を
提供することを目的とする。
【0037】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、少なくとも、動画像を連続した複数の画
像群に分割し、前記画像群ごとに画像符号化処理して得
た第1の符号列と、音声を符号化処理して得た第2の符
号列を多重化した第3の符号列を入力とし、前記第3の
符号列を復号処理して復号画像を得る動画像の再生方法
であって、前記動画像の出力時刻を表す画像出力時刻情
報と前記音声の出力時刻を表す音声出力時刻情報を計算
し、前記画像出力時刻情報が前記音声出力時刻情報に比
較して所定量以上進んでいる場合、前記動画像の現復号
画像と前記現復号画像に表示順で隣接する2画像を平均
化して得た合成画像を出力することを特徴とする。
【0038】また、本発明は、少なくとも、動画像を連
続した複数の画像群に分割し、前記画像群ごとに画像符
号化処理して得た第1の符号列と、音声を符号化処理し
て得た第2の符号列を多重化した第3の符号列を入力と
し、前記第3の符号列を復号処理して復号画像を得る動
画像の再生方法であって、前記動画像の出力時刻を表す
画像出力時刻情報と前記音声の出力時刻を表す音声出力
時刻情報を計算し、前記画像出力時刻情報が前記音声出
力時刻情報に比較して所定量以上遅れている場合、前記
動画像の現復号画像に表示順で隣接する隣接画像は出力
しない代わりに前記隣接画像と前記現復号画像を平均化
して得た合成画像を出力することを特徴とする。
【0039】また、本発明は、少なくとも、動画像を連
続した複数の画像群に分割し、前記画像群ごとに画像符
号化処理して得た第1の符号列と、音声を符号化処理し
て得た第2の符号列を多重化した第3の符号列を入力と
し、前記第3の符号列を復号処理して復号画像を得る動
画像の再生方法であって、前記動画像の出力時刻を表す
画像出力時刻情報と前記音声の出力時刻を表す音声出力
時刻情報を計算し、前記画像出力時刻情報が前記音声出
力時刻情報に比較して所定量以上遅れている場合、前記
動画像の現復号画像に表示順で時間的に過去方向に隣接
する前方隣接画像と未来方向に隣接する後方隣接画像よ
り選択した得たフィールド画像を組み合わせて得た合成
画像を出力することを特徴とする。
【0040】また、本発明は、少なくとも、動画像を連
続した複数の画像群に分割し、前記画像群ごとに画像符
号化処理して得た第1の符号列と、音声を符号化処理し
て得た第2の符号列を多重化した第3の符号列を入力と
し、前記第3の符号列を復号処理して復号画像を得る動
画像の再生方法であって、前記動画像の出力時刻を表す
画像出力時刻情報と前記音声の出力時刻を表す音声出力
時刻情報を計算し、前記画像出力時刻情報が前記音声出
力時刻情報に比較して所定量以上進んでいる場合は、前
記動画像の現復号画像と前記現復号画像に隣接する2画
像を平均化して得た合成画像を出力し、遅れている場合
は、前記動画像の現復号画像に表示順で隣接する隣接画
像は出力しない代わりに前記隣接画像と前記現復号画像
を平均化して得た合成画像を出力することを特徴とす
る。
【0041】また、本発明は、少なくとも、動画像を連
続した複数の画像群に分割し、前記画像群ごとに画像符
号化処理して得た第1の符号列と、音声を符号化処理し
て得た第2の符号列を多重化した第3の符号列を入力と
し、前記第3の符号列を復号処理して復号画像を得る動
画像の再生方法であって、前記動画像の出力時刻を表す
画像出力時刻情報と前記音声の出力時刻を表す音声出力
時刻情報を計算し、前記画像出力時刻情報が前記音声出
力時刻情報に比較して所定量以上進んでいる場合は、前
記動画像の現復号画像と前記現復号画像に隣接する2画
像を平均化して得た合成画像を出力し、遅れている場合
は、前記動画像の現復号画像に表示順で時間的に過去方
向に隣接する前方隣接画像と未来方向に隣接する後方隣
接画像より選択した得たフィールド画像を組み合わせて
得た合成画像を出力することを特徴とする。
【0042】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を用いて説明する。なお、以下の各図において
同一部には同一符号を付して詳細な説明は省略する。
【0043】(第1の実施の形態)図1は、本発明の第
1の実施の形態に係る再生装置の構成を示すブロック図
である。図1において、図6と異なるのは、制御手段1
4が制御手段17に置き換えられている点であり、他は
同じものとする。以下、第1の実施の形態の動作を説明
する。
【0044】最初に、入力端子10にプログラムストリ
ームが入力されると、分離手段11において、画像用ビ
ットストリームと音声用ビットストリームに分離され、
それぞれ画像処理手段12と音声処理手段13に入力さ
れる。
【0045】画像処理手段12では、MPEGビデオ規
格で符号化された符号データが復号されて、出力端子1
5から動画像が出力されると同時に、復号された画像の
VPTSが内部で計算され、VPTSが出力される。
【0046】音声処理手段13では、MPEGオーディ
オ規格で符号化された符号データが復号されて、出力端
子16から音声データが出力されると同時に、復号され
た音声のAPTSが内部で計算され、APTSが出力さ
れる。
【0047】画像処理手段12で求められたVPTS
と、音声処理手段13で求められたAPTSは、制御手
段17に入力され、後述するように画像処理手段12に
指示する。
【0048】図2を用いて、制御手段17における処理
内容を説明する。図2は、表示における1フレーム処理
ごとの処理フローを示している。
【0049】まず、フレームの処理ごとに、VPTSと
APTSの差分が、ある決められた閾値Nと比較される
(処理20)。これは、画像と音声のずれが時間N以上よ
り大きいかどうかの比較であり、大きくなければ終了と
なる。これは、画像と音声の同期再生が順調に行われて
いる状態であって、とりわけ時間合わせのための措置を
行う必要がない状態に対応する。
【0050】時間Nとしては、一例として、動画像のフ
レームレートより求まる1フレームの出力時間、すなわ
ちNTSCテレビ方式であれば、1/29.97Hz=0.
033秒とする。また、すぐに同期状態に引き込みを開
始しないようにあそびを持たせる目的で、それより大き
い値を採用してもよい。
【0051】処理20の結果、VPTSとAPTSの差
分が時間Nの場合は、画像と音声の同期再生がうまく行
われていない状態に対応する。そこで、次にVPTSと
APTSが比較され(処理21)、VPTSの方が大き
ければ、画像が進み過ぎていると判断され、画像処理手
段12に対して後述する画像フリーズ用合成フレームの
作成を指示する(処理22)。その後、表示順で、前の
フレーム、合成フレーム、現在のフレームの順に画像表
示を行うように画像処理手段12に指示し(処理2
3)、終了となる。
【0052】一方、処理21の結果、VPTSの方が小
さければ、画像が遅れ過ぎていると判断され、画像処理
手段12に、後述する画像スキップ用合成フレームの作
成を指示する(処理24)。その後、合成フレームの画
像表示は行うが、前後の画像については表示を行わない
ように、画像処理手段12に指示し(処理25)、終了
となる。
【0053】ここで、画像フリーズ用合成フレーム及び
画像スキップ用合成フレームと呼ぶものは、現在処理中
のフレームとその近傍のフレームについて、それらを構
成するフィールドを用いて新たに合成して生成したフレ
ームを指しており、以下にてそれらの詳細を説明する。
【0054】最初に、フレームを構成するフィールドに
ついて、図3を用いて説明する。図3において、(A)に
示すように、フレーム200は、mライン(mは偶数)
から成る画像とする。1つのフレームは、2つのフィー
ルドから成る。
【0055】すなわち、(B)に示すように、トップフィ
ールド画像210とボトムフィールド画像220から成
り、どちらも(m/2)ラインから成る。ここで、図中
のハッチングのかかった部分が、そのフィールドに含ま
れる有効なデータである。
【0056】すなわち、トップフィールド画像210
は、空間的にボトムフィールド画像よりも1ライン上か
ら始まり、上から1,3,5,..., (m−1)番目のライン
の画像データを含み、ボトムフィールド画像220は、
同様に、2,4,6,...,m番目のラインの画像データを
含む。
【0057】次に、フレームの表示出力順序について2
種類あることを説明する。一般に、通常のNTSCテレ
ビ放送受像機のようなインターレース表示装置では、1
フレームを一時にスクリーンに表示することはできず、
1フィールドずつ順に提示しており、当然フィールドの
表示出力順序として、2種類存在することになる。
【0058】ここでは、最初に出力される方を第1フィ
ールドと呼び、次に出力される方を第2フィールドと呼
ぶことにする。注意を要するのは、トップかボトムかと
いう区別は、空間的な位置に関して着目したものであ
り、第1フィールドか第2フィールドかという区別は、
フィールドの出力順序に関して着目したものであること
である。
【0059】以上のように、フレームの出力の仕方とし
て、トップフィールドが第1フィールドであるトップフ
ィールドファースト(以下、TFFと記す。)と、ボト
ムフィールドが第1フィールドであるボトムフィールド
ファースト(以下、BFFと記す。)の2種類が存在す
ることになる。
【0060】図3では、それらを模式的に記しており、
図中の(D)に示すような丸印が各フィールドを表し、傾
斜して配置・記載されることにより、2つのうちどちら
のフィールドが先に出力されるか(すなわち、どちらが
第1フィールドか)を表している。この2つのフィール
ドを含んでいる囲み線は、これらの2つのフィールドが
同一のフレームに属することを表している。
【0061】以上のことを踏まえて、以下では、画像フ
リーズ用合成フレーム及び画像スキップ用合成フレーム
について、図4を用いて説明する。まず、画像が音声に
対して進んでいる場合について説明する。
【0062】図4において、(A)は、TFFのフレーム
が連続するシーケンスの例であり、図中で1a,1b,1
c,1dは、復号化して得た表示順で連続するTFFの
フレーム群を表す。
【0063】現在処理中のフレームを1cとすると、処
理22において画像フリーズ用合成フレームの作成が指
示された場合、フレーム1bの第1フィールドとフレー
ム1cの第1フィールドを平均化したものを第1フィー
ルドとし、フレーム1bの第2フィールドとフレーム1
cの第2フィールドを平均化したものを第2フィールド
となるように組み合わせて合成した、新たなフレーム
(フレーム11e)を生成する。そして、表示順で画像
フレーム1b,11e,1cとなるように表示する(処理
23にて行われる)。
【0064】尚、(B)は、BFFのフレームが連続す
るシーケンスの例であり、現在処理中のフレームを1c
とすると、画像フリーズ用合成フレームとしてフレーム
12eが作成されるのは、(A)のTFFの場合と同様で
ある。
【0065】すなわち、フレーム1cを1枚表示する代
わりに、合成フレーム11eの1枚とその前後のフレー
ムの合計3枚を表示することで、画像が進んでいる状態
を解消する方向に作用させることができる。ここで、画
像が進んでいる場合に作成する合成フレームを、画像フ
リーズ用合成画像フレームと呼んでいる。
【0066】次に、画像が音声に対して遅れている場合
について説明する。図4において、(C)は、TFFのフ
レームが連続するシーケンスの例であり、現在処理中の
フレームを1cとすると、処理24において画像スキッ
プ用合成フレームの作成が指示された場合、フレーム1
bの第1フィールドとフレーム1cの第2フィールド
を、それぞれ新たなフレームの第1フィールドと第2フ
ィールドとなるように組み合わせて合成し(画像フレー
ム21e)、それを表示する(処理25)。
【0067】すなわち、画像フレーム1b及び1cの合
計2枚を表示する代わりに、合成フレーム21eを1枚
表示することで、画像が遅れている状態を解消する方向
に作用させることができる。ここで、画像が遅れている
場合に作成する合成フレームを、画像スキップ用合成フ
レームと呼んでいる。
【0068】尚、(D)は、BFFのフレームが連続す
るシーケンスの例であり、1a,1b,1c,1dは、表
示順で連続するBFFのフレーム群を表し、現在処理中
のフレームを1cとすると、画像スキップ用合成フレー
ムとしてフレーム21eが作成されるのは、(C)のTF
Fの場合と同様である。
【0069】以上のようにして、時間N、VPTSとA
PTSの大小関係を参照して、制御手段17が画像処理
手段12に対して、画像フリーズ用合成フレーム及び画
像スキップ用合成フレームの作成と表示を指示すること
で、画像と音声の同期再生を実現する。
【0070】以上で述べたように、画像が音声に対して
進みすぎている場合、元の動画像に動きがある場合で
も、表示順で隣接する2枚の異なるフレームを構成する
フィールドを用いて平均化して得た2フィールドから成
る新たなフレームを生成し、合成フレームとして表示す
るため、元の動画像において静止する箇所がなくなり、
画像のぎくつきが目立たず、滑らかな動画像が得られる
という効果が得られる。
【0071】また、画像が音声に対して遅れすぎている
場合、元の動画像に動きがある場合でも、表示順で隣接
する2枚の異なるフレームを構成するフィールドより2
フィールドを組み合わせて合成して新たな合成フレーム
として表示するため、元の動画像においてどの1フレー
ムに含まれる動きも完全に欠落することがなくなり、画
像のぎくつきが目立たず、滑らかな動画像が得られると
いう効果が得られる。
【0072】(第2の実施の形態)次に、本発明の第2
の実施の形態であるが、第1の実施の形態と異なるの
は、制御手段17の動作が異なる点であり、その処理フ
ローを図5に示す。図5における符号は、図2と同様で
あるが、唯一処理24が処理50に置き換わる点が異な
る。以下では、処理50について説明する。
【0073】画像が音声に対して進んでいる場合につい
ては、第1の実施の形態の場合と変わりはないが、画像
が音声に対して遅れている場合については動作が異な
る。
【0074】図4において、(E)は、TFFのフレーム
が連続するシーケンスの例であり、現在処理中のフレー
ムを1cとすると、処理50において作成される画像ス
キップ用合成フレーム31eが、(A)における合成フ
レーム11eと同様に平均化されたものである点が異な
る。
【0075】この場合でも、画像フレーム1b及び1c
の合計2枚を表示する代わりに、合成フレーム31eを
1枚表示することで、画像が遅れている状態を解消する
方向に作用させることができる。
【0076】同様に、(F)は、BFFのフレームが連続
するシーケンスの例であり、現在処理中のフレームを1
cとすると、処理50において作成される画像スキップ
用合成フレーム32eが、(A)における合成フレーム
12eと同様に平均化されたものである点が異なる。
【0077】以上のようにして、時間N、VPTSとA
PTSの大小関係を参照して、制御手段17が画像処理
手段12に対して、画像フリーズ用合成フレーム及び画
像スキップ用合成フレームの作成と表示を指示すること
で、画像と音声の同期再生を実現する。
【0078】以上で述べたように、画像が音声に対して
遅れすぎている場合、元の動画像に動きがある場合で
も、表示順で隣接する2枚の異なるフレームを構成する
フィールドを用いて平均化して得た2フィールドから成
る新たなフレームを生成し、合成フレームとして表示す
るため、元の動画像においてどの1フレームに含まれる
動きも完全に欠落することがなく画像のぎくつきが目立
たず、滑らかな動画像が得られるという効果が得られ
る。
【0079】また、画像が音声に対して進みすぎている
場合、元の動画像に動きがある場合でも、表示順で隣接
する2枚の異なるフレームを構成するフィールドを用い
て平均化して得た2フィールドから成る新たなフレーム
を生成し、合成フレームとして表示するため、元の動画
像において静止する箇所がなくなり、画像のぎくつきが
目立たず、滑らかな動画像が得られるという効果が得ら
れる点は、第1の実施の形態と同様である。
【0080】尚、以上のすべての実施の形態において、
画像ビットストリームの符号化方法として、MPEG規
格の下位規格である国際標準規格「インフォメーション
・テクノロジー コーディング・オブ・ムービング・ピ
クチャーズ・アンド・アソシエーティッド・オーディオ
・フォー・ディジタル・ストレージ・メディア・アット
・アップ・トゥ・アバウト・1.5Mbits」(Informatio
n Technology -Codingof moving pictures and associa
ted audio for digital storage media at upto about
1,5Mbits/s(ISO/IEC11172-2))や、上位規格である国
際標準規格「インフォメーション・テクノロジー コー
ディング・オブ・オーディオビジュアル・オブジェク
ツ」(Information Technology -Coding of audio-visu
al objects (ISO/IEC14496-2))を採用した復号化方法
にも適用できる。
【0081】尚、以上のすべての実施の形態において、
動画像がMPEG規格にて符号化されたものに限定する
ものでなく、ある決められたアルゴリズムにしたがって
復号処理して画像データを得る符号化方式に適用でき
る。
【0082】また、以上のすべての実施の形態におい
て、音声がMPEG規格にて符号化されたものに限定す
るものでなく、ある決められたアルゴリズムにしたがっ
て復号処理して音声データを得る符号化方式に適用でき
る。
【0083】また、以上のすべての実施の形態におい
て、画像と音声は、MPEG規格にて多重化されたもの
に限定するものでなく、ある決められたアルゴリズムに
したがって多重化処理する符号化方式に適用できる。
【0084】
【発明の効果】以上のように、本発明によれば、画像が
音声に対して進みすぎている場合、元の動画像に動きが
ある場合でも、表示順で隣接する2枚の異なるフレーム
を構成するフィールドを用いて平均化して得た2フィー
ルドから成る新たなフレームを生成し、合成フレームと
して表示するため、元の動画像において静止する箇所が
なくなり、画像のぎくつきが目立たず、滑らかな動画像
が得られる、という効果を奏することができる。
【0085】また、本発明によれば、画像が音声に対し
て遅れすぎている場合、元の動画像に動きがある場合で
も、表示順で隣接する2枚の異なるフレームを構成する
フィールドより2フィールドを組み合わせて合成して新
たな合成フレームとして表示するため、元の動画像にお
いてどの1フレームに含まれる動きも完全に欠落するこ
とがなくなり、画像のぎくつきが目立たず、滑らかな動
画像が得られる、という効果を奏することができる。
【0086】また、本発明によれば、画像が音声に対し
て遅れすぎている場合、元の動画像に動きがある場合で
も、表示順で隣接する2枚の異なるフレームを構成する
フィールドを用いて平均化して得た2フィールドから成
る新たなフレームを生成し、合成フレームとして表示す
るため、元の動画像においてどの1フレームに含まれる
動きも完全に欠落することがなくなり、画像のぎくつき
が目立たず、滑らかな動画像が得られる、という効果を
奏することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態による動画像の再生
方法を用いた再生装置を示すブロック図
【図2】本実施の形態の動作を示すフローチャート
【図3】(A)〜(D)フレーム及びフィールドを示す
【図4】(A)〜(F)本実施の形態による画像フリー
ズ用合成フレーム及び画像スキップ用合成フレームを示
す図
【図5】本発明の第2の実施の形態の動作を示すフロー
チャート
【図6】従来の動画像の再生方法を用いた再生装置を示
すブロック図
【図7】従来の動画像の再生方法の動作を示すフローチ
ャート
【図8】(A)〜(F)MPEG規格のビットストリー
ムを示す図
【符号の説明】
10 入力端子 11 分離手段 12 画像処理手段 13 音声処理手段 15 出力端子 16 出力端子 17 制御手段 200 フレーム 210 トップフィールド画像 220 ボトムフィールド画像

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】少なくとも、動画像を連続した複数の画像
    群に分割し、前記画像群ごとに画像符号化処理して得た
    第1の符号列と、音声を符号化処理して得た第2の符号
    列を多重化した第3の符号列を入力とし、前記第3の符
    号列を復号処理して復号画像を得る動画像の再生方法で
    あって、 前記動画像の出力時刻を表す画像出力時刻情報と前記音
    声の出力時刻を表す音声出力時刻情報を計算し、前記画
    像出力時刻情報が前記音声出力時刻情報に比較して所定
    量以上進んでいる場合、前記動画像の現復号画像と前記
    現復号画像に表示順で隣接する2画像を平均化して得た
    合成画像を出力することを特徴とする動画像の再生方
    法。
  2. 【請求項2】少なくとも、動画像を連続した複数の画像
    群に分割し、前記画像群ごとに画像符号化処理して得た
    第1の符号列と、音声を符号化処理して得た第2の符号
    列を多重化した第3の符号列を入力とし、前記第3の符
    号列を復号処理して復号画像を得る動画像の再生方法で
    あって、 前記動画像の出力時刻を表す画像出力時刻情報と前記音
    声の出力時刻を表す音声出力時刻情報を計算し、前記画
    像出力時刻情報が前記音声出力時刻情報に比較して所定
    量以上遅れている場合、前記動画像の現復号画像に表示
    順で隣接する隣接画像は出力しない代わりに前記隣接画
    像と前記現復号画像を平均化して得た合成画像を出力す
    ることを特徴とする動画像の再生方法。
  3. 【請求項3】少なくとも、動画像を連続した複数の画像
    群に分割し、前記画像群ごとに画像符号化処理して得た
    第1の符号列と、音声を符号化処理して得た第2の符号
    列を多重化した第3の符号列を入力とし、前記第3の符
    号列を復号処理して復号画像を得る動画像の再生方法で
    あって、 前記動画像の出力時刻を表す画像出力時刻情報と前記音
    声の出力時刻を表す音声出力時刻情報を計算し、前記画
    像出力時刻情報が前記音声出力時刻情報に比較して所定
    量以上遅れている場合、前記動画像の現復号画像に表示
    順で時間的に過去方向に隣接する前方隣接画像と未来方
    向に隣接する後方隣接画像より選択した得たフィールド
    画像を組み合わせて得た合成画像を出力することを特徴
    とする動画像の再生方法。
  4. 【請求項4】少なくとも、動画像を連続した複数の画像
    群に分割し、前記画像群ごとに画像符号化処理して得た
    第1の符号列と、音声を符号化処理して得た第2の符号
    列を多重化した第3の符号列を入力とし、前記第3の符
    号列を復号処理して復号画像を得る動画像の再生方法で
    あって、 前記動画像の出力時刻を表す画像出力時刻情報と前記音
    声の出力時刻を表す音声出力時刻情報を計算し、前記画
    像出力時刻情報が前記音声出力時刻情報に比較して所定
    量以上進んでいる場合は、前記動画像の現復号画像と前
    記現復号画像に隣接する2画像を平均化して得た合成画
    像を出力し、遅れている場合は、前記動画像の現復号画
    像に表示順で隣接する隣接画像は出力しない代わりに前
    記隣接画像と前記現復号画像を平均化して得た合成画像
    を出力することを特徴とする動画像の再生方法。
  5. 【請求項5】少なくとも、動画像を連続した複数の画像
    群に分割し、前記画像群ごとに画像符号化処理して得た
    第1の符号列と、音声を符号化処理して得た第2の符号
    列を多重化した第3の符号列を入力とし、前記第3の符
    号列を復号処理して復号画像を得る動画像の再生方法で
    あって、 前記動画像の出力時刻を表す画像出力時刻情報と前記音
    声の出力時刻を表す音声出力時刻情報を計算し、前記画
    像出力時刻情報が前記音声出力時刻情報に比較して所定
    量以上進んでいる場合は、前記動画像の現復号画像と前
    記現復号画像に隣接する2画像を平均化して得た合成画
    像を出力し、遅れている場合は、前記動画像の現復号画
    像に表示順で時間的に過去方向に隣接する前方隣接画像
    と未来方向に隣接する後方隣接画像より選択した得たフ
    ィールド画像を組み合わせて得た合成画像を出力するこ
    とを特徴とする動画像の再生方法。
  6. 【請求項6】画像スキップや画像フリーズの際に、フレ
    ーム間引きや繰り返し表示を行うのでなく、画像フリー
    ズ及び画像スキップする画像近傍の複数のフィールドを
    用いて新たに出力画像を合成することを特徴とする画像
    合成方法。
JP2001364067A 2001-11-29 2001-11-29 動画像の再生方法 Pending JP2003169296A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001364067A JP2003169296A (ja) 2001-11-29 2001-11-29 動画像の再生方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001364067A JP2003169296A (ja) 2001-11-29 2001-11-29 動画像の再生方法

Publications (1)

Publication Number Publication Date
JP2003169296A true JP2003169296A (ja) 2003-06-13

Family

ID=19174308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001364067A Pending JP2003169296A (ja) 2001-11-29 2001-11-29 動画像の再生方法

Country Status (1)

Country Link
JP (1) JP2003169296A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005025224A1 (ja) * 2003-09-02 2005-03-17 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
WO2006025584A1 (ja) * 2004-09-02 2006-03-09 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
KR100714695B1 (ko) 2005-07-16 2007-05-04 삼성전자주식회사 픽쳐 드롭 및 합성을 통하여 레이트 컨트롤을 수행하는비디오 코딩 방법, 그 방법을 이용한 비디오 인코더, 및트랜스코더
JP2015012557A (ja) * 2013-07-02 2015-01-19 日本電気株式会社 映像音声処理装置、映像音声処理システム、映像音声同期方法、プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005025224A1 (ja) * 2003-09-02 2005-03-17 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
US7983345B2 (en) 2003-09-02 2011-07-19 Sony Corporation Content receiving apparatus, video/audio output timing control method, and content provision system
WO2006025584A1 (ja) * 2004-09-02 2006-03-09 Sony Corporation コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
US8189679B2 (en) 2004-09-02 2012-05-29 Sony Corporation Content receiving apparatus, method of controlling video-audio output timing and content providing system
KR100714695B1 (ko) 2005-07-16 2007-05-04 삼성전자주식회사 픽쳐 드롭 및 합성을 통하여 레이트 컨트롤을 수행하는비디오 코딩 방법, 그 방법을 이용한 비디오 인코더, 및트랜스코더
JP2015012557A (ja) * 2013-07-02 2015-01-19 日本電気株式会社 映像音声処理装置、映像音声処理システム、映像音声同期方法、プログラム

Similar Documents

Publication Publication Date Title
EP3383028B1 (en) Performing trick play functions in a digital video recorder with efficient use of resources
EP1323314B1 (en) Transcoding progressive i-slice refreshed mpeg data streams to enable trick play
JP4649615B2 (ja) 映像符号化、復号化装置および映像符号化、復号化方法、並びにそれらのプログラム
US7035526B2 (en) Advancing playback of video data based on parameter values of video data
JP3789048B2 (ja) 動画像再符号化装置
KR100941388B1 (ko) 비디오 신호 발생 방법
JP2004173118A (ja) 音声画像多重化データ生成装置と再生装置および動画像復号化装置
JP2005286881A (ja) 映像コンテンツ再生装置および方法
JP2009302755A (ja) 記憶再生装置、記憶装置、再生装置及び記憶再生方法
JP2003169296A (ja) 動画像の再生方法
JP3637823B2 (ja) 映像信号切替え装置及びその映像信号切替え方法
JP3317440B2 (ja) 記録媒体の静止画再生装置
JP4320509B2 (ja) 映像再符号化装置および方法
JP3962053B2 (ja) 動画像再符号化装置
JP2004140723A (ja) デジタル映像情報の再生装置及び再生方法
JP2006339857A (ja) 復号化装置
JP2006319645A (ja) 映像再生装置及び方法及びプログラム及び記憶媒体
JP2003219420A (ja) 画像再生装置
JP2002077910A (ja) 可変画像レート符号化装置、可変画像レート復号化装置、可変画像レート符号化方法、及び可変画像レート復号化方法
JP2005159525A (ja) デジタル再生装置または再生方法
JP2007300395A (ja) ビデオビットストリーム復号化出力装置
KR100686137B1 (ko) 디지털 방송 수신기 및 캡처된 이미지 편집 및 저장 방법
JPH08265759A (ja) 圧縮信号切換装置
JP2006074327A (ja) ビデオデータの再符号化装置及びビデオ配信システム
JP2008182723A (ja) 記録装置