JP5335294B2 - 動画像処理システム、動画像処理方法、プログラム及び記憶媒体 - Google Patents

動画像処理システム、動画像処理方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP5335294B2
JP5335294B2 JP2008156992A JP2008156992A JP5335294B2 JP 5335294 B2 JP5335294 B2 JP 5335294B2 JP 2008156992 A JP2008156992 A JP 2008156992A JP 2008156992 A JP2008156992 A JP 2008156992A JP 5335294 B2 JP5335294 B2 JP 5335294B2
Authority
JP
Japan
Prior art keywords
packet
processing
unit
time
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008156992A
Other languages
English (en)
Other versions
JP2009303059A (ja
Inventor
真之 小田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008156992A priority Critical patent/JP5335294B2/ja
Priority to US12/484,861 priority patent/US8467444B2/en
Publication of JP2009303059A publication Critical patent/JP2009303059A/ja
Application granted granted Critical
Publication of JP5335294B2 publication Critical patent/JP5335294B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像データの処理を行う動画像処理技術に関するものである。
一般に、オーディオ信号およびビデオ信号を多重伝送する動画像圧縮伸張伝送システムでは、オーディオ(音声)、ビデオ(画像)、それぞれの信号化処理部において両者の同期を取り出力する必要がある。
画像と音声の同期を可能にするために、国際標準の符号化方式であるMPEG2、MPEG1などでは、タイムスタンプ(Time Stamp;以下、「TS」と記す。)という出力タイミング情報(動画像の出力時刻の情報)を使っている。このTSには、プレゼンテーションタイムスタンプ(Presentation Time Stamp;以下、「PTS」と記す。)と、デコーディングタイムスタンプ(Decoding Time Stamp;以下、「DTS」と記す。)と、がある。
MPEGシステムの復号器のSTC(System Time Clock)が、PTSに一致したときに、オーディオ信号あるいはビデオ信号を再生出力する。STCは、MPEG2、MPEG1などで定義されているもので、基準となる時刻情報を与える。また、MPEGでは、IピクチャとPピクチャはBピクチャより先行して符号化ストリームに送出されることによる復号順序および再生出力順序の相違に対応して、DTSを設けている。PTSとDTSが一致する場合はPTSのみをタイムスタンプとして付加する。
MPEG2では、PES(Paketized Elementary Stream)パケットのように複数のパケットを可変長の長さでパケット化して、ビデオストリームにタイムスタンプを付加する方式がある。一般に、オーディオ信号が符号化されたデータ(以下、「オーディオストリーム」と記す。)と、ビデオ信号が符号化されたデータ(以下、「ビデオストリーム」と記す。)とを、多重化したストリームをシステムストリームと呼ぶが、このシステムストリームには、オーディオ、ビデオそれぞれのTSが付加される。
なお、TSは、オーディオ信号およびビデオ信号ともにアクセスユニットを基準として付加される。オーディオ信号のアクセスユニットの場合にはシンクワード(オーディオストリーム内の一定ワード毎にあるコード)、ビデオ信号のアクセスユニットの場合にはピクチャスタートコード(Picture Start Code。ビデオストリーム内にあるピクチャの区分を示すコード)部分を基準に付加される。また、DTSおよびPTSのTSは、PESパケットのヘッダ内に付加される。
図8は従来の動画像圧縮伸張伝送システムの概略を示すブロック図である。動画像圧縮伸張伝送システムは、大別して、送信側、伝送側および受信側のシステムから構成されている。図8において、送信側では、入力オーディオ信号50が、オーディオ符号化処理部51に入力される。オーディオ符号化処理部51は、入力オーディオ信号50を符号化したオーディオストリーム52をマルチプレクサ56へ出力する。また、入力ビデオ信号53は、ビデオ符号化処理部54に入力される。ビデオ符号化処理部54は、入力ビデオ信号53を符号化したビデオストリーム55をマルチプレクサ56へ出力する。
マルチプレクサ56に入力されたオーディオストリーム52とビデオストリーム55とは多重化され、システムストリーム61となり伝送路62へ出力される。
マルチプレクサ56は、システムタイムクロック(STC)処理部57、オーディオパケッタイズ部59、ビデオパケッタイズ部60、スイッチ部1005で構成されている。
オーディオパケッタイズ部59は入力されたオーディオストリーム52を一定長に区切り、パケットを形成し、データ1003をスイッチ部1005へ出力する。そして、スイッチ部1005により選択され、システムストリーム61としてパッケト単位で多重化される。このとき、オーディオストリーム52でパケッタイズされるデータ長の中にシンクワードがあれば、パケットのヘッダ部分にTSを付加する。なお、このTSは、システムタイムクロック処理部57のSTCデータ58を基に求められる。
一方、ビデオパケッタイズ部60も、入力されたビデオストリーム55を一定長に区切り、パケットを形成し、データ1004をスイッチ部1005へ出力する。そして、スイッチ部1005により選択され、システムストリーム61としてパケット単位で多重化される。このとき、ビデオストリーム55のパケッタイズされるデータ長の中に、ピクチャスタートコードがあれば、パケットのヘッダ部分にTSを付加する。なお、このTSは、システムタイムクロック処理部57のSTCデータ58を基に求められる。
そして、受信側でSTCの再生が可能なように、周期的にSTCデータ58は、スイッチ部1005により選択され、システムストリーム61として多重化される。次に、受信側では、伝送路62を介して伝送されてきたシステムストリーム63が、デマルチプレクサ部64に入力され、分離される。そして、オーディオストリーム67とオーディオTS1012、ビデオストリーム70とビデオTS1013、STCデータ1010となり出力される。
デマルチプレクサ部64は、スイッチ部1006、STC再生部1011、オーディオパケット解析部65、ビデオパケット解析部66で構成されている。システムストリーム63からオーディオパケットデータ1007をオーディオパケット解析部65へ、ビデオパケットデータ1009をビデオパケット解析部66へ、STCデータ1008をSTC再生部1011へ出力する。
オーディオパケット解析部65は、入力されたオーディオパケットデータ1007を解析し、オーディオストリーム67とオーディオTS1012とに分離してオーディオ復号化処理部68へ出力する。一方、ビデオパケット解析部66は、入力されたビデオパケットデータ1009を解析し、ビデオストリーム70とビデオTS1013とに分離してビデオ復号化処理部71へ出力する。
また、STC再生部1011は、入力されたSTCデータ1008から、送信側のシステムタイムクロック処理部57が出力するSTCデータ58と常に同一の出力となるようにSTCデータ1010を再生する。そして、STC再生部1011は、ビデオ復号化処理部71およびオーディオ復号化処理部68へ出力する。オーディオ復号化処理部68は、入力されたオーディオストリーム67を、オーディオTS1012とSTCデータ1010とを参照して復号化し、TSに従った時刻で、出力オーディオ信号69を出力する。
ビデオ復号化処理部71は、入力されたビデオストリーム70を、ビデオTS1013とSTCデータ1010とを参照して復号化し、TSにしたがった時刻で、出力ビデオ信号72を出力する。
つぎに、各復号化処理部でのTSによる出力動作について、具体的に説明する。TSによる出力動作は、オーディオ復号化処理部68とビデオ復号化処理部71とで、オーディオとビデオとのそれぞれのTSのPTSの値と、STCデータの値とが一致したときに、対応するデータ部分を出力することで実現される。
例えば、オーディオストリーム67のあるシンクワードAnに対応するPTSの値を、PTS(An)とする。STCデータ1010の値がPTS(An)と同じになったときに、オーディオ復号化処理部68は、シンクワードAn部分の復号化されたデータを出力する。
同様に、ビデオストリーム70のあるピクチャスタートコードVnに対応するPTSの値を、PTS(Vn)とする。STCデータ1010の値がPTS(Vn)と同じになったときに、ビデオ復号化処理部71は、ピクチャスタートコードVn部分の復号化されたデータを出力する。
ここで、図8に示す動画像圧縮伸張伝送システムにおいて、送信側のオーディオ符号化処理部51に入力オーディオ信号50が入力されてから、受信側のオーディオ復号化処理部68より出力オーディオ信号69が出力されるまでの時間がtaであるとする。同様に、送信側のビデオ符号化処理部54に入力ビデオ信号53が入力されてから、受信側のビデオ復号化処理部71より出力ビデオ信号72が出力されるまでの時間がtvであるとする。
この場合、ビデオとオーディオの同期をとるには、入力から出力までの時間をta=tvとなるように、伝送処理系の処理時間を設定し、その処理時間を基にそれぞれPTSの時間を設定すれば良いことになる。つぎに、マルチプレクサ56を構成するオーディオパケッタイズ部59とビデオパケッタイズ部60とにおけるTS算出を説明する。
まず、オーディオ信号の入力から出力までの時間taのうち、マルチプレクサ56に入力されるまでの時間がta1で、残りの時間がta2であるとする。ここで、マルチプレクサ56に入力されたオーディオストリーム52のパケッタイズされるべきデータ長の中に、あるシンクワードAnがあるとする。このとき、パケッタのヘッダ部分にTSを付加するときのSTCデータ58の値がSTC2(An)であるとすれば、PTS(An)は、以下の(1)により求めることができる。
PTS(An)=STC2(An)+ta2 ・・・(1)
ビデオについても、ビデオ信号の入力から出力までの時間tvのうち、マルチプレクサ56に入力されるまでの時間がtv1で、残りの時間がtv2であるとする。ここで、マルチプレクサ56に入力したビデオストリーム55のパケッタイズされるべきデータ長の中に、あるピクチャスタートコードVnがあるとする。このとき、パケッタのヘッダ部分にTSを付加するときのSTCデータ58の値がSTC2(Vn)であるとすれば、PTS(Vn)も、以下の(2)式により求めることができる。
PTS(Vn)=STC2(Vn)+tv2 ・・・(2)
しかし、ビデオの場合、ビデオ符号化処理部54において可変長符号化されたり、ピクチャ単位の入れ替わりが行われる。このため、tv1が符号化状況により変動する。従って、tv2も変動してしまい、(tvが固定で、tv2=tv−tv1であるため。)STC2(Vn)に加算すべきtv2を予め設定できないという問題があり、オーディオと同様に求めることは不可能である。また、ビデオの場合、ピクチャ単位の入れ替わりがあるために、DTSも求める必要がある。
ここで、ピクチャ単位の入れ替わりについて、図9の概略図を使用して説明する。図8では、ピクチャ単位の入れ替わりに関する遅延時間は考慮されているが、その他の処理時間等は省略している。図9において、(a)は、ビデオ符号化処理部54に入力される入力ビデオ信号53を示す。(b)は、ビデオ符号化処理部54から出力されるビデオストリーム55(あるいは、ビデオパケット解析部66から出力されるビデオストリーム70。)を示す。(c)は、ビデオ復号化処理部71から出力される出力ビデオ信号72を示している。いずれの信号にも記載されている符号I、P、Bは、MPEG2,MPEG1で定義されているピクチャコーディングタイプ(Picture Coding Type)を示している。図9の例では、IまたはPピクチャのピクチャ間隔は3ピクチャであり、このIまたはPピクチャのピクチャ間隔のことを、一般にM値と呼んでいる(図9の場合はM値=3となる。)。なお、各信号の上部のかっこ内に示す数値はテンポラルリファレンス(Temporal Reference)の値で、これは入力ビデオ信号53におけるピクチャの順番を示している。
ピクチャ単位の入れ替わりは、つぎのように行なわれる。ビデオ符号化処理部54において、(a)に示す入力ビデオ信号53は、Bピクチャのみを、後方のIあるいはPピクチャの後に、順次遅延し挿入してピクチャの順番を入れ替え、(b)に示すビデオストリーム55の状態とする。この入れ替わりの状態は、ビデオストリーム70でも変わらない。
つぎに、ビデオ復号化処理部71において、逆にビデオストリーム70のI、Pピクチャを後方の連続するBピクチャの後に順次遅延し挿入して、元の順番に戻し、(c)に示す出力ビデオ信号72のように元の順番とする。このように、ビデオ復号化処理部71で順番を戻すことを、リオーダ(reorder)と呼んでいる。
ビデオ復号化処理部71でのリオーダにおけるPTSとDTSの関係を図10に示し、説明する。ビデオ復号化処理部71に入力されたビデオストリーム70は、可変長符号化による時間軸上での変動分を吸収するため、ビデオ復号化バッファ73に記憶された後、ビデオストリーム74としてビデオ復号化回路75へ出力される。ビデオ復号化回路75は、入力されたビデオストリーム74を復号化し、データ76とする。
ここで、データ76のBピクチャ部分は、そのまま出力ビデオ信号72として出力される。一方、データ76のIあるいはPピクチャ部分は、ビデオリオーダバッファ77で遅延されたデータ78となる。データ76とデータ78とがスイッチ部79を介して、出力ビデオ信号72として出力される。データ76とデータ78の切り替えは、スイッチ部79が行う。また、ビデオリオーダバッファ77での遅延時間は、(M値×ピクチャ周期)となる。このビデオ復号化処理部71の処理でピクチャ単位の順番を元に戻すことが可能となる。
図10において、PTSは、ビデオ復号化処理部71から出力される出力ビデオ信号72の出力時間を示すものであるが、DTSは、ビデオ復号化バッファ73から出力されるビデオストリーム74の出力が待つ時間を示すものである。MPEG2、MPEG1では、TSの定義において、ビデオ復号化回路75の処理時間はゼロと仮定している。したがって、Bピクチャの場合、DTS=PTSとなる。
したがって、I、PピクチャにはPTSとDTSが付加される。BピクチャにはPTSだけが付加される(DTS=PTSであるため)。以上のように、ビデオに関するTSの付加は、オーディオに比べ複雑なものとなる。
ここまでの説明で使用した、ピクチャスタートコード、テンポラルリファレンス、ピクチャコーディングタイプが、図8のビデオストリーム55に付加されている構成例を図11に示す。これは、MPEGにおける例である。図11に示すように、入力ビデオ信号53(図8参照)の各フレームあるいは各フィールドに対応する符号データ部分は、ピクチャレイヤ(Picture layer)と呼ばれ、32ビットの固有値であるピクチャスタートコードで始まる。このコードに続き10ビットのテンポラルリファレンスがあり、さらに3ビットのピクチャコーディングタイプがある。
また、その後に16ビットのビデオ遅延時間制御情報(Video Buffering Verifier Delay:vbv_delay)などのヘッダが付加されており、そのヘッダの後に実際の符号データが続いている。ビデオ遅延時間制御情報は可変長符号化された符号データ、その平均レートとしての一定レートで受信し、復号化するために必要なビデオ復号化処理部内のバッファ(ビデオ復号化バッファ73)における遅延時間を示す情報である。このビデオ遅延時間制御情報に従って、バッファの読出し制御をすることで、バッファのアンダーフローやオーバーフローの回避が可能になる。
なお、このビデオ遅延時間制御情報は、ビデオ符号化処理部54の内部で、生成して付加している。このとき一般的には、受信側のビデオ復号化処理部71内のバッファの容量と、各ピクチャごとの圧縮された結果である符号量と、平均レートから、各ピクチャ単位にビデオ遅延時間制御情報は演算、生成される。MPEG2では、ビデオ遅延時間制御情報をvbv_delayと呼び、バッファをVBV バッファと呼ぶ。
次に、従来のTSの演算方式について説明する。図12は、従来のタイムスタンプ付加装置の機能構成を示す図である。ビデオ符号化処理部54は、符号器54a、符号器側vbvバッファ54bおよび出力部54cから構成されている。ビデオパケッタイズ部60は、パケットバッファ60a、タイムスタンプ付加部60b、タイムスタンプ演算部60cおよびシステムタイムクロックバッファ60dから構成される。
入力ビデオ信号53は可変長データなので可変レートの伝送速度で入力される。通常、システムの伝送路においては一定レートの伝送速度で伝送されるので、ビデオ符号化処理部54とマルチプレクサ56との間の伝送路で伝送速度を一定レートとするために符号器側vbvバッファ54bが必要となる。また、入力ビデオ信号53がビデオ符号化処理部54へ入力される時のSTCを使ってタイムスタンプ演算部60cでタイムスタンプを生成する。このとき、ビデオ信号は、信号処理にある程度の処理時間(数十msec)を必要とする。STC値の演算に使用するまでの間、前述のようなピクチャ単位の入れ替わりがあり符号化処理遅延が大きいので、それを緩衝するためにシステムタイムクロックバッファ60dを設けている。
パケットバッファ60aは、タイムスタンプを付加してパケットにしようとするデータを一時的に保持する。パケットバッファ60aは、タイムスタンプ付加部60bへのデータ入力とタイムスタンプ演算部60cで生成されたタイムスタンプの入力とを同期させてタイムスタンプを付加するタイミングをとるためのものである。そのため、パケットバッファ60aからタイムスタンプ付加部60bへのデータ入力は一定レートとなる。
上述の従来技術として、例えば、以下の特許文献1に示されるものがある。
特開平9−307891号公報
上記の従来技術では、映像の高画質化処理等の処理時間は考慮されておらず、タイムスタンプで示される時間にデータが間に合わなければ画像に乱れが生じる。また、実際のタイムスタンプより早い時間にデータが到着する場合には、データを保持しておくためのバッファが必要となる。そのため、タイムスタンプとデータの到着時刻との差が大きければ、膨大なバッファ領域を確保する必要が生じる。
上記の課題を鑑み、本発明は、映像の高画質化等の画像処理にかかる時間を予測し、映像出力部へのデータの到着時刻を予測して、タイムスタンプ以後にデータが到着することを抑制することで画像の乱れをなくすことを目的とする。
あるいは、上記の課題を鑑み、本発明は、タイムスタンプ以前に到着するデータ量を削減することにより、必要とされるバッファ領域の容量を削減することを目的の一つとする。
上記の目的の少なくともいずれかを達成する本発明にかかる動画像処理システムは、動画像をタイルに分割し、分割したタイルに対応する情報をパケット化して処理を行う動画像処理システムであって、
パケットの処理時間を計測するためにパケット送出時刻を設定した処理時間計測パケットを生成し、送信する処理時間計測パケット生成手段と、
送信された前記処理時間計測パケットに含まれるタイルに対応する情報に対し処理を行うパケット処理手段と、
前記パケット処理手段から前記処理時間計測パケットを受信して、当該処理時間計測パケットに設定されている前記パケット送出時刻と、当該処理時間計測パケットの受信時刻と、に基づきパケットの処理に要するパケット処理時間を計測するパケット処理時間計測手段と、
前記パケット処理時間に基づき、前記タイルに分割した動画像のタイムスタンプを決定する決定手段と、
前記タイルに分割された動画像の情報と、前記タイムスタンプと、をパケット化して処理するパケット化手段と、
を備えることを特徴とする。
本発明によれば、映像の高画質化等の画像処理にかかる時間を予測し、映像出力部となる最終段への到着時刻を予測することにより、タイムスタンプ以後にデータが到着することが減少し、画像の乱れをなくすことができる。
あるいは、タイムスタンプ以前に到着するデータ量が膨大になることもない。そのため、必要なバッファ領域を削減することができる。
以下、図面を参照して、本発明の好適な実施形態を例示的に詳しく説明する。ただし、この実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。
(第1実施形態)
図1は、本発明の第1実施形態にかかる動画像処理システムの構成を示すブロック図である。動画像処理システムは、動画像をタイルに分割し、分割したタイルに対応する情報をパケット化して処理を行うことが可能である。映像入力部100は、パケット生成部101内のタイル分割部104へ接続されている。パケット生成部101は、映像入力部100からの映像入力を受け、パケットを生成する。パケット生成部101は、タイル分割部104、処理時間測定パケット生成部103、処理時間予測部102、パケット化部105で構成されている。
タイル分割部104は、パケット化部105に接続されている。タイル分割部104は、映像入力部100からの映像入力を受け、映像データをタイルへ分割する。本実施形態では、例えば、映像データを8pixel×128pixelのタイルへ分割するものとして説明を行う。尚、本発明の趣旨は、タイルの分割サイズとして、この例に限定されないことはいうまでもない。
処理時間測定パケット生成部103はパケット化部105に接続されている。処理時間測定パケット生成部103は、パケットの処理時間を測定するための処理時間測定パケットの生成を行う。
図7は、パケットの構成を示す図である。パケットはヘッダー701とペイロードタイルブロック(Payload Tile Block)702とを有する。処理時間測定パケット生成部103は、パケット内のデータ生成(ペイロードタイルブロック(Payload Tile Block)702内のデータ生成)を行い、パケット化部105へ出力する。パケット化部105でヘッダ情報(ヘッダー701)を付加し、パケットの送出を行う。図5は、ヘッダ情報の構成を示す図である。パケット化部105では、Arrival Time505にパケット送出時刻を設定する。送出されたパケットは、パケット受信部107で受信され、パケット処理時間計測部108においてパケット到着間が計測される。パケット到着時間とヘッダ情報内のArrival Time505に設定されたパケット送出時刻との差がパケット処理時間Tpとなる。
処理時間予測部102は、パケット化部105と、パケット受信部107内のパケット処理時間計測部108と、に接続している。処理時間予測部102は、パケット処理時間計測部108からの入力からヘッダ情報に付加するタイムスタンプ(Arrival Time505)を決定する。パケット処理時間計測部108からは、処理時間測定パケットにより計測されたパケット処理時間Tpが入力される。処理時間予測部102は、パケット処理時間Tpとパケット処理にかかる時間の揺らぎを含めた最大許容誤差時間Tmとパケットの送出時間Tsendを加算し、タイムスタンプTsを、(3)式に従い決定する。
Ts(タイムスタンプ)=Tp(パケット処理時間)+Tm(最大許容誤差)+Tsend(送出時間) ・・・・(3)
パケット化部105は、タイル分割部104、処理時間測定パケット生成部103、処理時間予測部102からの入力を受け、パケットヘッダの付加と、コマンドパケットの生成を行い、パケット処理部106aへパケットの送出を行う。
パケット処理部106a、b、cは、パケットを入力として受け付ける。コマンドパケットが入力された場合には、パケット内の記述に従いレジスタへのアクセスを行う。映像タイルパケット及び処理時間計測パケットが入力された場合には、レジスタ設定に従いパケット内の映像タイルデータの処理を行う。
パケット受信部107は、ヘッダ解析部109、パケット処理時間計測部108とタイル結合部110で構成されている。パケット受信部107は、パケット処理部106cからの入力を受け、映像データを映像出力部111へ出力する。ヘッダ解析部109は、パケット処理部106cからパケットを受け、ヘッダ情報の解析を行う。受信したパケットがコマンドパケットであれば、何も処理をしないでパケットを廃棄する。映像タイルパケットを受信した場合には、ヘッダ情報と映像タイルデータを分離し、映像タイルデータをタイル結合部110へ出力する。処理時間測定パケットを受信した場合は、パケット処理時間計測部108にヘッダ情報を出力し、残りのデータは廃棄する。
パケット処理時間計測部108は、ヘッダ解析部109とパケット生成部101内の処理時間予測部102とに接続されている。パケット処理時間計測部108は、ヘッダ解析部109からの出力を受け、パケット到着時間とヘッダ情報内のArrival Time505に設定されたパケット送出時刻の差をパケット処理時間として計測する。パケット処理時間計測部108は、計測したパケット処理時間を、処理時間予測部102へ通知する。
タイル結合部110は、8pixel×128pixelに分割された映像データを結合し映像の復元を行う。結合された映像データは、映像出力部111に出力される。映像出力部111は、パケット受信部107内のタイル結合部110と接続し、映像出力部111は、タイル結合部110から映像データを受け表示画面へ映像を出力する。
次に、本実施形態にかかる、パケットフォーマットの詳細を説明する。本発明の実施形態にかかる動画像処理システム内では、映像データ、映像像処理部へのコマンド及びパラメータを、パケット化された形式で転送する。本実施形態では、映像データを、例えば、8pixel×128pixelのタイル単位に分割して取り扱う例を示す。本実施形態では、コマンドパケット、映像タイルデータパケット、処理時間測定パケットの3種類のパケットがある。
図5は、パケットヘッダの構成を示す図であり、パケットヘッダは全てのパケットで共通である。Next input port & parameter index501は、パケット処理部106においてのデータ経路を示すものである。左詰で処理順に設定し、各パケット処理部106は処理後Next input port & parameter index501を8bitシフトする。Next input port & parameter index501は、port502とindex503の組が14組格納されている。port502は、次の処理部の入力ポート番号を示す。Index503は、各処理部が用いるstatic parameterの番号を示す。
Arrival Time505は、映像タイルパケットでは、パケット内に含まれる画像タイルデータが画面に表示開始される時間を示す。処理時間測定パケットでは、パケットの送出時間を示す。コマンドパケットでは、意味を持たないフィールドである。End of AV packet506は、1フレーム中に含まれるPacket tile blockがこのパケットで終了することを示す。Packet#509は、フレーム中のパケット番号を示す。フレームの先頭パケットは0でパケットごとにPacket#は+1加算される。Type510は、パケットのタイプを示す。コマンドパケット、映像タイルデータパケット、処理時間測定パケットの3種類のパケットがある。Payload Length511は、Payloadのバイト数を示す。
図6はコマンドパケットの構成を示す図である。コマンドパケットは、Header601とPayload parameter602で構成される。コマンドパケットは、映像タイルパケットの処理を行う処理部へのレジスタアクセスを行う際に使用される。
以下にPayload Parameter602に含まれる情報について説明する。Unit ID603は、対象となるパケット処理部106a、b、cのIDを示す。Reg#604は、パケット処理部106a、b、c中の対象となるレジスタの番号を示す。Store Address605は、対象となるパケット処理部106のレジスタリードを行った場合のリードデータの格納先を示す。Command606は、対象となるパケット処理部106へのコマンドを示す。コマンドは、WriteもしくはReadの2種類がある。データフィールド607は、Command606で示されるコマンドがWriteの時は、Write Dataを格納する。Command606で示されるコマンドがReadのときは、Read Dataが格納される。
図7は映像タイルパケットおよび処理時間測定パケットの構成を示す図である。映像タイルパケットおよび処理時間測定パケットは、ヘッダー(Header)701とペイロードタイルブロック(Payload Tile Block)702で構成される。ペイロードタイルブロック(Payload Tile Block)702には、8pixel×128pixelの映像データが格納されている。Payloadの大きさは8KBである。各pixelデータは8Bで、Adobe RGBで表現された16b RGBデータ、8bのA(α)データ、8bのZデータで構成される。映像タイルパケットの場合、ペイロードタイルブロック(Payload Tile Block)702にはタイル分割部104で分割された映像データのタイルが格納される。処理時間測定パケットの場合、ペイロードタイルブロック(Payload Tile Block)702には処理時間測定パケット生成部103で生成されるデータが格納される。
次に、本発明の第1実施形態にかかる動画像処理システムの動作を図2の参照により説明する。ステップS201において、映像入力部100からの映像入力が開始されると、ステップS202において、パケット生成部101は、処理経路を決定する。本実施形態においては、パケットの送出方向は単一方向であり、また、送出先からパケットが戻ることがないため、一意に決定される。処理経路の決定により、ヘッダ情報内のNext input port & parameter index501が決定される。
次に、ステップS203において、パケット生成部101は、各パケット処理部106a、b、cでの処理パラメータを決定する。決定したパラメータ値に従い各パケット処理部106a、b、cに対しコマンドパケットを生成し、コマンドパケットを送出する。
次に、ステップS204において、処理時間測定パケット生成部103は、処理時間計測パケット内のデータを生成する。生成されるデータはランダム値でよい。パケット化部105で、ヘッダ情報内のArrival Time505にパケット送出時刻を設定し、パケットの送信を行う。
ステップS205において、パケット受信部107は、処理時間計測パケットを受信する。パケット処理時間計測部108は、処理時間計測パケットに設定されているパケット送出時刻と、処理時間計測パケットの受信時刻と、に基づきパケットの処理に要するパケット処理時間Tp(画像処理時間)を計測する。
そして、パケット処理時間計測部108から処理時間予測部102に対しパケット処理時間Tpが出力されると、ステップS206において、処理時間予測部102はタイムスタンプの決定を行う。タイムスタンプをヘッダ情報のArrival Time(505)へ設定する。
ステップS207において、タイル分割部104は、映像入力のタイル分割を開始し、ステップS208において、パケット生成部101は映像タイルパケットを生成し、パケットの送出を行う。ステップS209において、映像入力(画像データの入力)が終わるまで、タイル分割とパケット生成とを繰り返す。
以上説明したように本実施形態に拠れば、処理時間計測パケットを送出しパケットの処理時間を計測し、計測結果を基に映像データの処理時間を予測し、パケット受信部への到着時間をヘッダ情報へ付加する。
これにより、精度良く映像データの処理時間を予測でき、パケットの到着が遅れることによる画像の乱れをなくすことが可能となる。また、早く到着するパケットの量も削減でき、必要とされるバッファ領域の容量を削減することが可能になる。
(第2実施形態)
図3は本発明の第2実施形態にかかる動画像処理システムの構成を示すブロック図である。図3において、映像入力部300は、パケット生成部301内のタイル分割部304と映像データ解析部303と接続している。パケット生成部301は、映像入力部300からの入力を受け、パケットを生成する。パケット生成部301は、タイル分割部304、映像データ解析部303、処理時間予測部302、パケット化部305で構成されている。タイル分割部304は、パケット化部305と接続されており、第1実施形態で説明したタイル分割部104と同一である。
映像データ解析部303は、映像入力部300と処理時間予測部302と、に接続されている。映像データ解析部303は、入力された動画像(映像データ)の解析を行い、動画像の特徴情報(映像データの解像度、動きベクトル、圧縮率)を抽出する。
処理時間予測部302は、パケット化部305と、映像データ解析部303と、に接続されている。処理時間予測部302は、映像データ解析部303が抽出した映像データの解像度、動きベクトル、圧縮率からパケットの処理時間を予測する。パケットの基準処理時間Tbase、解像度による係数K、動きベクトルによる係数V、圧縮率による係数Dからパケット処理時間Tpを(4)式により予測する。そして、パケット処理にかかる時間の揺らぎを含めた最大許容誤差時間Tmとパケットの送出時間Tsendを加算し、タイムスタンプTsを(5)式に従い決定する。パケットの基準処理時間Tbase、解像度による係数K、動きベクトルによる係数V、圧縮率による係数Dは、処理時間予測部302内のテーブルデータに格納されている。
Tp(パケット処理時間)=Tbase×K×V×D ・・・(4)
Ts(タイムスタンプ) =Tp+Tm+Tsend ・・・(5)
パケット化部305は、タイル分割部304、処理時間予測部302からの入力を受け、パケット処理部306へパケットの送出を行う。パケット化部305は、パケットヘッダの付加と、コマンドパケットの生成を行い、パケット処理部306aへパケットの送出を行う。パケット処理部306a、b、cは第1実施形態でのパケット処理部106a、b、cと同一である。
パケット受信部307は、ヘッダ解析部308とタイル結合部309で構成されている。パケット受信部307は、パケット処理部306cからの入力を受け、映像データを映像出力部310へ出力する。ヘッダ解析部308は、パケット処理部306cからパケットを受け、ヘッダ情報の解析を行う。受信したパケットがコマンドパケットであれば、何も処理をしないでパケットを廃棄する。映像タイルパケットを受信した場合には、ヘッダ情報と映像タイルデータを分離し、映像タイルデータをタイル結合部309へ出力する。
タイル結合部309は、第1実施形態におけるタイル結合部110と同一である。映像出力部310は、第1実施形態における映像出力部111と同一である。本実施形態でのパケットフォーマットは、第1実施形態におけるパケットフォーマットと同一である。本実施形態では、コマンドパケット、映像タイルデータパケットの2種類がある。
次に、本発明の第2実施形態にかかる動画像処理システムの動作を図4の参照により説明する。まず、ステップS401において、映像入力部300からの映像入力が開始されると、ステップS402において、映像データ解析部303は、入力された映像(画像データ)の解析を行う。そして、ステップS403において、パケット生成部301は、処理経路を決定する。本実施形態においては、パケットの送出方向は単一方向であり、また、送出先からパケットが戻ることがないため、一意に決定される。処理経路の決定により、ヘッダ情報内のNext input port & parameter index501が決定される。
次に、ステップS404において、パケット生成部301は、各パケット処理部306a、b、cの画像処理パラメータを決定する。決定された画像処理パラメータ値に従い、各パケット処理部306a、b、cに対しコマンドパケットを生成し、コマンドパケットを送出する。
次に、ステップS405において、映像データ解析部303は、入力された映像データの解析を行い、映像データの解像度、圧縮率、動きベクトルの抽出を行う。ステップS406において、抽出された値を基に、処理時間予測部302は、タイムスタンプの決定を行い、タイムスタンプをヘッダ情報のArrival Time505へ設定する。
ステップS407において、タイル分割部304は、映像入力のタイル分割を開始し、ステップS408において、パケット生成部301は、映像タイルパケットを生成し、パケットの送出を行う。ステップS409において、映像入力(画像データの入力)が終わるまで、タイル分割とパケット生成とを繰り返す。
以上説明したように本実施形態に拠れば、入力される映像データの解析を行い、映像データの特徴を基に映像データの処理時間を予測し、パケット受信部への到着時間をヘッダ情報へ付加する。これにより、容易な構成で処理時間を予測することが可能であり。パケットの到着が遅れることによる画像の乱れをなくすことが可能となる。また、早く到着するパケットの量も削減でき、必要とされるバッファ領域の容量を削減することが可能になる。
(他の実施形態)
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ可読の記憶媒体を、システムあるいは装置に供給することによっても、達成されることは言うまでもない。また、システムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。また、プログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態が実現される場合も含まれることは言うまでもない。
本発明の第1実施形態にかかる動画像処理システムの構成を示すブロック図である。 本発明の第1実施形態にかかる動画像処理システムの動作を説明するフローチャートである。 本発明の第2実施形態にかかる動画像処理システムの構成を示すブロック図である。 本発明の第2実施形態にかかる動画像処理システムの動作を説明するフローチャートである。 ヘッダ情報の構成を示す図である。 コマンドパケットの構成を示す図である。 映像タイルパケットおよび処理時間測定パケットの構成を示す図である。 従来の動画像圧縮伸張伝送システムの概略を示すブロック図である。 従来の動画像圧縮伸張システムにおけるピクチャ単位の入れ替わりを説明する図である。 従来の動画像圧縮伸張システムにおけるタイムスタンプを説明する図である。 従来の動画像圧縮伸張システムにおけるヘッダ情報を示す図である。 従来のタイムスタンプ付加装置の機能構成を示す図である。
符号の説明
100…映像入力部
101…パケット生成部
102…処理時間予測部
103…処理時間測定パケット生成部
104…タイル分割部
105…パケット化部
106…パケット処理部
107…パケット受信部
108…パケット処理時間計測部
109…ヘッダ解析部
110…タイル結合部
111…映像出力部

Claims (4)

  1. 動画像をタイルに分割し、分割したタイルに対応する情報をパケット化して処理を行う動画像処理システムであって、
    パケットの処理時間を計測するためにパケット送出時刻を設定した処理時間計測パケットを生成し、送信する処理時間計測パケット生成手段と、
    送信された前記処理時間計測パケットに含まれるタイルに対応する情報に対し処理を行うパケット処理手段と、
    前記パケット処理手段から前記処理時間計測パケットを受信して、当該処理時間計測パケットに設定されている前記パケット送出時刻と、当該処理時間計測パケットの受信時刻と、に基づきパケットの処理に要するパケット処理時間を計測するパケット処理時間計測手段と、
    前記パケット処理時間に基づき、前記タイルに分割した動画像のタイムスタンプを決定する決定手段と、
    前記タイルに分割された動画像の情報と、前記タイムスタンプと、をパケット化して処理するパケット化手段と、
    を備えることを特徴とする動画像処理システム。
  2. 処理時間計測パケット生成手段と、パケット処理手段と、パケット処理時間計測手段と、決定手段と、パケット化手段と、を有し、動画像をタイルに分割し、分割したタイルに対応する情報をパケット化して処理を行う動画像処理システムにおける動画像処理方法であって、
    前記処理時間計測パケット生成手段が、パケットの処理時間を計測するためにパケット送出時刻を設定した処理時間計測パケットを生成し、送信する処理時間計測パケット生成工程と、
    パケット処理手段が、送信された前記処理時間計測パケットに含まれるタイルに対応する情報に対し処理を行うパケット処理工程と、
    前記パケット処理時間計測手段が、前記パケット処理工程で処理された前記処理時間計測パケットを受信して、当該処理時間計測パケットに設定されている前記パケット送出時刻と、当該処理時間計測パケットの受信時刻と、に基づきパケットの処理に要するパケット処理時間を計測するパケット処理時間計測工程と、
    前記決定手段が、前記パケット処理時間に基づき、前記タイルに分割した動画像のタイムスタンプを決定する決定工程と、
    前記パケット化手段が、前記タイルに分割された動画像の情報と、前記タイムスタンプと、をパケット化して処理するパケット化工程と、
    を有することを特徴とする動画像処理方法。
  3. 請求項2に記載の動画像処理方法をコンピュータに実行させるプログラム。
  4. 請求項3に記載のプログラムを格納したコンピュータ可読の記憶媒体。
JP2008156992A 2008-06-16 2008-06-16 動画像処理システム、動画像処理方法、プログラム及び記憶媒体 Expired - Fee Related JP5335294B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008156992A JP5335294B2 (ja) 2008-06-16 2008-06-16 動画像処理システム、動画像処理方法、プログラム及び記憶媒体
US12/484,861 US8467444B2 (en) 2008-06-16 2009-06-15 Information processing system, information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008156992A JP5335294B2 (ja) 2008-06-16 2008-06-16 動画像処理システム、動画像処理方法、プログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2009303059A JP2009303059A (ja) 2009-12-24
JP5335294B2 true JP5335294B2 (ja) 2013-11-06

Family

ID=41549462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008156992A Expired - Fee Related JP5335294B2 (ja) 2008-06-16 2008-06-16 動画像処理システム、動画像処理方法、プログラム及び記憶媒体

Country Status (1)

Country Link
JP (1) JP5335294B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013009132A2 (ko) * 2011-07-13 2013-01-17 한국전자통신연구원 엠엠티 시스템에서의 패킷 전송 장치 및 방법, 및 패킷 수신 장치 및 방법
JP5789004B2 (ja) 2013-08-09 2015-10-07 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3644995B2 (ja) * 1995-01-25 2005-05-11 株式会社日立国際電気 符号化伝送方式におけるタイムスタンプ値演算方法
JP3556381B2 (ja) * 1996-03-13 2004-08-18 株式会社東芝 情報多重化装置
JP2872104B2 (ja) * 1996-05-14 1999-03-17 株式会社グラフィックス・コミュニケーション・ラボラトリーズ タイムスタンプ付加装置および方法、並びにそれを用いた動画像圧縮伸張伝送システムおよび方法
JP3450771B2 (ja) * 1998-11-30 2003-09-29 松下電器産業株式会社 データ伝送方法,及びデータ送信装置
JP2004104730A (ja) * 2002-09-13 2004-04-02 Hitachi Kokusai Electric Inc 遅延時間検出方法及びav同期検出方法
JP2009272945A (ja) * 2008-05-08 2009-11-19 Victor Co Of Japan Ltd 同期再生装置

Also Published As

Publication number Publication date
JP2009303059A (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
US5963256A (en) Coding according to degree of coding difficulty in conformity with a target bit rate
KR100234265B1 (ko) 캡션 데이터 처리 회로 및 그 방법
US8620134B2 (en) Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams
JP3215087B2 (ja) オーディオとビデオの同期方法及びデジタルビデオプロセッサ
JP6119260B2 (ja) 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法
KR100203262B1 (ko) 픽춰단위 동기화를 위한 비디오디코더의 인터페이스장치
US8467444B2 (en) Information processing system, information processing apparatus, information processing method, and program
JPH10276164A (ja) 多重化装置および多重化方法、伝送装置および伝送方法、並びに記録媒体
US7729383B2 (en) Multiplexer and multiplexing method
JP3644995B2 (ja) 符号化伝送方式におけるタイムスタンプ値演算方法
US8238446B2 (en) Method and apparatus for reproducing digital broadcasting
JP5335294B2 (ja) 動画像処理システム、動画像処理方法、プログラム及び記憶媒体
JP2872104B2 (ja) タイムスタンプ付加装置および方法、並びにそれを用いた動画像圧縮伸張伝送システムおよび方法
JP3556381B2 (ja) 情報多重化装置
US9866898B2 (en) Elementary stream multiplexing method, multiplexing system, encoding or decoding method and apparatus
JPH11205789A (ja) Mpeg2トランスポートストリーム伝送レート変換装 置
JP3920125B2 (ja) 復号装置及び復号方法
JPH11262001A (ja) 符号化伝送方式におけるタイムスタンプ値演算方法
JP2001231035A (ja) 復号同期制御装置、復号装置、及び復号同期制御方法
JPH10126371A (ja) 多重化装置及び多重化方法
JPH09312656A (ja) 伝送装置およびその方法
JP4891204B2 (ja) 映像処理装置、映像処理方法、映像処理プログラム及び記憶媒体
JP6464647B2 (ja) 動画像処理方法、動画像の送信装置、動画像処理システムおよび動画像処理プログラム
KR20160098625A (ko) 스트리밍 레이턴시 최소화 시스템 및 이를 사용하는 방법
JPH08186822A (ja) 画像復号装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130731

R151 Written notification of patent or utility model registration

Ref document number: 5335294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees