JP2014138269A - 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 - Google Patents
動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 Download PDFInfo
- Publication number
- JP2014138269A JP2014138269A JP2013005764A JP2013005764A JP2014138269A JP 2014138269 A JP2014138269 A JP 2014138269A JP 2013005764 A JP2013005764 A JP 2013005764A JP 2013005764 A JP2013005764 A JP 2013005764A JP 2014138269 A JP2014138269 A JP 2014138269A
- Authority
- JP
- Japan
- Prior art keywords
- decoding
- picture
- display time
- time
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000004904 shortening Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 74
- 238000010586 diagram Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 17
- 238000000926 separation method Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 16
- 238000001824 photoionisation detection Methods 0.000 description 16
- 238000004590 computer program Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 239000004065 semiconductor Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 229910019687 S105-No Inorganic materials 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
【解決手段】動画像多重化装置は、動画像データの各ピクチャ及び第1のメディアデータの各符号化単位のそれぞれについて、第1の復号表示時刻情報と第2の復号表示時刻情報を求める制御部15と、動画像データの符号化データにピクチャについての第1及び第2の復号表示時刻情報を付加する動画像パケット生成部12と、第1のメディアデータの符号化データに符号化単位についての第1及び第2の復号表示時刻情報を付加するメディアパケット生成部14とを有する。第1及び第2の復号表示時刻情報は、それぞれ、動画像データの復号単位がピクチャの場合とサブピクチャの場合に対応する。第2の復号表示時刻情報に基づくピクチャの表示時刻は、第1の復号表示時刻情報に基づくピクチャの表示時刻よりも早い。
【選択図】図6
Description
動画像多重化装置100は、動画像符号化部101、動画像パケット生成部102、オーディオ符号化部103、オーディオパケット生成部104、制御部105、システムパケット生成部106及びパケット多重化部107を有する。
動画像符号化部101は、入力された動画像データを、所定の符号化方法、例えば非特許文献2に記載されたAVC規格に従って圧縮符号化する。
動画像パケット生成部102は、圧縮符号化された動画像データを、Packetized Elementary Stream(PES)パケットに変換する。PESパケットの形式は、動画像の一ないし複数ピクチャ毎に、ピクチャの表示時刻等を記述したPESヘッダが付加される形式である。PESパケット化された動画像データは、さらに、188Byteの固定長を持つTSパケットに変換される。TSパケットの形式は、PESパケットを細分化したTSペイロードに、TSヘッダが付加された形式である。TSヘッダには、ペイロードの識別情報PIDが含まれる。
TSヘッダには、他にも、例えば動画像多重化装置100のSystem Time Clock(STC)値を再現するためのProgram Clock Reference(PCR)値が記述される。PCR値は、TSストリーム(TSパケットの列)中の挿入位置(Byte単位)によって厳密に値を決める必要がある。そのため、動画像パケット生成部102とパケット多重化部107の間で必要な情報が交換される。
オーディオパケット生成部104は、圧縮符号化されたオーディオデータを、PESパケット及びTSパケットに変換する。オーディオのPESパケットの形式は、オーディオの1フレーム(1024サンプル)毎に、PESヘッダが付加される形式である。
多重化動画像復号装置200は、パケット分離部201、システムパケット処理部202、制御部203、動画像パケット処理部204、動画像復号部205、オーディオパケット処理部206、及びオーディオ復号部207を有する。
システムパケット処理部202は、システムTSパケットのペイロード部分に入っているPSI情報を解析し、復号対象のプログラムに含まれる動画像及びオーディオのPIDを獲得し、そのPIDをパケット分離部201に通知する。
図3において、横軸は、STC値により表される経過時間を表す。ブロック301は、動画像多重化装置における1ピクチャの入力から伝送完了までに要する時間を表し、ブロック302は、多重化動画像復号装置における1ピクチャの受信開始から表示完了までに要する時間を表す。
このように、コーデック遅延は4ピクチャ時間(例えば、ピクチャレートが29.97 Hzの場合、132ミリ秒)となる。
他にも、遠隔ロボットの操作を、遠隔ロボットが撮影した映像を元に行う場合、遠隔ロボットでのピクチャ入力から操作端末でのピクチャの表示までの遅延はできる限り小さいことが好ましい、例えば、遅延は、約1ピクチャ時間以下となることが好ましい。
しかしながら、既存のMPEG-2 Systemsを、上記のような、コーデック遅延が約1ピクチャ時間以下となる超低遅延を必要とする用途に適用することは困難である。
第1の復号表示時刻情報は、動画像データの復号単位がピクチャの場合に、動画像データと第1のメディアデータとを同期して表示する時刻を表す情報を含む。一方、第2の復号表示時刻情報は、動画像データの復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、動画像データと第1のメディアデータとを同期して表示する時刻を表す情報を含む。そして第2の復号表示時刻情報に基づいて決定されるピクチャの復号時刻及び表示時刻は、第1の復号表示時刻情報に基づいて決定されるピクチャの復号時刻及び表示時刻よりも早い。
第1の復号表示時刻情報は、動画像データの復号単位がピクチャの場合に、動画像データと第1のメディアデータとを同期して表示する時刻を表す情報を含む。一方、第2の復号表示時刻情報は、動画像データの復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、動画像データと第1のメディアデータとを同期して表示する時刻を表す情報を含む。そして第2の復号表示時刻情報に基づいて決定されるピクチャの復号時刻及び表示時刻は、第1の復号表示時刻情報に基づいて決定されるピクチャの復号時刻及び表示時刻よりも早い。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
HEVC規格では、動画像符号化部は、ピクチャ内のDUの個数、各DU内のブロック数、及びDUの復号時刻(相対値)を符号化データ内に記述する。これらのパラメータは、Picture timing Supplemental Enhancement Information(SEI)の、それぞれ、NumDecodingUnitsMinus1フィールド、NumNalusInDuMinus1フィールド、DuCpbRemovalDelayMinus1フィールドに記述される。
HEVC規格では、各DUの復号開始時刻(1s/M)、(2s/M)、・・・を符号化データ内に含め、動画像復号部に対して、各DUの復号開始時刻を明示的に通知する。
しかしながら、非特許文献1に記載のMPEG-2 Systems規格では、DU単位の復号時刻が規定されていないため、動画像以外のメディアデータも符号化対象とするシステムレベルでは超低遅延化を達成できない。
本明細書に開示の実施形態は、以下に述べる方式でMPEG-2 Systems規格を拡張し、システムレベルでのコーデック遅延の軽減を達成する。
非特許文献1に記載のMPEG-2 Systems規格では、PESパケットヘッダには、内包するAU(のうちの先頭AU)のPTSが記述される。
本方式ではまず、動画像符号化部は、上記のAUのPTSに加え、DUのDTSを表す情報を記述する。多重化データの中で各DUの符号化データが、DUのDTSよりも早い時刻に動画像復号部に到着するように多重化されていることが保証される。
なお、DUのDTSを表す情報及び第2のPTSを表す情報が、第2の復号表示情報に相当する。
符号化された動画像のPESパケットと同様に、多重化動画像符号化装置の音声符号化部は、PESパケットヘッダに、AU(オーディオの場合はオーディオフレーム)の第1の復号表示情報であるPTSに加え、第2のPTSを表す情報を追加する。この第2のPTSは、多重化動画像復号装置が、動画像のPESパケット内のDUのDTSに基づく復号動作を行う場合に、該当するAUの復号時刻及び表示時刻を決定するために用いられる。多重化データ内にて、各オーディオフレームも、対応する第2のPTSまでに多重化動画像復号装置に到着するように、多重化されていることが保証される。
また、動画像データに含まれるピクチャは、カラー動画像であってもよく、あるいは、モノクロ動画像であってもよい。
オーディオデータは、決められたサンプリングピッチ及びフレーム長にて符号化され、フレームごとに表示時刻が割り当てられる。オーディオデータに対して適用される符号化方法は非特許文献3に記載のMPEG-2 AACのような圧縮符号化であってもよいし、非特許文献5に記載のG.711のようなPCM符号化であってもよい。
動画像多重化装置10は、動画像符号化部11と、動画像パケット生成部12と、オーディオ符号化部13と、オーディオパケット生成部14と、制御部15と、システムパケット生成部16と、パケット多重化部17と、超低遅延多重化決定部18とを有する。
動画像多重化装置10が有するこれらの各部は、それぞれ、別個の回路として動画像多重化装置10に実装される。あるいは、動画像多重化装置10が有するこれらの各部は、その各部の機能を実現する回路が集積された一つの集積回路として動画像多重化装置10に実装されてもよい。あるいはまた、動画像多重化装置10が有するこれらの各部は、動画像多重化装置10が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールであってもよい。
動画像符号化部11は、符号化動画像データを動画像パケット生成部12に送る。
PESパケット化の動作は、以降で説明する。
オーディオ符号化部13は、符号化オーディオデータをオーディオパケット生成部14に送る。
その際、オーディオパケット生成部14は、AVC規格といった従来の符号化規格に従ってオーディオ復号部がオーディオフレームを復号する際の復号時刻及び表示時刻に関する情報と、オーディオフレームを超低遅延復号する際の復号時刻及び表示時刻に関する情報とを、TSパケットに含める。
その後、オーディオパケット生成部14は、そのTSパケット多重化部17に送る。
制御部15は、超低遅延多重化決定部18から通知される超低遅延符号化制御信号に応じて、動画像符号化部11及びオーディオ符号化部13に対し、それぞれ動画像符号化方法及びオーディオ符号化方法を通知する。
また制御部15は、動画像符号化部11、動画像パケット生成部12、オーディオ符号化部13、オーディオパケット生成部14及びシステムパケット部16に超低遅延符号化制御信号を通知する。ここで、制御部15は、動画像符号化部11に対して、「超低遅延符号化を行う」ことを指示する超低遅延符号化制御信号を通知した場合、ピクチャの各DUの復号時刻、及び超低遅延符号化時の表示時刻(第2の表示時刻)を算出し、動画像パケット生成部12に通知する。なお、各DUの復号時刻及び表示時刻については後述する。
また制御部15は、入力された動画像データの垂直同期信号V-SyncのタイミングでのSTC値を、各ピクチャの表示時刻(第1の表示時刻)として、動画像パケット生成部12に、超低遅延符号化制御信号と併せて通知する。この場合、制御部15はさらに、ピクチャの第1の表示時刻と第2の表示時刻と、入力オーディオデータのオーディオフレーム先頭サンプルのタイミングでのSTC値を、オーディオパケット生成部14に、超低遅延符号化制御信号と併せて通知する。
TSストリーム700は、連続する複数のTSパケット701を含む。TSパケット701のそれぞれは固定長を持つ。本実施例では、TSパケット701の長さは188Byteである。
TSパケット701は、先頭から順に、TSヘッダ702と、AdaptationField703と、ペイロード704とを含む。
AdaptationField703は、TSヘッダ702内のAdaptationFieldControlフィールドが'10'もしくは'11'の場合に出現する。AdaptationField703も、MPEG-2 Systems規格に従う複数のフィールドを有する。
ペイロード704は、TSヘッダ702のAdaptationFieldControlフィールドが'01'もしくは'11'の場合に出現する。TSヘッダ702のPIDフィールドの値が、動画像PESパケットであることを表す場合、TSパケット701は動画像TSパケットであり、ペイロード704には動画像PESパケットが細分化されたデータが格納される。一方、TSヘッダ702のPIDフィールドの値が、オーディオPESパケットであることを表す場合、TSパケット701はオーディオTSパケットであり、ペイロード704にはオーディオPESパケットが細分化されたデータが格納される。
また、TSヘッダ702のPIDフィールドの値が'0x0'である場合、もしくは後述するProgramMapIDの値である場合、TSパケット701はシステムTSパケットである。そしてペイロード704には、それぞれ、Program Association Table(PAT)もしくはProgram Map Table(PMT)が格納される。
第1の実施形態によるシステムTSパケット801は、Program Association Table(PAT)をペイロードに含むTSパケットである。システムTSパケット801も、図7に示されるTSパケットと同様に、先頭から順に、TSヘッダ802と、AdaptationField803と、ペイロード804とを含む。この場合、TSパケットヘッダ802のPIDフィールドには'0'が設定される。
ペイロード804には、MPEG-2 Systems規格で規定される、PATの各フィールドが含まれる。本実施形態では、TableIDフィールドの値は0に設定される。また、ProgramMapIDは、個々のプログラムの構成が記述されたProgram Map Table(PMT)を含むシステムTSパケットのPIDを記述する。この例ではProgramMapIDには、'A'が記述される。
ペイロード814には、MPEG-2 Systems規格で規定される、PMTの各フィールドが含まれる。この例では、TableIDフィールドは'2'に設定される。
StreamTypeは、各エレメンタリーストリームの種別が記述される。例えば、非特許文献2に記載のAVC規格、非特許文献3に記載のMPEG-2 AAC規格、及び非特許文献4に記載のHEVC規格のエレメンタリーストリームでは、StreamTypeには、それぞれ、'0x1B'、'0x0F'、'0x24'が設定される。
ElementaryPIDには、各エレメンタリーストリームが格納されるTSパケットのPIDが記述される。
ESInfoLengthに後続するDescritorは、エレメンタリーストリームの種別毎に定義される複数のフィールドを有する。Descritorの数は、ESInfoLengthに依存する。詳細は以降で説明する。
Descriptor901は、HEVCビデオデスクリプタである。フラグSubPicLowDelayFlagより上の各フィールドは、非特許文献6に記載されたHEVC規格の同一名デスクリプタの各フィールドに対応する。
本実施形態では、これらの各フィールドに、フラグSubPicLowDelayFlagが追加される。フラグSubPicLowDelayFlagは、超低遅延符号化を行うか否かを表すフラグである。本実施形態では、フラグSubPicLowDelayFlagが'0'である場合に、動画像多重化装置10は、動画像データを超低遅延符号化する。フラグSubPicLowDelayFlagが'0'である場合、動画像PESに第1のPTSと第2のPTS情報(詳細は後述)とが含まれ、それ以外のエレメンタリーストリームのPESにも第1のPTSと第2のPTS情報とが含まれる。
本実施形態では、これらの各フィールドに、フラグSubPicParamPresentFlagが追加される。SubPicParamPresentFlagは、超低遅延符号化を行うか否かを表すフラグである。本実施形態では、フラグSubPicParamPresentFlagは、超低遅延符号化を行う場合、HEVCエレメンタリーストリームのVideo Usability Information(VUI)内のSubPicParamPresentFlagを反転させた値に設定される。すなわち、フラグSubPicLowDelayFlagが'1'である場合は、フラグSubPicParamPresentFlagは必ず'0'である。
リスト1000は、PESパケットの内部フィールドのリストである。第1の実施形態によるPESパケットは、MPEG-2 Systems規格のPESパケットに含まれる各フィールドの他に、第2の復号表示情報であるSecondPTSDelta及びAdditionalDTSDeltaを含む。
PTSには、第1のPTS値、即ち超低遅延符号化を行わない場合のPTS値が格納される。
また、DTSは、PTSDTSFlagが'10'の場合には出現しない。
また、SubPicLowDelayFlagが'0'である場合、すなわち、超低遅延符号化が行われる場合、StreamIdExtensionは、必ず'1'とする。同様に、SubPicLowDelayFlagが'0'である場合、すなわち、超低遅延符号化が行われる場合、TREFExtensionFlagは、必ず'0'とする。
パラメータAdditionalDTSDeltaは、多重化動画像復号装置が超低遅延復号を行う場合に用いる、DTSを算出するためのパラメータである。AdditionalDTSDeltaは、SubPicLowDelayFlagが'0'である場合に出現する。導出方法及び利用方法は後述する。
PESPacketDataByteは、一つのAUデータが格納される。
そして制御部15は、動画像PESパケットのSecondPTSDelta及びAdditionalDTSDeltaを、それぞれ、DeltaPTS及びDeltaDTSとする。また、制御部15は、オーディオPESパケットのSecondPTSDeltaをDeltaPTSとし、AdditionalDTSDeltaを、1オーディオフレーム時間とする。
図11の処理フローは、制御部15の処理フローである。
制御部15は、動画像多重化開始に先立ち、STC値を所定の値(例えば0)にリセットし、STCのカウントアップを開始する(ステップS101)。また制御部15は、パケット多重化部17に対し、多重化開始を指示する。
一方、オーディオデータの1オーディオフレームの先頭サンプルが入力された場合、制御部15は、入力されたタイミングのSTC値を、このオーディオフレームの第1のPTSとする。また制御部15は、オーディオフレームを符号化開始待ちの状態に設定し、この時刻から所定の時間(1オーディオフレーム時間)だけ経過した時刻を、このオーディオフレームの符号化開始時刻とする。
制御部15は、これらの入力確認を並列的に行う。即ち、V-Sync入力と1オーディオフレームの先頭サンプル入力とが同時に発生した場合、制御部15は、動画像データに対応するPTS値とオーディオデータに対するPTS値に同じ値を設定する。
一方、多重化処理を完了させる外部からの制御信号が入力されておらず、かつ、未符号のピクチャもしくはオーディオフレームが有る場合(ステップS108−No)、制御部15は、ステップS103以降の処理を実行する。
パケット多重化部17は、出力待ち状態にあるTSパケットが存在するか否か確認する(ステップS201)。なお、出力待ち状態にあるTSパケットは、動画像パケット生成部12で生成され、まだパケット多重化部17から出力されていない動画像TSパケット、オーディオパケット生成部14で生成され、まだパケット多重化部17から出力されていないオーディオTSパケット、もしくはシステムパケット生成部16で生成され、まだパケット多重化部17から出力されていないシステムTSパケットである。
図13は、第1の実施形態による、多重化動画像復号装置の概略構成図である。
多重化動画像復号装置20は、パケット分離部21と、システムパケット処理部22と、制御部23と、動画像パケット処理部24と、動画像復号部25と、オーディオパケット処理部26と、オーディオ復号部27と、超低遅延復号決定部28とを有する。
多重化動画像復号装置20が有するこれらの各部は、それぞれ、別個の回路として多重化動画像復号装置20に実装される。あるいは、多重化動画像復号装置20が有するこれらの各部は、その各部の機能を実現する回路が集積された一つの集積回路として多重化動画像復号装置20に実装されてもよい。あるいはまた、多重化動画像復号装置20が有するこれらの各部は、多重化動画像復号装置20が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールであってもよい。
システムパケット処理部22はまた、PMTのSubPicLowDelayFlagパラメータを超低遅延復号決定部28に通知する。
動画像復号部25及びオーディオ復号部27は、それぞれ、1ピクチャの復号に要する時間VideoDecDelayもしくは1オーディオフレームの復号に要する時間AudioDecDelayを求める。これらの時間情報は、動画像復号部25及びオーディオ復号部27が、それぞれ、符号化動画像及び符号化オーディオの先頭AUのパラメータ(例えばピクチャサイズ、オーディオフレーム長)に基づいて決定する。例えば、時間VideoDecDelay及び時間AudioDecDelayは、それぞれ、1ピクチャ時間、1オーディオフレーム時間になる。時間VideoDecDelay及びAudioDecDelayの精度は、例えば、27MHz、あるいは90KHzであってもよい。そして動画像復号部25は、VideoDecDelayを制御部23に通知し、オーディオ復号部27は、AudioDecDelayを制御部23に通知する。制御部23は、VideoDecDelay及びAudioDecDelayのいずれか大きい方の値を復号遅延DecDelayとする。
また動画像の各ピクチャの表示時刻は、復号時刻に復号遅延DecDelayを加算した時刻とする。STC値がこの値と等しくなったときに、制御部23は、動画像復号部25に対しそのピクチャの表示を指示する。
制御部23は、動画像の各ピクチャの復号時刻を、動画像PESパケット中の対応PTSを300倍した値から動画像PESパケット中のAdditionalDTSDeltaを減算した時刻とする。また制御部23は、動画像の各ピクチャの表示時刻を、動画像PESパケット中の対応PTSを300倍した値から動画像PESパケット中SecondPTSDeltaを減算した時刻とする。
制御部23はまず、多重化動画像復号装置20全体を初期化する(ステップS301)。次に、制御部23は、受信した多重化動画像データ内のシステムTSパケットを解析し、そのTSパケットのペイロードに含まれるPAT及びPMTの情報を取得する(ステップS302)。
多重化動画像データの復号が完了していない場合(ステップS313−No)、制御部23は、ステップS304以降の処理を実行する。一方、多重化動画像データの復号が完了した場合(ステップS313−Yes)、制御部23は、復号処理を終了する。
図15において、横軸はSTC値により表される経過時間を表す。ブロック1501は、動画像多重化装置10の動画像符号化部11が、図4に示されるDU単位の符号化方法によって動画像データを符号化した場合の、1ピクチャの取り込み、符号化、伝送のタイミングを表す。Δは、図4における(1s/M)に相当する。
ブロック1502は、動画像多重化装置10のオーディオ符号化部13における、1オーディオフレームの取り込み、符号化、伝送のタイミングを表す。この例では、1オーディオフレーム時間はΔに等しいとする。ピクチャ及びオーディオサンプルの取り込み開始時刻は共にt1である。
制御部23のSTCがt1となった時刻から、(M-1)s/Mだけ前の時刻dtsにてピクチャの復号を開始することが可能になる。また時刻t1から(M-3)s/Mだけ前の時刻pts'にてピクチャの表示を開始することが可能になる。従って、この場合のコーデック遅延は、5Δ=(5s/M)となる。このように、第1の実施形態によれば、従来技術に比べてコーデック遅延が大幅に減少することが分かる。なお、動画像多重化装置が超低遅延符号化を行わない場合、ピクチャの取り込み開始から符号化ピクチャの伝送開始までの間隔は2sに増加し、コーデック遅延はさらに増加する。
図16は、第2の実施形態によるシステムTSパケットのデータ構造を示す図である。本実施形態において、システムTSパケット1601は、図8に示されるシステムTSパケット801と同様に、先頭から順に、TSヘッダ1602と、AdaptationField1603と、ペイロード1604とを含む。システムTSパケット1601の各フィールドは、システムTSパケット801の各フィールドと同一である。
この実施形態では、PMTのフィールド構造を示すペイロード1614において、超低遅延符号化の有無を記述するフラグSubPicLowDelayFlagが、各エレメンタルストリームの情報を記述する、StreamTypeからDescriptorのループの前に出現する。この例では、フラグSubPicLowDelayFlagは、ProgramInfoLengthの直前に出現するが、他の場所に配置されてもよい。ただし、TableIDからProgramInfoLengthまでのビット量について、MPEG-2 Systems規格との互換性を担保するために、図16には明記していないリザーブビットのうちの一つをフラグSubPicLowDelayFlagに置き換えることが好ましい。MPEG-2 Systems規格におけるリザーブビットは、符号化データ全体のデータ量をByte単位とし、かつ、bit単位の長さを持つ各フィールドへ、Byte単位でアクセスできるよう、各フィールドをバイト単位でアライメントするために用いられている。この例では、図10に示されるAlternativePTSDTSFlagはPESパケット内に出現せず、SecondPTSDelta及びAdditionalDTSDeltaは、PMTのフラグSubPicLowDelayFlagによって出現するか否かが規定される。
図17は、第3の実施形態による、動画像PESパケット及びオーディオPESパケットを含む、エレメンタリーストリームPESパケットの構造である。
図17に示されるPESパケット1700では、図10に示された、従来の規格に従って復号する際の表示時刻からの差分値であるSecondPTSDelta及びAdditionalDTSDeltaの代わりに、SecondPTS及びSecondDTSが記述されている。SecondPTS及びSecondDTSは、それぞれ、超低遅延復号する際の第2の表示時刻及び復号時刻を直接記述する。すなわち、SecondPTS及びSecondDTSは、それぞれ、図12のdts(video)(動画像データの場合)またはdts(Audio)(オーディオデータの場合)、及びpts’に相当する。SecondPTS及びSecondDTSの単位は90 KHzであってもよいし、27MHzであってもよい。
動画像多重化装置10及び多重化動画像復号装置20内の各部は、SecondPTS及びSecondDTSを第2の表示時刻及び復号時刻そのものとして、第1の実施形態による動画像多重化装置10及び多重化動画像復号装置20の処理と同様の処理を行う。
図18は、第4の実施形態による、動画像PESパケット及びオーディオPESパケットを含む、エレメンタリーストリームPESパケットの構造である。
図18に示されるPESパケット1800では、図10に示されたPESパケットと比較して、アクセスユニット(AU)(1ピクチャもしくは1オーディオフレーム)ごとのDUの数を表すパラメータNumDUDTSDeltaフィールドが追加されている。さらに、PESパケット1800では、AUごとではなく、DUごとにAdditionalDTSDelayが記述される。第4の実施形態では、AdditionalDTSDelayはNumDUDTSDeltaの値の数だけ出現する。
一方、PESパケットが動画像PESパケットである場合、NumDUDTSDeltaは、符号化動画像中のPicture timing SEIに含まれるNumDecodingUnitsMinus1フィールドの値に'1'を加算した値、すなわち、NumDUDTSDeltaは、AUに含まれるDUの個数に相当する。また、各DUの復号時刻は、動画像PESパケットのPTSから、対応するAdditionalDTSDelayを減算した値となる。
一方、多重化動画像復号装置20の制御部23は、動画像復号部25に対して、ピクチャ内のDUごとに、その復号時刻にDUの復号を指示する。図14に示される復号処理の動作フローにおいては、制御部23は、ステップS308にてDUごとの復号時刻を決定する。そしてステップS309では、制御部23は、DUごとに、その復号時刻がSTC値と一致するか否か判定し、一致した場合に、動画像復号部25に対して、該当DUの復号開始を指示する。
第5の実施形態では、動画像多重化装置10の制御部15及びオーディオパケット生成部12は、オーディオPESパケットに含めるAdditionalDTSDelayの値を常に'0'にする。また、多重化動画像復号装置20の制御部23、動画像復号部25及びオーディオ復号部27は、以下のようにピクチャ及びオーディオサンプルの復号時刻及び表示時刻を決定する。
ブロック1901は、図15に示されるブロック1501と同様に、図4に示されるDU単位の符号化方法によって動画像データを符号化した場合の、1ピクチャの取り込み、符号化、伝送のタイミングを表す。またブロック1902は、図15に示されるブロック1502と同様に、1オーディオフレームの取り込み、符号化、伝送のタイミングを表す。第5の実施形態による、動画像多重化装置における、取り込み、符号化、及び伝送のタイミングは、ピクチャ、オーディオフレームとも、第1の実施形態による、取り込み、符号化、及び伝送のタイミングと同じである。
図20は、第6の実施形態による動画像PESパケットの構造を示す図である。
AU2001は、一つのピクチャに相当し、1以上のDU2002を含む。
各DU2002は、最低限一つのスライスNALを含む、複数のNALの集合である。各DU2002は、先頭から順に、Delimiter NAL2101(AU先頭のDUのみ、Delimiter NALを含んでもよい)、SEI NAL2102(0ないし複数)、スライスNAL2103(一つ以上)、SEI NAL2104(0ないし複数)を含む。AUのPicture timing SEIには、AU内のDUの個数と、各DUが含むNALの数が記述されている。
一つのPESパケット2003が、少なくとも一つのDU2002を格納する。
本実施形態では、PESパケット1700の各フィールドの意味及び値は、以下のようになる。
PTS: 本フィールドは、本DUを含むAUの第1のPTSの値を格納する。AU内の全DUは、同一のPTSを持つ。
DTS: 本フィールドは使用されない。もしくは、DTSにPTSと同じ値が入れられてもよい。
SubPicLowDelayFlag: 本フィールドは、SecondPTS及びSecondDTSが出現する場合に'0'とする。
SecondDTS: 本フィールドは、本DUのDTSを格納する。
SecondPTS: 本フィールドは、本DUに含まれる画素の出力開始時刻を記述する。例えば、図4に示されるように各DUが符号化されている場合、SecondPTSの値は、SecondDTSに(2s/M)を加算した値となる。なお、SecondPTSの値は、各DUで個別の値を明記せずに、AU内先頭DUのSecondPTSの値としてもよい。この場合、動画像復号部25は、AU内先頭DUのSecondPTSに、復号対象となるDUのSecondDTSの値からAU内の先頭DUのSecondDTSの値を減算した値を加算した値を、本DUの第2のPTSとする。
11 動画像符号化部
12 動画像パケット生成部
13 オーディオ符号化部
14 オーディオパケット生成部
15 制御部
16 システムパケット生成部
17 パケット多重化部
20 多重化動画像復号装置
21 パケット分離部
22 システムパケット処理部
23 制御部
24 動画像パケット処理部
25 動画像復号部
26 オーディオパケット処理部
27 オーディオ復号部
Claims (14)
- 動画像データと、動画像以外の第1のメディアデータとを多重化し出力する動画像多重化装置であって、
前記動画像データの各ピクチャ及び前記第1のメディアデータの各符号化単位のそれぞれについて、該ピクチャ及び該符号化単位の復号時刻及び表示時刻を決定するための第1の復号表示時刻情報と第2の復号表示時刻情報を求める制御部と、
前記動画像データの符号化データを含む動画像パケットに前記ピクチャについての前記第1の復号表示時刻情報及び前記第2の復号表示時刻情報を付加する動画像パケット生成部と、
前記第1のメディアデータの符号化データを含むメディアパケットに前記符号化単位についての前記第1の復号表示時刻情報及び前記第2の復号表示時刻情報を付加するメディアパケット生成部と、
前記動画像パケットと前記メディアパケットとを多重化することによりデータストリームを生成し、該データストリームを出力するパケット多重化部と、
を有し、
前記第1の復号表示時刻情報は、前記動画像データの復号単位がピクチャの場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報は、前記動画像データの前記復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻は、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻よりも早い、
動画像多重化装置。 - 前記パケット多重化部は、前記動画像データの前記復号単位が前記サブピクチャである場合、前記動画像データの各ピクチャについて、当該ピクチャ内の先頭の前記サブピクチャに相当する符号化データ及び前記第1のメディアデータの当該ピクチャに対応する前記符号化単位の符号化データが、前記第2の復号表示時刻情報に基づいて決定される当該ピクチャの復号時刻と同じか、もしくはより早く、前記データストリームを復号する復号装置に到達するように、前記動画像パケットと前記メディアパケットとを多重化する、請求項1に記載の動画像多重化装置。
- 前記ピクチャについての前記第2の復号表示時刻情報は、前記サブピクチャの復号に要するサブピクチャ復号時間を表す情報を含み、
前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻は、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻よりも、ピクチャ全体の復号に要する時間から前記サブピクチャ復号時間を減じた時間だけ早い、請求項2に記載の動画像多重化装置。 - 前記第2の復号表示時刻情報は、前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻よりも前記ピクチャの先頭から二つの前記サブピクチャの復号に要する時間だけ遅い時間を前記ピクチャの表示時刻として表す情報を含む、請求項3に記載の動画像多重化装置。
- 前記動画像パケット生成部は、前記第2の復号表示時刻情報として、前記ピクチャ内の先頭のサブピクチャの復号時刻及び表示時刻を表す情報を、前記動画像パケットに付加する、請求項1に記載の動画像多重化装置。
- 前記動画像パケット生成部は、前記第2の復号表示時刻情報として、前記サブピクチャごとの復号時刻及び表示時刻を表す情報を、前記動画像パケットに付加する、請求項1に記載の動画像多重化装置。
- 符号化された動画像データと、動画像以外の符号化された第1のメディアデータとが多重化された多重化データを復号する多重化動画像復号装置であって、
前記多重化データに含まれる、前記動画像データの各ピクチャ及び前記第1のメディアデータの各符号化単位のそれぞれについて、該ピクチャ及び該符号化単位の復号時刻及び表示時刻を決定するための第1の復号表示時刻情報と第2の復号表示時刻情報に基づいて、各ピクチャの復号時刻及び表示時刻と、各符号化単位の復号時刻及び表示時刻を決定する制御部と、
各ピクチャについて、当該ピクチャの復号時刻に従って当該ピクチャの復号を開始し、当該ピクチャの表示時刻に従って当該ピクチャの表示を開始する動画像復号部と、
各符号化単位について、当該符号化単位の復号時刻に従って当該符号化単位の復号を開始し、当該符号化単位の表示時刻に従って当該符号化単位の出力を開始するメディア復号部と、
を有し、
前記第1の復号表示時刻情報は、前記動画像データの復号単位がピクチャの場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報は、前記動画像データの前記復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻は、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻よりも早い、
多重化動画像復号装置。 - 前記制御部は、前記動画像データの前記復号単位が前記サブピクチャであり、かつ、前記動画像復号部が前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの表示時刻にて前記ピクチャの表示を開始することが可能である場合に、各ピクチャについての前記第2の復号表示時刻情報に基づいて、各ピクチャの復号時刻及び表時刻を決定し、かつ、各符号化単位についての前記第2の復号表示時刻情報に基づいて、各符号化単位の復号時刻及び表時刻を決定する、請求項7に記載の多重化動画像復号装置。
- 前記ピクチャについての前記第2の復号表示時刻情報は、前記サブピクチャの復号に要するサブピクチャ復号時間を表す情報を含み、
前記制御部は、前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻を、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻よりも、ピクチャ全体の復号に要する時間から前記サブピクチャ復号時間を減じた時間だけ早い時刻に設定する、請求項8に記載の多重化動画像復号装置。 - 前記第2の復号表示時刻情報は、前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻よりも前記ピクチャの先頭から二つのサブピクチャの復号に要する時間だけ遅い時間を前記ピクチャの表示時刻として表す情報を含む、請求項9に記載の多重化動画像復号装置。
- 前記第2の復号表示時刻情報は、前記ピクチャ内の先頭のサブピクチャの復号時刻及び表示時刻を表す情報である、請求項7に記載の多重化動画像復号装置。
- 前記第2の復号表示時刻情報は、サブピクチャごとの復号時刻及び表示時刻を表す情報を含む、請求項7に記載の多重化動画像復号装置。
- 動画像データと、動画像以外の第1のメディアデータとを多重化し出力する動画像多重化方法であって、
前記動画像データの各ピクチャ及び前記第1のメディアデータの各符号化単位のそれぞれについて、該ピクチャ及び該符号化単位の復号時刻及び表示時刻を決定するための第1の復号表示時刻情報と第2の復号表示時刻情報を求め、
前記動画像データの符号化データを含む動画像パケットに前記ピクチャについての前記第1の復号表示時刻情報及び前記第2の復号表示時刻情報を付加し、
前記第1のメディアデータの符号化データを含むメディアパケットに前記符号化単位についての前記第1の復号表示時刻情報及び前記第2の復号表示時刻情報を付加し、
前記動画像パケットと前記メディアパケットとを多重化することによりデータストリームを生成し、該データストリームを出力する、
ことを含み、
前記第1の復号表示時刻情報は、前記動画像データの復号単位がピクチャの場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報は、前記動画像データの前記復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻は、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻よりも早い、
動画像多重化方法。 - 符号化された動画像データと、動画像以外の符号化された第1のメディアデータとが多重化された多重化データを復号する多重化動画像復号方法であって、
前記多重化データに含まれる、前記動画像データの各ピクチャ及び前記第1のメディアデータの各符号化単位のそれぞれについて、該ピクチャ及び該符号化単位の復号時刻及び表示時刻を決定するための第1の復号表示時刻情報と第2の復号表示時刻情報に基づいて、各ピクチャの復号時刻及び表示時刻と、前記第1のメディアデータの各符号化単位の復号時刻及び表示時刻を決定し、
各ピクチャについて、当該ピクチャの復号時刻に従って当該ピクチャの復号を開始し、当該ピクチャの表示時刻に従って当該ピクチャの表示を開始し、
各符号化単位について、当該符号化単位の復号時刻に従って当該符号化単位の復号を開始し、当該符号化単位の表示時刻に従って当該符号化単位の出力を開始する、
ことを含み、
前記第1の復号表示時刻情報は、前記動画像データの復号単位がピクチャの場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報は、前記動画像データの前記復号単位が、ピクチャを複数に分割して得られるサブピクチャである場合に、前記動画像データと前記第1のメディアデータとを同期して表示する時刻を表す情報を含み、
前記第2の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻は、前記第1の復号表示時刻情報に基づいて決定される前記ピクチャの復号時刻及び表示時刻よりも早い、
多重化動画像復号方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013005764A JP6119260B2 (ja) | 2013-01-16 | 2013-01-16 | 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 |
EP14151135.2A EP2757795B1 (en) | 2013-01-16 | 2014-01-14 | Video multiplexing apparatus, video multiplexing method, multiplexed video decoding apparatus, and multiplexed video decoding method |
US14/155,770 US9083993B2 (en) | 2013-01-16 | 2014-01-15 | Video/audio data multiplexing apparatus, and multiplexed video/audio data decoding apparatus |
CN201410018007.6A CN103929657B (zh) | 2013-01-16 | 2014-01-15 | 视频复用设备和方法、复用视频解码设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013005764A JP6119260B2 (ja) | 2013-01-16 | 2013-01-16 | 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014138269A true JP2014138269A (ja) | 2014-07-28 |
JP6119260B2 JP6119260B2 (ja) | 2017-04-26 |
Family
ID=50030053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013005764A Active JP6119260B2 (ja) | 2013-01-16 | 2013-01-16 | 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9083993B2 (ja) |
EP (1) | EP2757795B1 (ja) |
JP (1) | JP6119260B2 (ja) |
CN (1) | CN103929657B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160107014A (ko) * | 2015-03-03 | 2016-09-13 | 단국대학교 산학협력단 | 초저지연을 위한 데이터 전송 및 수신방법과 그 장치 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2938904C (en) * | 2014-02-06 | 2023-08-01 | Brett Shellhammer | System, methods, and devices for addressed data communications |
JP6301816B2 (ja) * | 2014-11-17 | 2018-03-28 | 株式会社東芝 | 送信装置及び送受信システム |
EP3254462A1 (en) | 2015-02-05 | 2017-12-13 | Cisco Technology, Inc. | Method and system for processing hevc coded video in broadcast and streaming applications |
JP6418000B2 (ja) * | 2015-02-19 | 2018-11-07 | アイコム株式会社 | 無線通信システム、無線機、無線通信方法、パケットの生成方法およびパケットからのデータ再生方法 |
JP6883214B2 (ja) * | 2015-09-15 | 2021-06-09 | ソニーグループ株式会社 | 受信装置および方法、送信装置および方法 |
JP6133960B2 (ja) * | 2015-11-12 | 2017-05-24 | 株式会社Pfu | 映像処理装置、および、映像処理方法 |
CN105979347A (zh) * | 2015-12-03 | 2016-09-28 | 乐视致新电子科技(天津)有限公司 | 一种视频的播放方法和装置 |
CN107666701B (zh) * | 2016-07-31 | 2020-07-31 | 上海朗帛通信技术有限公司 | 一种无线传输的ue和基站中的方法和装置 |
US10321184B2 (en) * | 2016-12-13 | 2019-06-11 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
CN108933768B (zh) * | 2017-05-27 | 2021-06-08 | 成都鼎桥通信技术有限公司 | 视频帧的发送帧率的获取方法和装置 |
CN108769815B (zh) * | 2018-06-21 | 2021-02-26 | 威盛电子股份有限公司 | 视频处理方法及其装置 |
CN112839229A (zh) * | 2019-11-25 | 2021-05-25 | 合肥杰发科技有限公司 | 计算解码耗时的方法、计算编码耗时的方法及其相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002111734A (ja) * | 2000-10-03 | 2002-04-12 | Canon Inc | マルチメディアデータ伝送システム並びに伝送装置および方法 |
JP2002290969A (ja) * | 2001-03-26 | 2002-10-04 | Ikegami Tsushinki Co Ltd | 同期制御装置 |
JP2010232720A (ja) * | 2009-03-25 | 2010-10-14 | Toshiba Corp | 画像符号化方法および画像復号化方法 |
JP2010252151A (ja) * | 2009-04-17 | 2010-11-04 | Renesas Electronics Corp | 再生装置、及び同期再生方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001127726A (ja) * | 1999-10-29 | 2001-05-11 | Sony Corp | 信号処理装置及び方法並びに記録媒体 |
JP4538908B2 (ja) * | 2000-06-14 | 2010-09-08 | ソニー株式会社 | データ変換装置及び方法 |
US7330640B2 (en) * | 2002-04-15 | 2008-02-12 | Thomson Licensing | Display of closed caption and sub-picture information during limited speedup video trick modes |
US20070096481A1 (en) * | 2005-11-01 | 2007-05-03 | Huang Ching Y | Door retaining device |
US20080158254A1 (en) * | 2006-12-29 | 2008-07-03 | Hong Jiang | Using supplementary information of bounding boxes in multi-layer video composition |
FI124520B (fi) * | 2009-04-14 | 2014-09-30 | Moncef Gabbouj | Menetelmä ja järjestely digitaalisten multimediasignaalien synkronoimiseksi |
-
2013
- 2013-01-16 JP JP2013005764A patent/JP6119260B2/ja active Active
-
2014
- 2014-01-14 EP EP14151135.2A patent/EP2757795B1/en not_active Not-in-force
- 2014-01-15 US US14/155,770 patent/US9083993B2/en active Active
- 2014-01-15 CN CN201410018007.6A patent/CN103929657B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002111734A (ja) * | 2000-10-03 | 2002-04-12 | Canon Inc | マルチメディアデータ伝送システム並びに伝送装置および方法 |
JP2002290969A (ja) * | 2001-03-26 | 2002-10-04 | Ikegami Tsushinki Co Ltd | 同期制御装置 |
JP2010232720A (ja) * | 2009-03-25 | 2010-10-14 | Toshiba Corp | 画像符号化方法および画像復号化方法 |
JP2010252151A (ja) * | 2009-04-17 | 2010-11-04 | Renesas Electronics Corp | 再生装置、及び同期再生方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160107014A (ko) * | 2015-03-03 | 2016-09-13 | 단국대학교 산학협력단 | 초저지연을 위한 데이터 전송 및 수신방법과 그 장치 |
KR101718603B1 (ko) * | 2015-03-03 | 2017-03-21 | 단국대학교 산학협력단 | 초저지연을 위한 데이터 전송 및 수신방법과 그 장치 |
Also Published As
Publication number | Publication date |
---|---|
US9083993B2 (en) | 2015-07-14 |
JP6119260B2 (ja) | 2017-04-26 |
EP2757795A1 (en) | 2014-07-23 |
US20140201798A1 (en) | 2014-07-17 |
EP2757795B1 (en) | 2016-11-30 |
CN103929657A (zh) | 2014-07-16 |
CN103929657B (zh) | 2017-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6119260B2 (ja) | 動画像多重化装置及び動画像多重化方法、ならびに多重化動画像復号装置及び多重化動画像復号方法 | |
JP5979499B2 (ja) | 再生装置、再生方法、集積回路、放送システム、及び放送方法 | |
US9942622B2 (en) | Methods and systems for synchronizing media stream presentations | |
KR100953457B1 (ko) | 다지점 회의 시스템, 다지점 회의 방법 및 프로그램을 기록하고 있는 컴퓨터 판독가능 기록 매체 | |
KR101967818B1 (ko) | 수신 장치 및 그 수신 방법 | |
US10187646B2 (en) | Encoding device, encoding method, transmission device, decoding device, decoding method, and reception device | |
US9601156B2 (en) | Input/output system for editing and playing ultra-high definition image | |
JPWO2013136754A1 (ja) | 表示装置、及び送信装置 | |
US11722714B2 (en) | Transmitting method, receiving method, transmitting device and receiving device | |
US20140375889A1 (en) | Method, apparatus, and system for switching transport stream | |
EP3185564A1 (en) | Video stream splicing of groups of pictures (gop) | |
KR102396133B1 (ko) | 송신 장치, 송신 방법, 수신 장치 및 수신 방법 | |
JP5957769B2 (ja) | 映像処理装置及び映像処理方法 | |
KR20100044090A (ko) | 영상 부호화 장치, 영상 부호화 방법 | |
US10506265B2 (en) | Transmitting method, receiving method, transmitting device and receiving device | |
KR101824278B1 (ko) | 단일 디코더로 채널 변경을 가능하게 하기 위한 수신기 및 수신기에서의 방법 | |
US20140327740A1 (en) | Transmission apparatus, transmisson method, receiver and receiving method | |
US9392214B2 (en) | High definition video recorder/player | |
US9866898B2 (en) | Elementary stream multiplexing method, multiplexing system, encoding or decoding method and apparatus | |
JP6464647B2 (ja) | 動画像処理方法、動画像の送信装置、動画像処理システムおよび動画像処理プログラム | |
JP2018033194A (ja) | 符号化装置 | |
JP6257448B2 (ja) | 符号化装置、復号装置、符号化方法及び復号方法 | |
KR101609798B1 (ko) | 동영상 판독 장치 | |
JP5918030B2 (ja) | データ中継装置、データ中継方法、データ伝送システムおよびプログラム | |
JP2011078068A (ja) | 映像伝送方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170313 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6119260 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |