JP6257448B2 - Encoding device, decoding device, encoding method, and decoding method - Google Patents

Encoding device, decoding device, encoding method, and decoding method Download PDF

Info

Publication number
JP6257448B2
JP6257448B2 JP2014112682A JP2014112682A JP6257448B2 JP 6257448 B2 JP6257448 B2 JP 6257448B2 JP 2014112682 A JP2014112682 A JP 2014112682A JP 2014112682 A JP2014112682 A JP 2014112682A JP 6257448 B2 JP6257448 B2 JP 6257448B2
Authority
JP
Japan
Prior art keywords
encoding
video
unit
decoding
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014112682A
Other languages
Japanese (ja)
Other versions
JP2015228553A (en
Inventor
守屋 芳美
芳美 守屋
彰 峯澤
彰 峯澤
亮史 服部
亮史 服部
一之 宮澤
一之 宮澤
幸成 松田
幸成 松田
関口 俊一
俊一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014112682A priority Critical patent/JP6257448B2/en
Publication of JP2015228553A publication Critical patent/JP2015228553A/en
Application granted granted Critical
Publication of JP6257448B2 publication Critical patent/JP6257448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、映像信号や音声信号を符号化してビットストリームを生成する符号化装置及び符号化方法と、ビットストリームに多重化されている符号化データを復号する復号装置及び復号方法とに関するものである。   The present invention relates to an encoding device and an encoding method for encoding a video signal and an audio signal to generate a bit stream, and a decoding device and a decoding method for decoding encoded data multiplexed in the bit stream. is there.

日本のディジタル放送では、以下の非特許文献1に記載されているように、映像信号や音声信号の符号化データである映像ストリームと音声ストリームは、MPEG−2(Moving Picture Experts Group Phase−2)のシステム規格であるトランスポートストリーム(TS)形式で多重化されて伝送される。このとき、符号化装置は、映像ストリーム及び音声ストリームに関連するメタデータの符号化データについても、映像ストリーム及び音声ストリームと一緒に多重化して伝送する。   In Japanese digital broadcasting, as described in Non-Patent Document 1 below, a video stream and an audio stream that are encoded data of a video signal and an audio signal are MPEG-2 (Moving Picture Experts Group Phase-2). The data is multiplexed and transmitted in the transport stream (TS) format, which is a system standard. At this time, the encoding apparatus also multiplexes and transmits the encoded data of the metadata related to the video stream and the audio stream together with the video stream and the audio stream.

MPEG−2でのトランスポートストリーム(TS)の他に、MPEGで標準化が進められている新しいトランスポート方式として、MMT(MPEG Media Transport)があり、MMTは、1つのプログラムを構成する1以上の映像コンポーネント(映像ストリーム)と音声コンポーネント(音声ストリーム)を伝送する際、コンポーネント毎に、異なる伝送形態(例えば、放送、通信など)での伝送を可能にしている。   In addition to the transport stream (TS) in MPEG-2, there is MMT (MPEG Media Transport) as a new transport system that is being standardized in MPEG, and MMT is one or more that constitute one program. When transmitting a video component (video stream) and an audio component (audio stream), it is possible to transmit in a different transmission form (for example, broadcast, communication, etc.) for each component.

ここで、HEVC/H.265(以下、「HEVC」と称する)は、MPEG及びITU(International Telecommunication Union)で標準化された新しい映像符号化方式である。
HEVCでは、時間階層符号化(時間方向にスケーラブルな符号化)が導入されており、アクセスユニット(1ピクチャを復号するために必要な符号化データを含む単位)を構成する符号化単位のNAL(Network Abstraction Layer)ユニット毎に階層レベルを指定することができる。
Here, HEVC / H. H.265 (hereinafter referred to as “HEVC”) is a new video encoding method standardized by MPEG and ITU (International Telecommunication Union).
In HEVC, temporal hierarchical coding (scalable coding in the time direction) has been introduced, and the NAL (the coding unit that constitutes an access unit (a unit including coded data necessary for decoding one picture)) (Network Abstraction Layer) A hierarchical level can be specified for each unit.

図8はHEVCでの時間階層符号化例を示す説明図である。
図8において、TemporalIDは各アクセスユニット(AU)の階層レベルを示す識別情報である。
TemporalID=Lの場合、0の階層だけであるため、時間階層符号化は行われていない。
TemporalID=Lの場合、最大階層が1の階層であり、時間階層符号化が行われている。
同様に、TemporalID=L,Lの場合、最大階層がそれぞれ2,3の階層であり、時間階層符号化が行われている。
FIG. 8 is an explanatory diagram showing an example of time hierarchy coding in HEVC.
In FIG. 8, TemporalID is identification information indicating the hierarchical level of each access unit (AU).
In the case of TemporalID = L 0 , only the 0th layer is present, and thus no time layer encoding is performed.
When TemporalID = L 1 , the maximum hierarchy is a hierarchy of 1, and temporal hierarchy encoding is performed.
Similarly, in the case of TemporalID = L 2 and L 3 , the maximum hierarchies are two or three hierarchies, respectively, and temporal hierarchy coding is performed.

時間階層符号化の内容は公知であるため詳細な説明を省略するが、時間階層符号化の制約として、符号化対象のアクセスユニット(AU)が有する階層レベルより大きい階層レベルを有するアクセスユニット(AU)は参照することができないというものがある。
なお、HEVCでは、最大階層が6までの参照構造による時間階層符号化が可能である。
Since the contents of the time hierarchy coding are known, detailed description thereof will be omitted. However, as a restriction on the time hierarchy coding, an access unit (AU) having a layer level higher than the layer level of the access unit (AU) to be coded is included. ) Cannot be referred to.
In HEVC, temporal hierarchy coding is possible using a reference structure with a maximum hierarchy of up to 6.

図9はピクチャ構造の一例を示す説明図である。
図9において、IRAPは、HEVCで規定されているIRAP(Intra random access point)ピクチャのことであり、ビットストリームの途中から復号を開始するときに、表示順でIRAPピクチャ以降のピクチャについては正常に復号されることが保証される。
GOP(Group Of Pictures)は、1以上のアクセスユニット(AU)の映像信号がフレーム間予測符号化方式で符号化された場合に、前記1以上のアクセスユニットの映像信号の全てを復号することが可能な複数のアクセスユニット(AU)の集合である。即ち、符号化順で先頭のアクセスユニット(AU)であるIRAPピクチャと、そのIRAPピクチャに続くアクセスユニット(AU)(IRAPピクチャ以外のピクチャ)との集合である。
また、SOPは、階層レベル0を有し、符号化順で先頭のピクチャと、そのピクチャに続く階層レベル1以上のピクチャの集合である。
1つのシーケンスのビットストリームは、1以上のGOPから構成され、1つのGOPは1以上のSOPから構成される。図9の例では、LのSOPとLのSOPからGOPが構成されている。
FIG. 9 is an explanatory diagram showing an example of a picture structure.
In FIG. 9, IRAP is an IRAP (Intra Random Access Point) picture defined by HEVC. When decoding is started from the middle of a bitstream, the IRAP picture after the IRAP picture is normally displayed in the display order. Guaranteed to be decrypted.
GOP (Group Of Pictures) may decode all of the video signals of the one or more access units when the video signal of one or more access units (AU) is encoded by the inter-frame predictive coding method. It is a set of possible access units (AU). That is, it is a set of an IRAP picture that is the first access unit (AU) in the coding order and an access unit (AU) (picture other than the IRAP picture) that follows the IRAP picture.
The SOP is a set of pictures having a hierarchy level 0, the first picture in the coding order, and pictures of the hierarchy level 1 or higher following the picture.
One sequence of bitstreams is composed of one or more GOPs, and one GOP is composed of one or more SOPs. In the example of FIG. 9, the GOP is composed of the L 3 SOP and the L 2 SOP.

図10は図9のピクチャ構造で符号化される各ピクチャの符号化順及び表示順を示す説明図である。
先頭のSOPにおいて、符号化順で先頭のアクセスユニット(AU)であるIRAPピクチャに続く各ピクチャは、1つ前のSOPのピクチャを参照画像として符号化されているものである。
このため、IRAPピクチャに続く各ピクチャを正常に復号するには、1つ前のSOPのピクチャを参照する必要があるため、1つ前のSOPのピクチャが既に復号されている必要がある。
よって、先頭のSOPのIRAPピクチャから復号を開始する場合には、1つ前のSOPのピクチャを参照することができない(1つ前のSOPのピクチャが復号されていない)ので、そのIRAPピクチャに続く各ピクチャは、正常に復号を行うことができない。
HEVCでは、符号化順でIRAPピクチャに続くピクチャであって、IRAPピクチャより表示順が早いピクチャはLP(Leading Picutre)と呼ばれ、IRAPピクチャから復号を開始した場合、LPは正常に復号を行うことができない。
なお、IRAPピクチャは、フレーム内符号化方式で符号化されているため、1つ前のSOPのピクチャが復号されていなくても、正常に復号を行うことができる。
FIG. 10 is an explanatory diagram showing the encoding order and display order of each picture encoded with the picture structure of FIG.
In the first SOP, each picture following the IRAP picture that is the first access unit (AU) in the encoding order is encoded using the previous SOP picture as a reference image.
For this reason, in order to normally decode each picture following the IRAP picture, it is necessary to refer to the picture of the previous SOP, and therefore, the picture of the previous SOP needs to be already decoded.
Therefore, when decoding is started from the IRAP picture of the first SOP, the previous SOP picture cannot be referred to (the previous SOP picture has not been decoded). Each subsequent picture cannot be decoded normally.
In HEVC, a picture that follows an IRAP picture in coding order and is earlier in display order than the IRAP picture is called LP (Leading Picture). When decoding starts from an IRAP picture, LP performs decoding normally. I can't.
Note that since the IRAP picture is encoded by the intra-frame encoding method, it can be normally decoded even if the previous SOP picture is not decoded.

例えば、ディジタル放送では、複数のビットストリームが同時に配信され、ユーザによるチャンネル切替によって、表示対象のビットストリームが切り替えられる。
複数のビットストリームには、IRAPピクチャが周期的に挿入されているため、ユーザのチャンネル切替時には、いずれかのIRAPピクチャから復号を開始することで、表示映像を切り替えることができる。
For example, in digital broadcasting, a plurality of bit streams are distributed simultaneously, and the bit stream to be displayed is switched by channel switching by the user.
Since IRAP pictures are periodically inserted into the plurality of bit streams, when a user switches channels, display video can be switched by starting decoding from any of the IRAP pictures.

STD−B32(ARIB(一般社団法人 電波産業会)で策定されたディジタル放送に関する標準規格)STD-B32 (Standard for digital broadcasting established by ARIB (Radio Industry Association))

従来の符号化装置は以上のように構成されているので、時間階層符号化を行う場合、最大階層が大きくなるほど、SOPを構成するピクチャの数が多くなる。このため、復号装置がIRAPピクチャから復号を開始する場合、正常に復号を行うことができないLPの数が増加するので、ユーザによるチャンネル切替によって、表示対象のビットストリームが切り替えられる場合、切替後のビットストリームによるピクチャが表示されるまでに多くの時間を要し、何のピクチャも表示されない時間が長くなってしまう課題があった。
即ち、ユーザによるチャンネル切替によって、表示対象のビットストリームが切り替えられた場合、先頭のLP(図10の例では、B25のピクチャ)の表示時刻からIRAPピクチャの表示時刻になるまでの間、何のピクチャも表示されなくなるので、SOPを構成するピクチャの数が多くなるほど、何のピクチャも表示されない時間が長くなってしまう課題があった。
Since the conventional coding apparatus is configured as described above, when performing temporal layer coding, the larger the maximum layer, the greater the number of pictures that make up the SOP. For this reason, when the decoding device starts decoding from an IRAP picture, the number of LPs that cannot be decoded normally increases. Therefore, when the bit stream to be displayed is switched by the channel switching by the user, It takes a long time to display a picture by a bitstream, and there is a problem that a time during which no picture is displayed becomes long.
That is, when the bit stream to be displayed is switched by channel switching by the user, what is the interval between the display time of the first LP (B25 picture in the example of FIG. 10) and the display time of the IRAP picture. Since no picture is displayed, there is a problem that the time during which no picture is displayed becomes longer as the number of pictures constituting the SOP increases.

この発明は上記のような課題を解決するためになされたもので、ユーザによりチャンネルが切り替えられたときに何のピクチャも表示されない時間を無くして、シームレスなチャンネル切替を実現することができる符号化装置、復号装置、符号化方法及び復号方法を得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and is an encoding that can realize seamless channel switching by eliminating the time during which no picture is displayed when the channel is switched by the user. It is an object to obtain an apparatus, a decoding apparatus, an encoding method, and a decoding method.

この発明に係る符号化装置は、映像のアクセスユニット単位に映像信号を符号化して、その映像信号の符号化データを出力する映像符号化手段と、映像符号化手段により1以上のアクセスユニットの映像信号がフレーム間予測符号化方式で符号化された場合に、1以上のアクセスユニットの映像信号の全てを復号することが可能な複数のアクセスユニットの集合であるGOP毎に、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを含む制御情報を符号化して、GOP単位の制御情報の符号化データを出力する制御情報符号化手段とを設け、多重化手段が、映像符号化手段から出力された映像信号の符号化データと制御情報符号化手段から出力された制御情報の符号化データを多重化し、多重化後の符号化データであるビットストリームを出力するようにしたものである。   An encoding apparatus according to the present invention encodes a video signal in units of video access units and outputs encoded data of the video signal, and video of one or more access units by the video encoding means. When the signal is encoded by the inter-frame predictive encoding method, the first in the presentation order for each GOP that is a set of a plurality of access units capable of decoding all of the video signals of one or more access units. The control information including the presentation time information indicating the presentation time of the access unit and the number information indicating the number of the access units whose presentation order is earlier than the first access unit in the encoding order is encoded to encode the control information in GOP units. Control information encoding means for outputting encoded data, and the multiplexing means is adapted for the encoded data of the video signal output from the video encoding means and the control information code. Multiplexes the encoded data of the control information output from the means, in which to output the bit stream is coded data after multiplexing.

この発明によれば、映像符号化手段により1以上のアクセスユニットの映像信号がフレーム間予測符号化方式で符号化された場合に、1以上のアクセスユニットの映像信号の全てを復号することが可能な複数のアクセスユニットの集合であるGOP毎に、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを含む制御情報を符号化して、GOP単位の制御情報の符号化データを出力する制御情報符号化手段を設け、多重化手段が、制御情報符号化手段から出力された制御情報の符号化データをビットストリームに含めるように構成したので、ユーザによりチャンネルが切り替えられたときに何のピクチャも表示されない時間を無くして、シームレスなチャンネル切替を実現することができる効果がある。   According to the present invention, when the video signal of one or more access units is encoded by the inter-frame prediction encoding method by the video encoding means, it is possible to decode all of the video signals of one or more access units. For each GOP that is a set of a plurality of access units, the presentation time information indicating the presentation time of the first access unit in the presentation order and the number indicating the number of access units earlier in the encoding order than the first access unit in the encoding order Control information encoding means for encoding control information including information and outputting encoded data of GOP unit control information is provided, and the multiplexing means encodes control information output from the control information encoding means. Since the data is configured to be included in the bitstream, there is no time when no picture is displayed when the channel is switched by the user. To an effect capable of seamless channel switching.

この発明の実施の形態1による符号化装置を示す構成図である。It is a block diagram which shows the encoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による符号化装置の処理内容(符号化方法)を示すフローチャートである。It is a flowchart which shows the processing content (encoding method) of the encoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による復号装置を示す構成図である。It is a block diagram which shows the decoding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による復号装置の処理内容(復号方法)を示すフローチャートである。It is a flowchart which shows the processing content (decoding method) of the decoding apparatus by Embodiment 1 of this invention. MMTでビットストリームを伝送する場合の符号化データの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the coding data in the case of transmitting a bit stream by MMT. MPUの構成例を示す説明図である。It is explanatory drawing which shows the structural example of MPU. HEVCピクチャ構造記述子を示す説明図である。It is explanatory drawing which shows a HEVC picture structure descriptor. HEVCでの時間階層符号化例を示す説明図である。It is explanatory drawing which shows the example of time hierarchy encoding in HEVC. ピクチャ構造の一例を示す説明図である。It is explanatory drawing which shows an example of a picture structure. 図9のピクチャ構造で符号化される各ピクチャの符号化順及び提示順を示す説明図である。It is explanatory drawing which shows the encoding order and presentation order of each picture encoded with the picture structure of FIG.

実施の形態1.
図1はこの発明の実施の形態1による符号化装置を示す構成図である。
図1において、音声符号化部1はディジタルの音声信号が与えられると、音声のアクセスユニット(AU)単位に、例えば、MPEG−4オーディオなどの方式によって当該音声信号を符号化して、その音声信号の符号化データである音声ストリームを生成するとともに、その音声ストリームに関するメタデータを符号化する処理を実施する。
音声MMTPペイロード生成部2は音声符号化部1により符号化されたメタデータとアクセスユニット(AU)単位の音声信号の符号化データからなる音声MMTPペイロードを生成する処理を実施する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an encoding apparatus according to Embodiment 1 of the present invention.
In FIG. 1, when a digital audio signal is given, the audio encoding unit 1 encodes the audio signal in units of audio access units (AU) by a method such as MPEG-4 audio. The audio stream that is the encoded data is generated, and the process for encoding the metadata related to the audio stream is performed.
The audio MMTP payload generation unit 2 performs a process of generating an audio MMTP payload including the metadata encoded by the audio encoding unit 1 and encoded data of an audio signal in units of access units (AU).

HEVC符号化部3はディジタルの映像信号が与えられると、映像のアクセスユニット(AU)単位に、HEVC方式によって当該映像信号を符号化して、その映像信号の符号化データである映像ストリームを生成するとともに、その映像ストリームに関するメタデータを符号化する処理を実施する。
映像MMTPペイロード生成部4はHEVC符号化部3により符号化されたメタデータとアクセスユニット(AU)単位の映像信号の符号化データからなる映像MMTPペイロードを生成する処理を実施する。なお、HEVC符号化部3及び映像MMTPペイロード生成部4から映像符号化手段が構成されている。
ここで、音声ストリームや映像ストリームに関するメタデータとして、例えば、各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)などを示す時刻情報を記述することができる。
When a digital video signal is given, the HEVC encoding unit 3 encodes the video signal by the HEVC method for each video access unit (AU), and generates a video stream that is encoded data of the video signal. At the same time, a process for encoding the metadata related to the video stream is performed.
The video MMTP payload generation unit 4 performs a process of generating a video MMTP payload composed of metadata encoded by the HEVC encoding unit 3 and encoded data of a video signal in units of access units (AU). The HEVC encoding unit 3 and the video MMTP payload generation unit 4 constitute video encoding means.
Here, for example, time information indicating DTS (decoding time) or PTS (presentation time) of each access unit (AU) can be described as metadata related to the audio stream and the video stream.

制御情報符号化部5は音声符号化部1により生成された音声ストリーム及びHEVC符号化部3により生成された映像ストリームに関する制御情報として、MMTで規定されているPAメッセージと呼ばれる制御情報を符号化する処理を実施する。
PAメッセージには、1つのプログラム(MMTでは、パッケージと称する)を構成する1以上の映像コンポーネント(映像ストリーム)や音声コンポーネント(音声ストリーム)に関する情報が記述されている。MMTでは、映像コンポーネント及び音声コンポーネントがアセットと呼ばれる。
具体的には、アセットを識別するアセットID、アセットの種類(HEVC形式の映像ストリームやMPEG−4 オーディオ形式の音声ストリームなどの種類)を識別するアセットタイプ、各アセットのMPU(Media Processing Unit)を構成しているアクセスユニット(AU)の中で、提示順(表示順)で先頭のアクセスユニット(AU)の提示時刻(表示時刻)を示すMPUタイムスタンプ記述子(提示時刻情報)、HEVCピクチャ構造記述子、各アセットの符号化データやメタデータを格納しているMMTPパケットを示すパケットIDなどが、パッケージを構成するアセットの数分だけPAメッセージに含まれている。
なお、MPUは、1以上のアクセスユニット(AU)から構成されており、MPU単体で映像や音声の復号処理を行うことができる単位となる。また、MPUは、1以上のアクセスユニット(AU)の映像信号がフレーム間予測符号化方式で符号化される場合には、前記1以上のアクセスユニット(AU)の映像信号の全てを復号することが可能な複数のアクセスユニット(AU)の集合であるGOPと同じ単位になる。
The control information encoding unit 5 encodes control information called PA message defined by MMT as control information related to the audio stream generated by the audio encoding unit 1 and the video stream generated by the HEVC encoding unit 3. Perform the process.
In the PA message, information on one or more video components (video streams) and audio components (audio streams) constituting one program (referred to as a package in MMT) is described. In MMT, video components and audio components are called assets.
Specifically, an asset ID for identifying an asset, an asset type for identifying an asset type (a type such as a HEVC format video stream or an MPEG-4 audio format audio stream), and an MPU (Media Processing Unit) of each asset are set. MPU time stamp descriptor (presentation time information) indicating the presentation time (display time) of the first access unit (AU) in the presentation order (display order) among the configured access units (AU), HEVC picture structure The descriptor, the packet ID indicating the MMTP packet storing the encoded data and metadata of each asset, and the like are included in the PA message by the number of assets constituting the package.
The MPU is composed of one or more access units (AU), and is a unit that can perform video and audio decoding processing by the MPU alone. Also, the MPU decodes all of the video signals of the one or more access units (AU) when the video signals of the one or more access units (AU) are encoded by the inter-frame predictive coding method. It becomes the same unit as GOP which is a set of a plurality of access units (AU).

HEVCピクチャ構造記述子には、MPUを構成しているアクセスユニット(AU)の中で、符号化順で先頭のアクセスユニット(AU)より提示順が早いアクセスユニット(AU)の個数(LPの枚数)を示す個数情報(num_of_leading_picture)、符号化順で先頭のアクセスユニット(AU)を構成しているNALユニット(ナルユニット)の符号化方式を示すピクチャタイプ情報(rap_type)、LPを構成しているNALユニットの符号化方式を示すピクチャタイプ情報(nal_unit_type_of_leading_picture)などが記述されている。   The HEVC picture structure descriptor includes the number of access units (AU) (the number of LPs) among the access units (AU) constituting the MPU that are earlier in presentation order than the first access unit (AU) in the coding order. ) Indicating the number of pieces of information (num_of_leading_picture), picture type information (rap_type) indicating the encoding method of the NAL unit (null unit) constituting the head access unit (AU) in the encoding order, and LP Describes picture type information (nal_unit_type_of_leading_picture) indicating the encoding method of the NAL unit.

制御MMTPペイロード生成部6は制御情報符号化部5により符号化された制御情報の符号化データからなる制御MMTPペイロードを生成する処理を実施する。
なお、制御情報符号化部5及び制御MMTPペイロード生成部6から制御情報符号化手段が構成されている。
The control MMTP payload generation unit 6 performs a process of generating a control MMTP payload composed of encoded data of control information encoded by the control information encoding unit 5.
The control information encoding unit 5 and the control MMTP payload generating unit 6 constitute control information encoding means.

MMTPパケット生成部7は音声MMTPペイロード生成部2により生成された音声MMTPペイロードと、映像MMTPペイロード生成部4により生成された映像MMTPペイロードと、制御MMTPペイロード生成部6により生成された制御MMTPペイロードとを多重化して、ビットストリームを構成するMMTPパケットを生成する処理を実施する。このMMTPパケットを生成する際、所定のMMTPヘッダを付与するが、このMMTPヘッダには、MMTPペイロードに含まれている符号化データの種別に応じて割り当てられるパケットIDが含まれる。なお、MMTPパケット生成部7は多重化手段を構成している。   The MMTP packet generation unit 7 includes an audio MMTP payload generated by the audio MMTP payload generation unit 2, a video MMTP payload generated by the video MMTP payload generation unit 4, a control MMTP payload generated by the control MMTP payload generation unit 6, Is executed to generate MMTP packets constituting the bit stream. When this MMTP packet is generated, a predetermined MMTP header is added, and this MMTP header includes a packet ID assigned according to the type of encoded data included in the MMTP payload. The MMTP packet generation unit 7 constitutes a multiplexing unit.

図1の例では、符号化装置の構成要素である音声符号化部1、音声MMTPペイロード生成部2、HEVC符号化部3、映像MMTPペイロード生成部4、制御情報符号化部5、制御MMTPペイロード生成部6及びMMTPパケット生成部7のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、符号化装置がコンピュータで構成されていてもよい。
符号化装置をコンピュータで構成する場合、音声符号化部1、音声MMTPペイロード生成部2、HEVC符号化部3、映像MMTPペイロード生成部4、制御情報符号化部5、制御MMTPペイロード生成部6及びMMTPパケット生成部7の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による符号化装置の処理内容(符号化方法)を示すフローチャートである。
In the example of FIG. 1, an audio encoding unit 1, an audio MMTP payload generating unit 2, an HEVC encoding unit 3, a video MMTP payload generating unit 4, a control information encoding unit 5, and a control MMTP payload that are components of the encoding device. It is assumed that each of the generation unit 6 and the MMTP packet generation unit 7 is configured with dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, or a one-chip microcomputer). The digitizing device may be constituted by a computer.
When the encoding apparatus is configured by a computer, an audio encoding unit 1, an audio MMTP payload generating unit 2, an HEVC encoding unit 3, a video MMTP payload generating unit 4, a control information encoding unit 5, a control MMTP payload generating unit 6, and A program describing the processing contents of the MMTP packet generation unit 7 may be stored in a memory of a computer so that the CPU of the computer executes the program stored in the memory.
FIG. 2 is a flowchart showing the processing contents (encoding method) of the encoding apparatus according to Embodiment 1 of the present invention.

図3はこの発明の実施の形態1による復号装置を示す構成図である。
図3において、ストリーム選択部11は複数の符号化装置(図1の符号化装置、あるいは、図1の符号化装置に相当する符号化装置)から出力されたビットストリーム(MMTPパケットからなるビットストリーム)の中から、提示対象のビットストリームを選択して、そのビットストリームをMMTPパケット解析部12に出力する処理を実施する。
また、ストリーム選択部11は提示対象のビットストリームを切り替える指令が与えられた場合、複数の符号化装置から出力されたビットストリームの中から、切替後のビットストリームを選択して、当該ビットストリームをMMTPパケット解析部12に出力するとともに、制御MMTPペイロード処理部13により算出された提示時刻になるまでの間、切替前のビットストリームも引き続きMMTPパケット解析部12に出力する処理を実施する。なお、ストリーム選択部11はビットストリーム選択手段を構成している。
3 is a block diagram showing a decoding apparatus according to Embodiment 1 of the present invention.
In FIG. 3, the stream selection unit 11 is a bit stream (a bit stream made up of MMTP packets) output from a plurality of encoding devices (the encoding device in FIG. 1 or an encoding device corresponding to the encoding device in FIG. 1). ) To select a bit stream to be presented and output the bit stream to the MMTP packet analysis unit 12.
Further, when an instruction to switch the bit stream to be presented is given, the stream selection unit 11 selects the bit stream after switching from the bit streams output from the plurality of encoding devices, and selects the bit stream. While outputting to the MMTP packet analysis part 12, until the presentation time calculated by the control MMTP payload processing part 13 is reached, the process of continuously outputting the bit stream before switching to the MMTP packet analysis part 12 is performed. The stream selection unit 11 constitutes a bit stream selection unit.

MMTPパケット解析部12はストリーム選択部11から出力されたビットストリームを構成しているMMTPパケットのMMTPヘッダを解析して、そのMMTPヘッダに含まれているパケットIDを取得し、そのパケットIDがMMTPペイロードに含まれている符号化データが制御情報(PAメッセージ、HEVCピクチャ構造記述子)である旨を示していれば、そのMMTPパケットに含まれているMMTPペイロードである制御MMTPペイロードを制御MMTPペイロード処理部13に出力する。一方、そのパケットIDがMMTPペイロードに含まれている符号化データが音声信号又は映像信号である旨を示していれば、そのMMTPパケットをアセット分離部14に出力する処理を実施する。   The MMTP packet analysis unit 12 analyzes the MMTP header of the MMTP packet constituting the bit stream output from the stream selection unit 11, acquires the packet ID included in the MMTP header, and the packet ID is MMTP If the encoded data included in the payload indicates control information (PA message, HEVC picture structure descriptor), the control MMTP payload, which is the MMTP payload included in the MMTP packet, is set as the control MMTP payload. Output to the processing unit 13. On the other hand, if the packet ID indicates that the encoded data included in the MMTP payload is an audio signal or a video signal, a process of outputting the MMTP packet to the asset separation unit 14 is performed.

制御MMTPペイロード処理部13はMMTPパケット解析部12から出力された制御MMTPペイロードに含まれている符号化データの復号処理を実施して、制御情報であるPAメッセージ及びPAメッセージに含まれているHEVCピクチャ構造記述子を復号する。
また、制御MMTPペイロード処理部13はPAメッセージに記述されているMPUタイムスタンプ記述子が示す提示順で先頭のアクセスユニット(AU)の提示時刻と、HEVCピクチャ構造記述子に記述されている個数情報(num_of_leading_picture)が示す符号化順で先頭のアクセスユニット(AU)より提示順が早いアクセスユニット(AU)の個数(LPの枚数)とから、符号化順で先頭のアクセスユニット(AU)の提示時刻を算出する処理を実施する。符号化順で先頭のアクセスユニット(AU)は、先頭のSOPのIRAPピクチャである。なお、制御MMTPペイロード処理部13は提示時刻算出手段を構成している。
The control MMTP payload processing unit 13 performs a decoding process on the encoded data included in the control MMTP payload output from the MMTP packet analysis unit 12, and performs the PA message as control information and the HEVC included in the PA message. Decode the picture structure descriptor.
Also, the control MMTP payload processing unit 13 presents the presentation time of the first access unit (AU) in the presentation order indicated by the MPU time stamp descriptor described in the PA message, and the number information described in the HEVC picture structure descriptor. The presentation time of the first access unit (AU) in the coding order from the number of access units (AU) (the number of LPs) that are presented earlier than the first access unit (AU) in the coding order indicated by (num_of_leading_picture) The process of calculating is performed. The head access unit (AU) in the coding order is the IRAP picture of the head SOP. The control MMTP payload processing unit 13 constitutes a presentation time calculation unit.

アセット分離部14は制御MMTPペイロード処理部13により復号されたPAメッセージに記述されているアセットID、アセットタイプ及びパケットIDを参照して、MMTPパケット解析部12から出力されたMMTPパケットに含まれているMMTPペイロードが音声MMTPペイロードであるのか、映像MMTPペイロードであるのかを特定し、音声MMTPペイロードであれば、そのMMTPパケットに含まれている音声MMTPペイロードを抽出して、その音声MMTPペイロードを音声MMTPペイロード処理部15に出力し、映像MMTPペイロードであれば、そのMMTPパケットに含まれている映像MMTPペイロードを抽出して、その映像MMTPペイロードを映像MMTPペイロード処理部19に出力する処理を実施する。   The asset separation unit 14 is included in the MMTP packet output from the MMTP packet analysis unit 12 with reference to the asset ID, asset type, and packet ID described in the PA message decoded by the control MMTP payload processing unit 13. The MMTP payload is an audio MMTP payload or a video MMTP payload, and if it is an audio MMTP payload, the audio MMTP payload included in the MMTP packet is extracted, and the audio MMTP payload is If the video MMTP payload is output to the MMTP payload processing unit 15, the video MMTP payload included in the MMTP packet is extracted, and the video MMTP payload is output to the video MMTP payload processing unit 19. Hodokosuru.

音声MMTPペイロード処理部15はアセット分離部14から出力された音声MMTPペイロードから音声ストリームのMFU(Media Fragment Unit)又はMPUを再構成することで、後段の音声ストリーム復号部17で復号可能な形式の音声エレメンタリーストリーム(音声ES)を生成し、その音声ESを音声ESバッファ16に格納する処理を実施する。MFUは、MPUよりも小さな単位であり、1アクセスユニット(AU)または1NALユニットを1MFUと定義することができる。
また、音声MMTPペイロード処理部15はアセット分離部14から出力された音声MMTPペイロードに含まれている音声ストリームに関するメタデータを抽出し、そのメタデータを音声ESバッファ16に格納する処理を実施する。
音声ESバッファ16は音声ES及びメタデータを一時的に格納するメモリである。
The audio MMTP payload processing unit 15 reconstructs the MFU (Media Fragment Unit) or MPU of the audio stream from the audio MMTP payload output from the asset separation unit 14, so that the audio stream decoding unit 17 can decode the audio stream. A process of generating an audio elementary stream (audio ES) and storing the audio ES in the audio ES buffer 16 is performed. The MFU is a smaller unit than the MPU, and one access unit (AU) or one NAL unit can be defined as one MFU.
In addition, the audio MMTP payload processing unit 15 extracts the metadata regarding the audio stream included in the audio MMTP payload output from the asset separation unit 14 and stores the metadata in the audio ES buffer 16.
The audio ES buffer 16 is a memory that temporarily stores the audio ES and metadata.

音声ストリーム復号部17は音声ESバッファ16からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する処理を実施する。
また、音声ストリーム復号部17は各アクセスユニット(AU)のDTS(復号時刻)になると、音声ESバッファ16から音声ESを取り出して、当該アクセスユニット(AU)の音声信号を復号し、その復号した音声信号とPTS(提示時刻)を音声データバッファ18に格納する処理を実施する。
音声データバッファ18は音声ストリーム復号部17により復号された音声信号とPTS(提示時刻)を一時的に格納するメモリである。
The audio stream decoding unit 17 extracts the metadata from the audio ES buffer 16, and time information described in the metadata (information indicating the DTS (decoding time) and PTS (presentation time) of each access unit (AU)) A process of decoding is performed.
Further, when the DTS (decoding time) of each access unit (AU) is reached, the audio stream decoding unit 17 extracts the audio ES from the audio ES buffer 16, decodes the audio signal of the access unit (AU), and decodes the audio signal. A process of storing the audio signal and the PTS (presentation time) in the audio data buffer 18 is performed.
The audio data buffer 18 is a memory that temporarily stores the audio signal decoded by the audio stream decoding unit 17 and the PTS (presentation time).

映像MMTPペイロード処理部19はアセット分離部14から出力された映像MMTPペイロードから映像ストリームのMFU又はMPUを再構成することで、後段のHEVCES復号部21で復号可能な形式のHEVCエレメンタリーストリーム(HEVC ES)を生成し、そのHEVCエレメンタリーストリームをHEVCESバッファ20に格納する処理を実施する。
また、映像MMTPペイロード処理部19はアセット分離部14から出力された映像MMTPペイロードに含まれている映像ストリームに関するメタデータを抽出し、そのメタデータをHEVCESバッファ20に格納する処理を実施する。
HEVCESバッファ20はHEVCエレメンタリーストリーム及びメタデータを一時的に格納するメモリである。
The video MMTP payload processing unit 19 reconstructs the video stream MFU or MPU from the video MMTP payload output from the asset separation unit 14, thereby enabling the HEVC elementary stream (HEVC) in a format decodable by the HEVCES decoding unit 21 in the subsequent stage. ES) is generated, and the HEVC elementary stream is stored in the HEVCES buffer 20.
In addition, the video MMTP payload processing unit 19 extracts metadata related to the video stream included in the video MMTP payload output from the asset separation unit 14 and stores the metadata in the HEVCES buffer 20.
The HEVCES buffer 20 is a memory that temporarily stores HEVC elementary streams and metadata.

HEVCES復号部21はHEVCESバッファ20からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する処理を実施する。
また、HEVCES復号部21は各アクセスユニット(AU)のDTS(復号時刻)になると、HEVCESバッファ20からHEVCエレメンタリーストリームを取り出して、当該アクセスユニット(AU)の映像信号を復号し、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納する処理を実施する。
復号画像バッファ22はHEVCES復号部21により復号された各アクセスユニット(AU)の復号画像とPTS(提示時刻)を一時的に格納するメモリである。
なお、映像MMTPペイロード処理部19、HEVCESバッファ20、HEVCES復号部21及び復号画像バッファ22から映像復号手段が構成されている。
The HEVCES decoding unit 21 extracts metadata from the HEVCES buffer 20 and decodes time information described in the metadata (information indicating DTS (decoding time) and PTS (presentation time) of each access unit (AU)). Perform the process.
When the HEVCES decoding unit 21 reaches the DTS (decoding time) of each access unit (AU), the HEVCES decoding unit 21 extracts the HEVC elementary stream from the HEVCES buffer 20, decodes the video signal of the access unit (AU), and decodes the decoded video signal. A process of storing the decoded image and the PTS (presentation time) which are video signals in the decoded image buffer 22 is performed.
The decoded image buffer 22 is a memory that temporarily stores the decoded image and PTS (presentation time) of each access unit (AU) decoded by the HEVCES decoding unit 21.
The video MMTP payload processing unit 19, the HEVCES buffer 20, the HEVCES decoding unit 21, and the decoded image buffer 22 constitute video decoding means.

図3の例では、復号装置の構成要素であるストリーム選択部11、MMTPパケット解析部12、制御MMTPペイロード処理部13、アセット分離部14、音声MMTPペイロード処理部15、音声ESバッファ16、音声ストリーム復号部17、音声データバッファ18、映像MMTPペイロード処理部19、HEVCESバッファ20、HEVCES復号部21及び復号画像バッファ22のそれぞれが専用のハードウェア(バッファ以外は、例えば、CPUを実装している半導体集積回路、あるいは、ワンチップマイコンなど)で構成されているものを想定しているが、復号装置がコンピュータで構成されていてもよい。
復号装置をコンピュータで構成する場合、音声ESバッファ16、音声データバッファ18、HEVCESバッファ20及び復号画像バッファ22をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、ストリーム選択部11、MMTPパケット解析部12、制御MMTPペイロード処理部13、アセット分離部14、音声MMTPペイロード処理部15、音声ストリーム復号部17、映像MMTPペイロード処理部19及びHEVCES復号部21の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにすればよい。
図4はこの発明の実施の形態1による復号装置の処理内容(復号方法)を示すフローチャートである。
In the example of FIG. 3, the stream selection unit 11, the MMTP packet analysis unit 12, the control MMTP payload processing unit 13, the asset separation unit 14, the audio MMTP payload processing unit 15, the audio ES buffer 16, and the audio stream that are constituent elements of the decoding device Each of the decoding unit 17, the audio data buffer 18, the video MMTP payload processing unit 19, the HEVCES buffer 20, the HEVCES decoding unit 21, and the decoded image buffer 22 is dedicated hardware (other than the buffer, for example, a semiconductor on which a CPU is mounted. Although an integrated circuit or a one-chip microcomputer is assumed, the decoding device may be configured by a computer.
When the decoding apparatus is configured by a computer, the audio ES buffer 16, the audio data buffer 18, the HEVCES buffer 20, and the decoded image buffer 22 are configured on the internal memory or the external memory of the computer, and the stream selection unit 11, the MMTP packet analysis unit 12, the control MMTP payload processing unit 13, the asset separation unit 14, the audio MMTP payload processing unit 15, the audio stream decoding unit 17, the video MMTP payload processing unit 19 and the HEVCES decoding unit 21 which describe the processing contents of the computer What is necessary is just to make it memorize | store in memory and to run the program stored in the said memory of CPU of the said computer.
FIG. 4 is a flowchart showing the processing contents (decoding method) of the decoding apparatus according to Embodiment 1 of the present invention.

次に動作について説明する。
最初の符号化装置の処理内容を説明する。
音声符号化部1は、ディジタルの音声信号が与えられると、音声のアクセスユニット(AU)単位に、例えば、MPEG−4オーディオなどの方式によって当該音声信号を符号化して、その音声信号の符号化データである音声ストリームを生成するとともに、その音声ストリームに関するメタデータを符号化する(図2のステップST1)。
HEVC符号化部3は、ディジタルの映像信号が与えられると、映像のアクセスユニット(AU)単位に、HEVC方式によって当該映像信号を符号化して、その映像信号の符号化データである映像ストリームを生成するとともに、その映像ストリームに関するメタデータを符号化する(ステップST2)。
Next, the operation will be described.
The processing contents of the first encoding device will be described.
When a digital audio signal is given, the audio encoding unit 1 encodes the audio signal in units of audio access units (AU) by a method such as MPEG-4 audio, and encodes the audio signal. An audio stream that is data is generated, and metadata relating to the audio stream is encoded (step ST1 in FIG. 2).
When a digital video signal is given, the HEVC encoding unit 3 encodes the video signal by the HEVC method for each video access unit (AU), and generates a video stream that is encoded data of the video signal. At the same time, the metadata about the video stream is encoded (step ST2).

ここで、図5はMMTでビットストリームを伝送する場合の符号化データの概要を示す説明図である。
図5において、アクセスユニット(AU)は、映像であれば、1ピクチャを復号するために必要な符号化データを含む単位であり、音声であれば、符号化単位となる1以上のサンプルから構成されるフレームである。
NALユニットはHEVCの符号化単位であり、1アクセスユニット(AU)は、1以上のNALユニットから構成される。
MPUは、1以上のアクセスユニットから構成され、MPU単体で映像や音声の復号処理を行うことができる単位となる。また、MPUは、1以上のアクセスユニット(AU)の映像信号がフレーム間予測符号化方式で符号化される場合には、前記1以上のアクセスユニット(AU)の映像信号の全てを復号することが可能な複数のアクセスユニット(AU)の集合であるGOPと同じ単位になる。
MFUは、MPUよりも小さな単位であり、1アクセスユニット(AU)又は1NALユニットを1MFUと定義することができる。
Here, FIG. 5 is an explanatory diagram showing an outline of encoded data when a bit stream is transmitted by MMT.
In FIG. 5, an access unit (AU) is a unit that includes encoded data necessary for decoding one picture if it is a video, and is composed of one or more samples that are an encoding unit if it is audio. Is the frame to be played.
The NAL unit is a HEVC encoding unit, and one access unit (AU) is composed of one or more NAL units.
The MPU is composed of one or more access units, and is a unit that can perform video and audio decoding processing by the MPU alone. Also, the MPU decodes all of the video signals of the one or more access units (AU) when the video signals of the one or more access units (AU) are encoded by the inter-frame predictive coding method. It becomes the same unit as GOP which is a set of a plurality of access units (AU).
The MFU is a smaller unit than the MPU, and one access unit (AU) or one NAL unit can be defined as one MFU.

図6はMPUの構成例を示す説明図である。
図6において、MPUメタデータは、MPUに関連するメタデータが記述されるものであり、MPUに含まれる各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す時刻情報などを記述することができる。
ムービーフラグメントメタデータ(MFメタ)は、1アクセスユニット(AU)の符号化データ(サンプルデータ)に付随するメタデータが記述されるものである。例えば、アクセスユニット(AU)の符号化データがファイル形式で格納される場合、アクセスユニット(AU)毎に、符号化データが格納されているアドレスや符号化データのデータ長、当該アクセスユニット(AU)の提示時刻に関する情報が含まれる。
MPUメタデータ、ムービーフラグメントメタデータ、MFU及びMMTの制御情報は、MMTPパケット化されて伝送される。MMTPパケットはMMTPヘッダとMMTPペイロードから構成される。
FIG. 6 is an explanatory diagram showing a configuration example of the MPU.
In FIG. 6, MPU metadata describes metadata related to the MPU, such as time information indicating DTS (decoding time) and PTS (presentation time) of each access unit (AU) included in the MPU. Can be described.
Movie fragment metadata (MF metadata) describes metadata accompanying encoded data (sample data) of one access unit (AU). For example, when the encoded data of the access unit (AU) is stored in a file format, for each access unit (AU), the address where the encoded data is stored, the data length of the encoded data, the access unit (AU) ) Is included.
MPU metadata, movie fragment metadata, MFU and MMT control information are transmitted as MMTP packets. The MMTP packet is composed of an MMTP header and an MMTP payload.

音声MMTPペイロード生成部2は、音声符号化部1からメタデータ(MPUメタデータ、MFメタなど)の符号化データと、アクセスユニット(AU)単位の音声信号の符号化データとを受けると、MPU単位のMPUメタデータの符号化データと、アクセスユニット(AU)単位のMFメタの符号化データ及び音声信号の符号化データ(サンプルデータ)からなる音声MMTPペイロードを生成する(ステップST3)。
映像MMTPペイロード生成部4は、HEVC符号化部3からメタデータ(MPUメタデータ、MFメタなど)の符号化データと、アクセスユニット(AU)単位の映像信号の符号化データとを受けると、MPU単位のMPUメタデータの符号化データと、アクセスユニット(AU)単位のMFメタの符号化データ及び映像信号の符号化データ(サンプルデータ)からなる映像MMTPペイロードを生成する(ステップST4)。
When the audio MMTP payload generation unit 2 receives the encoded data of the metadata (MPU metadata, MF meta, etc.) and the encoded data of the audio signal in units of access units (AU) from the audio encoding unit 1, An audio MMTP payload including encoded data of MPU metadata in units, encoded data of MF meta in units of access units (AU), and encoded data (sample data) of audio signals is generated (step ST3).
When receiving the encoded data of metadata (MPU metadata, MF meta, etc.) and the encoded data of the video signal in units of access units (AU) from the HEVC encoder 3, the video MMTP payload generator 4 receives the MPU. A video MMTP payload composed of encoded data of MPU metadata in units, encoded data of MF meta in units of access units (AU), and encoded data (sample data) of video signals is generated (step ST4).

制御情報符号化部5は、音声符号化部1により生成された音声ストリーム及びHEVC符号化部3により生成された映像ストリームに関する制御情報を符号化する(ステップST5)。
音声ストリーム及び映像ストリームに関する制御情報として、例えば、MMTで規定されているPAメッセージやHEVCピクチャ構造記述子などを符号化する。
PAメッセージには、上述したように、1つのプログラム(MMTでは、パッケージと称する)を構成する1以上の映像コンポーネント(映像ストリーム)や音声コンポーネント(音声ストリーム)に関する情報が記述されている。
即ち、PAメッセージには、音声符号化部1及びHEVC符号化部3により生成されたアセット(映像ストリーム、音声ストリーム)を識別するアセットID、アセットの種類を識別するアセットタイプ、各アセットのMPUを構成しているアクセスユニット(AU)の中で、提示順で先頭のアクセスユニット(AU)の提示時刻を示すMPUタイムスタンプ記述子、各アセットの符号化データやメタデータを格納しているMMTPパケットを示すパケットIDなどが記述されている。
The control information encoding unit 5 encodes the control information regarding the audio stream generated by the audio encoding unit 1 and the video stream generated by the HEVC encoding unit 3 (step ST5).
As control information related to an audio stream and a video stream, for example, a PA message or HEVC picture structure descriptor defined by MMT is encoded.
As described above, in the PA message, information on one or more video components (video streams) and audio components (audio streams) constituting one program (referred to as a package in MMT) is described.
That is, the PA message includes an asset ID for identifying an asset (video stream, audio stream) generated by the audio encoding unit 1 and HEVC encoding unit 3, an asset type for identifying the asset type, and an MPU for each asset. MMTP packet storing MPU time stamp descriptor indicating the presentation time of the first access unit (AU) in the order of presentation among the configured access units (AU), encoded data and metadata of each asset A packet ID or the like indicating is described.

図7はHEVCピクチャ構造記述子を示す説明図である。
HEVCピクチャ構造記述子には、図7に示すように、MPUを構成しているアクセスユニット(AU)の中で、符号化順で先頭のアクセスユニット(AU)より提示順が早いアクセスユニット(AU)の個数(LPの枚数)を示す個数情報(num_of_leading_picture)が記述されている。
また、符号化順で先頭のアクセスユニット(AU)を構成しているNALユニットの符号化方式を示すピクチャタイプ情報(rap_type)や、LPを構成しているNALユニットの符号化方式を示すピクチャタイプ情報(nal_unit_type_of_leading_picture)などが記述されている。
FIG. 7 is an explanatory diagram showing the HEVC picture structure descriptor.
As shown in FIG. 7, the HEVC picture structure descriptor includes an access unit (AU) that is earlier in presentation order than the first access unit (AU) in the coding order among the access units (AU) constituting the MPU. ) (Number_of_leading_picture) indicating the number (number of LPs).
Also, picture type information (rap_type) indicating the encoding method of the NAL unit constituting the head access unit (AU) in the encoding order, and picture type indicating the encoding method of the NAL unit constituting the LP. Information (nal_unit_type_of_leading_picture) and the like are described.

制御MMTPペイロード生成部6は、制御情報符号化部5から制御情報の符号化データを受けると、その制御情報の符号化データからなる制御MMTPペイロードを生成する(ステップST6)。
MMTPパケット生成部7は、音声MMTPペイロード生成部2により生成された音声MMTPペイロードと、映像MMTPペイロード生成部4により生成された映像MMTPペイロードと、制御MMTPペイロード生成部6により生成された制御MMTPペイロードとを多重化して、ビットストリームを構成するMMTPパケットを生成する(ステップST7)。
このMMTPパケットを生成する際、所定のMMTPヘッダを付与するが、このMMTPヘッダには、MMTPペイロードに含まれている符号化データの種別に応じて割り当てられるパケットIDが含まれる。
When receiving the encoded data of the control information from the control information encoding unit 5, the control MMTP payload generating unit 6 generates a control MMTP payload including the encoded data of the control information (step ST6).
The MMTP packet generator 7 includes an audio MMTP payload generated by the audio MMTP payload generator 2, a video MMTP payload generated by the video MMTP payload generator 4, and a control MMTP payload generated by the control MMTP payload generator 6. And MMTP packets constituting the bit stream are generated (step ST7).
When this MMTP packet is generated, a predetermined MMTP header is added, and this MMTP header includes a packet ID assigned according to the type of encoded data included in the MMTP payload.

次に復号装置の処理内容を説明する。
ストリーム選択部11は、複数の符号化装置(図1の符号化装置、あるいは、図1の符号化装置に相当する符号化装置)から出力されたビットストリーム(MMTPパケットからなるビットストリーム)が与えられる。
ストリーム選択部11は、複数のビットストリームの中から、ユーザにより指定されたチャンネルのビットストリーム(提示対象のビットストリーム)を選択して、そのビットストリームをMMTPパケット解析部12に出力する。
Next, processing contents of the decoding device will be described.
The stream selection unit 11 is provided with a bit stream (a bit stream composed of MMTP packets) output from a plurality of encoding devices (the encoding device in FIG. 1 or an encoding device corresponding to the encoding device in FIG. 1). It is done.
The stream selection unit 11 selects a bit stream (bit stream to be presented) of a channel designated by the user from a plurality of bit streams, and outputs the bit stream to the MMTP packet analysis unit 12.

MMTPパケット解析部12は、ストリーム選択部11からビットストリームを受けると、そのビットストリームを構成しているMMTPパケットのMMTPヘッダを解析して、そのMMTPヘッダに含まれているパケットIDを取得する。
MMTPパケット解析部12は、そのパケットIDがMMTPペイロードに含まれている符号化データが制御情報(PAメッセージ)である旨を示していれば、そのMMTPパケットに含まれているMMTPペイロードである制御MMTPペイロードを制御MMTPペイロード処理部13に出力する。
一方、そのパケットIDがMMTPペイロードに含まれている符号化データが音声信号又は映像信号である旨を示していれば、そのMMTPパケットをアセット分離部14に出力する。
When receiving the bit stream from the stream selection unit 11, the MMTP packet analysis unit 12 analyzes the MMTP header of the MMTP packet constituting the bit stream, and acquires the packet ID included in the MMTP header.
If the packet ID indicates that the encoded data included in the MMTP payload is control information (PA message), the MMTP packet analysis unit 12 controls the MMTP payload included in the MMTP packet. The MMTP payload is output to the control MMTP payload processing unit 13.
On the other hand, if the packet ID indicates that the encoded data included in the MMTP payload is an audio signal or a video signal, the MMTP packet is output to the asset separation unit 14.

制御MMTPペイロード処理部13は、MMTPパケット解析部12から制御MMTPペイロードを受けると、その制御MMTPペイロードに含まれている符号化データの復号処理を実施して、制御情報であるPAメッセージ及びPAメッセージに含まれるHEVCピクチャ構造記述子を復号する。   When the control MMTP payload processing unit 13 receives the control MMTP payload from the MMTP packet analysis unit 12, the control MMTP payload processing unit 13 performs a decoding process on the encoded data included in the control MMTP payload, and controls the PA message and the PA message as control information. The HEVC picture structure descriptor included in is decoded.

アセット分離部14は、制御MMTPペイロード処理部13がPAメッセージを復号すると、そのPAメッセージに記述されているアセットID、アセットタイプ及びパケットIDを参照して、MMTPパケット解析部12から出力されたMMTPパケットに含まれているMMTPペイロードが音声MMTPペイロードであるのか、映像MMTPペイロードであるのかを特定する。
アセット分離部14は、MMTPパケット解析部12から出力されたMMTPパケットに含まれているMMTPペイロードが音声MMTPペイロードであれば、そのMMTPパケットに含まれている音声MMTPペイロードを抽出して、その音声MMTPペイロードを音声MMTPペイロード処理部15に出力する。
アセット分離部14は、MMTPパケット解析部12から出力されたMMTPパケットに含まれているMMTPペイロードが映像MMTPペイロードであれば、そのMMTPパケットに含まれている映像MMTPペイロードを抽出して、その映像MMTPペイロードを映像MMTPペイロード処理部19に出力する。
When the control MMTP payload processing unit 13 decrypts the PA message, the asset separation unit 14 refers to the asset ID, asset type, and packet ID described in the PA message, and outputs the MMTP output from the MMTP packet analysis unit 12. It is specified whether the MMTP payload included in the packet is an audio MMTP payload or a video MMTP payload.
If the MMTP payload included in the MMTP packet output from the MMTP packet analysis unit 12 is an audio MMTP payload, the asset separation unit 14 extracts the audio MMTP payload included in the MMTP packet and extracts the audio The MMTP payload is output to the voice MMTP payload processing unit 15.
If the MMTP payload included in the MMTP packet output from the MMTP packet analysis unit 12 is a video MMTP payload, the asset separation unit 14 extracts the video MMTP payload included in the MMTP packet and extracts the video The MMTP payload is output to the video MMTP payload processing unit 19.

音声MMTPペイロード処理部15は、アセット分離部14から音声MMTPペイロードを受けると、その音声MMTPペイロードから音声ストリームのMFU又はMPUを再構成することで、後段の音声ストリーム復号部17で復号可能な形式の音声エレメンタリーストリーム(音声ES)を生成し、その音声ESを音声ESバッファ16に格納する。
音声MMTPペイロードから音声ESを生成する処理自体は公知の技術であるため詳細な説明を省略する。
また、音声MMTPペイロード処理部15は、アセット分離部14から出力された音声MMTPペイロードに含まれている音声ストリームに関するメタデータを抽出し、そのメタデータを音声ESバッファ16に格納する。
When the audio MMTP payload processing unit 15 receives the audio MMTP payload from the asset separation unit 14, the audio MMTP payload processing unit 15 reconstructs the MFU or MPU of the audio stream from the audio MMTP payload, so that the audio stream decoding unit 17 can decode the audio stream. Audio elementary stream (audio ES) is generated, and the audio ES is stored in the audio ES buffer 16.
Since the process itself for generating the audio ES from the audio MMTP payload is a known technique, detailed description thereof is omitted.
In addition, the audio MMTP payload processing unit 15 extracts metadata about the audio stream included in the audio MMTP payload output from the asset separation unit 14 and stores the metadata in the audio ES buffer 16.

音声ストリーム復号部17は、音声ESバッファ16からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する。
音声ストリーム復号部17は、復号したDTSを参照して、各アクセスユニット(AU)の復号時刻を把握し、各アクセスユニット(AU)の復号時刻になると、音声ESバッファ16から音声ESを取り出して、当該アクセスユニット(AU)の音声信号を復号し、その復号した音声信号とPTS(提示時刻)を音声データバッファ18に格納する。
これにより、外部の再生装置(図示せず)は、音声データバッファ18に格納されている音声信号とPTS(提示時刻)を取り出せば、その提示時刻に音声信号を再生することができる。
The audio stream decoding unit 17 extracts metadata from the audio ES buffer 16, and information indicating time information (DTS (decoding time) and PTS (presentation time) of each access unit (AU)) described in the metadata. ).
The audio stream decoding unit 17 refers to the decoded DTS, grasps the decoding time of each access unit (AU), and extracts the audio ES from the audio ES buffer 16 when the decoding time of each access unit (AU) comes. The audio signal of the access unit (AU) is decoded, and the decoded audio signal and PTS (presentation time) are stored in the audio data buffer 18.
Thus, if an external playback device (not shown) takes out the audio signal and the PTS (presentation time) stored in the audio data buffer 18, the audio signal can be reproduced at the presentation time.

映像MMTPペイロード処理部19は、アセット分離部14から映像MMTPペイロードを受けると、その映像MMTPペイロードから映像ストリームのMFU又はMPUを再構成することで、後段のHEVCES復号部21で復号可能な形式のHEVCエレメンタリーストリーム(HEVC ES)を生成し、そのHEVCエレメンタリーストリームをHEVCESバッファ20に格納する。
映像MMTPペイロードからHEVCエレメンタリーストリームを生成する処理自体は公知の技術であるため詳細な説明を省略する。
また、映像MMTPペイロード処理部19は、アセット分離部14から出力された映像MMTPペイロードに含まれている映像ストリームに関するメタデータを抽出し、そのメタデータをHEVCESバッファ20に格納する。
When the video MMTP payload processing unit 19 receives the video MMTP payload from the asset separation unit 14, the video MMTP payload processing unit 19 reconstructs the MFU or MPU of the video stream from the video MMTP payload, so that the HEVCES decoding unit 21 in the subsequent stage can decode it. A HEVC elementary stream (HEVC ES) is generated, and the HEVC elementary stream is stored in the HEVCES buffer 20.
Since the process itself for generating the HEVC elementary stream from the video MMTP payload is a known technique, detailed description thereof is omitted.
In addition, the video MMTP payload processing unit 19 extracts metadata regarding the video stream included in the video MMTP payload output from the asset separation unit 14, and stores the metadata in the HEVCES buffer 20.

HEVCES復号部21は、HEVCESバッファ20からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する。
HEVCES復号部21は、復号したDTSを参照して、各アクセスユニット(AU)の復号時刻を把握し、各アクセスユニット(AU)の復号時刻になると、HEVCESバッファ20からHEVCエレメンタリーストリームを取り出して、当該アクセスユニット(AU)の映像信号を復号し、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納する。
これにより、外部の再生装置(図示せず)は、復号画像バッファ22に格納されている復号画像とPTS(提示時刻)を取り出せば、その提示時刻に復号画像を再生することができる。
The HEVCES decoding unit 21 extracts the metadata from the HEVCES buffer 20, and obtains time information (information indicating the DTS (decoding time) and PTS (presentation time) of each access unit (AU)) described in the metadata. Decrypt.
The HEVCES decoding unit 21 refers to the decoded DTS, grasps the decoding time of each access unit (AU), and extracts the HEVC elementary stream from the HEVCES buffer 20 at the decoding time of each access unit (AU). Then, the video signal of the access unit (AU) is decoded, and the decoded image and the PTS (presentation time) as the decoded video signal are stored in the decoded image buffer 22.
Thus, if an external playback device (not shown) takes out the decoded image and the PTS (presentation time) stored in the decoded image buffer 22, the decoded image can be reproduced at the presentation time.

外部の再生装置(図示せず)が復号画像と音声信号を再生しているとき、ユーザがリモコン等を用いて、チャンネルを切り替える操作を行うと、提示対象の映像ストリームを切り替える指令(この切替指令には、切替後のチャンネルを示す情報が含まれている)がストリーム選択部11に与えられる。
ストリーム選択部11は、外部からチャンネルの切替指令を受けると(図4のステップST11:Yesの場合)、複数のビットストリームの中から、その切替指令が示す切替後のチャンネルのビットストリームを選択して、そのビットストリームをMMTPパケット解析部12に出力する(ステップST12)。
また、ストリーム選択部11は、ユーザによりチャンネルが切り替えられたときに何の復号画像も表示されない時間を無くして、シームレスなチャンネル切替を実現するために、制御MMTPペイロード処理部13からビットストリームの出力停止指令を受けるまでの間(ステップST13:Noの場合)、切替前のチャンネルのビットストリームも引き続きMMTPパケット解析部12に出力する(ステップST14)。ビットストリームの出力停止指令は、後述するように、現在時刻が符号化順で先頭のアクセスユニット(AU)の提示時刻になると出力される。
ストリーム選択部11は、制御MMTPペイロード処理部13からビットストリームの出力停止指令を受けると、切替前のチャンネルのビットストリームの出力を停止して、切替後のチャンネルのビットストリームだけをMMTPパケット解析部12に出力する。
When an external playback device (not shown) is playing back a decoded image and an audio signal, if the user performs an operation to switch channels using a remote controller or the like, a command to switch the video stream to be presented (this switching command) Includes information indicating the channel after switching) to the stream selection unit 11.
When receiving a channel switching command from the outside (in the case of step ST11: Yes in FIG. 4), the stream selection unit 11 selects a bit stream of the channel after switching indicated by the switching command from a plurality of bit streams. The bit stream is output to the MMTP packet analysis unit 12 (step ST12).
In addition, the stream selection unit 11 outputs a bit stream from the control MMTP payload processing unit 13 in order to eliminate the time during which no decoded image is displayed when the channel is switched by the user and to realize seamless channel switching. Until a stop command is received (step ST13: No), the bit stream of the channel before switching is continuously output to the MMTP packet analysis unit 12 (step ST14). The bitstream output stop command is output when the current time is the presentation time of the first access unit (AU) in the encoding order, as will be described later.
Upon receiving a bitstream output stop command from the control MMTP payload processing unit 13, the stream selection unit 11 stops outputting the bitstream of the channel before switching, and only the bitstream of the channel after switching is analyzed by the MMTP packet analysis unit. 12 is output.

MMTPパケット解析部12は、ストリーム選択部11から切替後のチャンネルのビットストリームを受けると、チャンネルの切替前と同様に、そのビットストリームを構成しているMMTPパケットに含まれている制御MMTPペイロードを制御MMTPペイロード処理部13に出力し、そのビットストリームを構成しているMMTPパケットに含まれている音声MMTPペイロード又は映像MMTPペイロードをアセット分離部14に出力する。
また、MMTPパケット解析部12は、ストリーム選択部11から切替前のチャンネルのビットストリームを受けると、切替後のチャンネルのビットストリームに対する処理と並列の処理で、切替前のチャンネルのビットストリームを構成しているMMTPパケットに含まれている制御MMTPペイロードを制御MMTPペイロード処理部13に出力し、そのビットストリームを構成しているMMTPパケットに含まれている音声MMTPペイロード又は映像MMTPペイロードをアセット分離部14に出力する。
When the MMTP packet analysis unit 12 receives the bit stream of the channel after switching from the stream selection unit 11, the MMTP payload included in the MMTP packet constituting the bit stream is received as in the case before the channel switching. The audio MMTP payload or video MMTP payload included in the MMTP packet constituting the bit stream is output to the asset separation unit 14.
Further, when the MMTP packet analysis unit 12 receives the bit stream of the channel before switching from the stream selection unit 11, the MMTP packet analysis unit 12 configures the bit stream of the channel before switching by processing parallel to the processing of the bit stream of the channel after switching. The control MMTP payload included in the MMTP packet being output is output to the control MMTP payload processing unit 13, and the audio MMTP payload or the video MMTP payload included in the MMTP packet constituting the bit stream is converted into the asset separation unit 14. Output to.

制御MMTPペイロード処理部13は、MMTPパケット解析部12から切替後のチャンネルのビットストリームに係る制御MMTPペイロードを受けると、チャンネルの切替前と同様に、その制御MMTPペイロードに含まれている符号化データの復号処理を実施して、制御情報であるPAメッセージ及びPAメッセージに含まれるHEVCピクチャ構造記述子を復号する(ステップST15)。
制御MMTPペイロード処理部13は、PAメッセージ及びPAメッセージに含まれるHEVCピクチャ構造記述子を復号すると、そのPAメッセージに記述されているMPUタイムスタンプ記述子が示す提示順で先頭のアクセスユニット(AU)の提示時刻と、HEVCピクチャ構造記述子に記述されている個数情報(num_of_leading_picture)が示す符号化順で先頭のアクセスユニット(AU)より提示順が早いアクセスユニット(AU)の個数(LPの枚数)とから、符号化順で先頭のアクセスユニット(AU)の提示時刻を算出する(ステップST16)。
When receiving the control MMTP payload related to the bit stream of the channel after switching from the MMTP packet analysis unit 12, the control MMTP payload processing unit 13 encodes the encoded data included in the control MMTP payload as before the channel switching. Is decoded to decode the PA message as the control information and the HEVC picture structure descriptor included in the PA message (step ST15).
When the control MMTP payload processing unit 13 decodes the PA message and the HEVC picture structure descriptor included in the PA message, the top access unit (AU) in the presentation order indicated by the MPU time stamp descriptor described in the PA message. Presentation time and the number of access units (AU) that are earlier in presentation order than the top access unit (AU) in the encoding order indicated by the number information (num_of_leading_picture) described in the HEVC picture structure descriptor (number of LPs) From the above, the presentation time of the head access unit (AU) in the encoding order is calculated (step ST16).

図10の例では、符号化順で先頭のアクセスユニット(AU)はIRAP32であり、提示順で先頭のアクセスユニット(AU)はB25である。また、IRAP32より提示順が早いアクセスユニット(AU)の個数(LPの枚数)は7個である。
したがって、提示順で先頭のアクセスユニット(AU)であるB25の提示時刻が、例えば、18時00分00秒であり、フレームレートが120枚/1秒であれば、IRAP32の提示時刻は、B25の提示時刻(18時00分00秒)の58msec(=7/120)後になる。
制御MMTPペイロード処理部13は、現在時刻が符号化順で先頭のアクセスユニット(AU)の提示時刻になると(ステップST17:Yesの場合)、切替前のチャンネルのビットストリームの出力停止指令をストリーム選択部11に出力する(ステップST18)。
In the example of FIG. 10, the head access unit (AU) in the coding order is IRAP32, and the head access unit (AU) in the presentation order is B25. Also, the number of access units (AU) (number of LPs) that are presented earlier than IRAP 32 is seven.
Therefore, if the presentation time of B25, which is the first access unit (AU) in the presentation order, is, for example, 18:00:00 and the frame rate is 120 frames / second, the presentation time of IRAP32 is B25. This is 58 msec (= 7/120) after the presentation time (18:00:00).
When the current time is the presentation time of the first access unit (AU) in the encoding order (step ST17: Yes), the control MMTP payload processing unit 13 selects the output stop instruction of the bit stream of the channel before switching as a stream. It outputs to the part 11 (step ST18).

アセット分離部14は、MMTPパケット解析部12から切替後のチャンネルに係るMMTPパケットを受けると、チャンネルの切替前と同様に、そのMMTPパケットに含まれている音声MMTPペイロードを音声MMTPペイロード処理部15に出力し、そのMMTPパケットに含まれている映像MMTPペイロードを映像MMTPペイロード処理部19に出力する。
また、アセット分離部14は、MMTPパケット解析部12から切替前のチャンネルに係るMMTPパケットを受けると、切替後のチャンネルのビットストリームに対する処理と並列の処理で、切替前のチャンネルに係るMMTPパケットに含まれている音声MMTPペイロードを音声MMTPペイロード処理部15に出力し、そのMMTPパケットに含まれている映像MMTPペイロードを映像MMTPペイロード処理部19に出力する。
Upon receiving the MMTP packet related to the channel after switching from the MMTP packet analysis unit 12, the asset separation unit 14 converts the voice MMTP payload included in the MMTP packet into the voice MMTP payload processing unit 15 as before channel switching. And the video MMTP payload included in the MMTP packet is output to the video MMTP payload processing unit 19.
Further, when the asset separation unit 14 receives the MMTP packet related to the channel before switching from the MMTP packet analysis unit 12, the asset separation unit 14 converts the MMTP packet related to the channel before switching into processing in parallel with the processing for the bit stream of the channel after switching. The included audio MMTP payload is output to the audio MMTP payload processing unit 15, and the video MMTP payload included in the MMTP packet is output to the video MMTP payload processing unit 19.

映像MMTPペイロード処理部19は、アセット分離部14から切替前のチャンネルに係る映像MMTPペイロードを受けると(現在時刻が提示順で先頭のアクセスユニット(AU)の提示時刻になる前)、チャンネルの切替前と同様に、その映像MMTPペイロードからHEVCエレメンタリーストリームを生成して、そのHEVCエレメンタリーストリームをHEVCESバッファ20に格納するとともに、その映像MMTPペイロードに含まれている映像ストリームに関するメタデータを抽出し、そのメタデータをHEVCESバッファ20に格納する(ステップST19)。
また、映像MMTPペイロード処理部19は、アセット分離部14から切替後のチャンネルに係る映像MMTPペイロードを受けると、切替前のチャンネルのビットストリームに対する処理と並列の処理で、切替後のチャンネルに係る映像MMTPペイロードからHEVCエレメンタリーストリームを生成して、そのHEVCエレメンタリーストリームをHEVCESバッファ20に格納するとともに、その映像MMTPペイロードに含まれている映像ストリームに関するメタデータを抽出し、そのメタデータをHEVCESバッファ20に格納する(ステップST20)。
When the video MMTP payload processing unit 19 receives the video MMTP payload related to the channel before switching from the asset separation unit 14 (before the current time is the presentation time of the first access unit (AU) in the presentation order), the video switching is performed. As before, a HEVC elementary stream is generated from the video MMTP payload, the HEVC elementary stream is stored in the HEVCES buffer 20, and metadata about the video stream included in the video MMTP payload is extracted. The metadata is stored in the HEVCES buffer 20 (step ST19).
In addition, when the video MMTP payload processing unit 19 receives the video MMTP payload related to the channel after switching from the asset separation unit 14, the video MMTP payload processing unit 19 performs processing related to the bit stream of the channel before switching and processing related to the channel after switching. A HEVC elementary stream is generated from the MMTP payload, the HEVC elementary stream is stored in the HEVCES buffer 20, metadata about the video stream included in the video MMTP payload is extracted, and the metadata is stored in the HEVCES buffer. 20 (step ST20).

HEVCES復号部21は、チャンネルの切替前と同様に、HEVCESバッファ20からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する。
これにより、HEVCES復号部21は、復号したDTSを参照して、各アクセスユニット(AU)の復号時刻を把握するが、切替後のチャンネルについては、IRAPが最初に復号することが可能なアクセスユニット(AU)であり(図10のGOP構成では、IRAP32のアクセスユニット(AU))、IRAPより提示順が早いLPのアクセスユニット(AU)の映像信号を復号することができない。このため、切替後のチャンネルについては、IRAPの提示時刻になるまでの間、どのアクセスユニット(AU)の映像信号も復号して表示することができない。
The HEVCES decoding unit 21 takes out the metadata from the HEVCES buffer 20 in the same manner as before channel switching, and extracts time information (DTS (decoding time) of each access unit (AU) or PTS (decoding time)) in the metadata. Information) indicating the presentation time) is decoded.
As a result, the HEVCES decoding unit 21 refers to the decoded DTS to grasp the decoding time of each access unit (AU). However, for the channel after switching, the access unit that can be decoded first by the IRAP. (AU) (the IOP32 access unit (AU) in the GOP configuration of FIG. 10), and the video signal of the LP access unit (AU) whose presentation order is earlier than the IRAP cannot be decoded. For this reason, for the channel after switching, the video signal of any access unit (AU) cannot be decoded and displayed until the IRAP presentation time is reached.

そこで、HEVCES復号部21は、切替後のチャンネルに係るIRAPの提示時刻になるまでの間、切替前のチャンネルに係るアクセスユニット(AU)の映像信号を復号して、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納する。
これにより、外部の再生装置(図示せず)は、切替後のチャンネルに係るIRAPの提示時刻になるまでの間、切替前のチャンネルに係る復号画像を再生することができる。
したがって、ユーザによりチャンネルが切り替えられたときに何の復号画像も表示されない時間を無くして、シームレスなチャンネル切替を実現することができる。
Therefore, the HEVCES decoding unit 21 decodes the video signal of the access unit (AU) related to the channel before switching until the IRAP presentation time related to the channel after switching, and is the decoded video signal. The decoded image and the PTS (presentation time) are stored in the decoded image buffer 22.
Accordingly, an external playback device (not shown) can play back the decoded image related to the channel before switching until the IRAP presentation time related to the channel after switching is reached.
Therefore, seamless channel switching can be realized by eliminating the time during which no decoded image is displayed when the channel is switched by the user.

音声MMTPペイロード処理部15は、アセット分離部14から切替前のチャンネルに係る音声MMTPペイロードを受けると(現在時刻が提示順で先頭のアクセスユニット(AU)の提示時刻になる前)、チャンネルの切替前と同様に、その音声MMTPペイロードから音声ESを生成して、その音声ESを音声ESバッファ16に格納するとともに、その音声MMTPペイロードに含まれている音声ストリームに関するメタデータを抽出し、そのメタデータを音声ESバッファ16に格納する。
また、音声MMTPペイロード処理部15は、アセット分離部14から切替後のチャンネルに係る音声MMTPペイロードを受けると、切替前のチャンネルのビットストリームに対する処理と並列の処理で、切替後のチャンネルに係る音声MMTPペイロードから音声ESを生成して、その音声ESを音声ESバッファ16に格納するとともに、その音声MMTPペイロードに含まれている音声ストリームに関するメタデータを抽出し、そのメタデータを音声ESバッファ16に格納する。
When the voice MMTP payload processing unit 15 receives the voice MMTP payload related to the channel before switching from the asset separation unit 14 (before the current time is the presentation time of the first access unit (AU) in the presentation order), the channel switching is performed. As before, an audio ES is generated from the audio MMTP payload, the audio ES is stored in the audio ES buffer 16, and metadata about the audio stream included in the audio MMTP payload is extracted, and the meta data is extracted. Data is stored in the audio ES buffer 16.
When the audio MMTP payload processing unit 15 receives the audio MMTP payload related to the channel after switching from the asset separation unit 14, the audio MMTP payload processing unit 15 performs processing related to the bit stream of the channel before switching in parallel with the processing related to the bit stream of the channel before switching. An audio ES is generated from the MMTP payload, the audio ES is stored in the audio ES buffer 16, metadata about an audio stream included in the audio MMTP payload is extracted, and the metadata is stored in the audio ES buffer 16. Store.

音声ストリーム復号部17は、チャンネルの切替前と同様に、音声ESバッファ16からメタデータを取り出して、そのメタデータに記述されている時刻情報(各アクセスユニット(AU)のDTS(復号時刻)やPTS(提示時刻)を示す情報)を復号する。
音声ストリーム復号部17は、復号したDTSを参照して、各アクセスユニット(AU)の復号時刻を把握し、各アクセスユニット(AU)の復号時刻になると、音声ESバッファ16から音声ESを取り出して、当該アクセスユニット(AU)の音声信号を復号し、その復号した音声信号とPTS(提示時刻)を音声データバッファ18に格納する。
これにより、外部の再生装置(図示せず)は、音声データバッファ18に格納されている音声信号とPTS(提示時刻)を取り出せば、その提示時刻に音声信号を再生することができる。
The audio stream decoding unit 17 extracts the metadata from the audio ES buffer 16 in the same manner as before the channel switching, and the time information described in the metadata (DTS (decoding time) of each access unit (AU), (Information indicating PTS (presentation time)) is decoded.
The audio stream decoding unit 17 refers to the decoded DTS, grasps the decoding time of each access unit (AU), and extracts the audio ES from the audio ES buffer 16 when the decoding time of each access unit (AU) comes. The audio signal of the access unit (AU) is decoded, and the decoded audio signal and PTS (presentation time) are stored in the audio data buffer 18.
Thus, if an external playback device (not shown) takes out the audio signal and the PTS (presentation time) stored in the audio data buffer 18, the audio signal can be reproduced at the presentation time.

ここでは、音声ストリーム復号部17が、HEVCES復号部21と同様に、切替後のチャンネルに係るIRAPの提示時刻になるまでの間は、切替前のチャンネルに係るアクセスユニット(AU)の音声信号を復号して、その復号した音声信号とPTS(提示時刻)を音声データバッファ18に格納することを想定しているが、音声信号については、映像信号のようにフレーム間予測符号化方式で符号化されないため、IRAPより提示順が早いLPのアクセスユニット(AU)の音声信号も復号することができる。このため、切替後のチャンネルに係るIRAPの提示時刻になるまでの間であっても、切替前のチャンネルに係るアクセスユニット(AU)の音声信号を復号せずに、切替後のチャンネルに係るアクセスユニット(AU)の音声信号を復号するようにしてもよい。   Here, as in the HEVCES decoding unit 21, the audio stream decoding unit 17 receives the audio signal of the access unit (AU) related to the channel before switching until the IRAP presentation time related to the channel after switching is reached. It is assumed that the decoded audio signal and the PTS (presentation time) are stored in the audio data buffer 18, but the audio signal is encoded by an inter-frame predictive encoding method like a video signal. Therefore, the audio signal of the LP access unit (AU) whose presentation order is earlier than that of the IRAP can also be decoded. Therefore, even before the IRAP presentation time related to the channel after switching is reached, the access related to the channel after switching is not decoded without decoding the audio signal of the access unit (AU) related to the channel before switching. The audio signal of the unit (AU) may be decoded.

復号装置では、復号処理を終了するまで、ステップST11〜ST20の処理を繰り返し実施する(ステップST21)。   In the decoding apparatus, the processes of steps ST11 to ST20 are repeatedly performed until the decoding process is completed (step ST21).

以上で明らかなように、この実施の形態1によれば、1以上のアクセスユニット(AU)の映像信号がフレーム間予測符号化方式で符号化された場合に、1以上のアクセスユニット(AU)の映像信号の全てを復号することが可能な複数のアクセスユニット(AU)の集合であるGOP毎に、提示順で先頭のアクセスユニット(AU)の提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニット(AU)より提示順が早いアクセスユニット(AU)の個数を示す個数情報とを含む制御情報を符号化するように構成したので、復号側において、ユーザによりチャンネルが切り替えられたときに、何の復号画像も表示されない時間を無くして、シームレスなチャンネル切替を実現することができる可能な符号化装置が得られる効果がある。   As is apparent from the above, according to the first embodiment, when video signals of one or more access units (AU) are encoded by the inter-frame predictive coding method, one or more access units (AU). Presentation time information indicating the presentation time of the first access unit (AU) in the presentation order for each GOP, which is a set of a plurality of access units (AU) capable of decoding all of the video signals, and the encoding order Since the control information including the number information indicating the number of access units (AU) whose presentation order is earlier than that of the top access unit (AU) is encoded, the channel is switched by the user on the decoding side. Sometimes, there is an effect that an encoding device capable of realizing seamless channel switching without a time during which no decoded image is displayed can be obtained. .

また、この実施の形態1によれば、提示対象のビットストリームを切り替える指令が与えられた場合、ストリーム選択部11が、複数の符号化装置から出力されたビットストリームの中から、切替後のビットストリームを選択して、当該ビットストリームをMMTPパケット解析部12に出力するとともに、制御MMTPペイロード処理部13により算出された提示時刻になるまで(ビットストリームの出力停止指令を受けるまで)、切替前のビットストリームも引き続きMMTPパケット解析部12に出力し、HEVCES復号部21が、切替後のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号するとともに、制御MMTPペイロード処理部13により算出された提示時刻になるまでの間、切替前のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号するように構成したので、ユーザによりチャンネルが切り替えられたときに、何の復号画像も表示されない時間を無くして、シームレスなチャンネル切替を実現することができる復号装置が得られる効果がある。   Further, according to the first embodiment, when a command to switch the bit stream to be presented is given, the stream selection unit 11 selects the bit after switching from the bit streams output from the plurality of encoding devices. A stream is selected, and the bit stream is output to the MMTP packet analysis unit 12 and until the presentation time calculated by the control MMTP payload processing unit 13 is reached (until the bit stream output stop command is received). The bit stream is also output to the MMTP packet analysis unit 12, and the HEVCES decoding unit 21 decodes the video signal in units of access units from the encoded data of the video signal multiplexed in the bit stream after switching, and the control MMTP The presentation time calculated by the payload processing unit 13 is reached. Since the video signal for each access unit is decoded from the encoded data of the video signal multiplexed in the bit stream before switching, no decoding is performed when the channel is switched by the user. There is an effect that a decoding device capable of realizing seamless channel switching without a time during which no image is displayed can be obtained.

実施の形態2.
上記実施の形態1では、HEVCES復号部21が、切替後のチャンネルに係るIRAPの提示時刻になるまでの間、切替前のチャンネルに係るアクセスユニット(AU)の映像信号を復号して、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納するものを示したが、切替後のチャンネルに係るLPのアクセスユニット(AU)であっても、そのアクセスユニット(AU)を構成しているNALユニットの符号化方式によっては、IRAPの復号前であっても、復号することが可能な場合がある。
IRAPの復号前であっても、LPのアクセスユニット(AU)が復号可能であるか否かは、HEVCピクチャ構造記述子に記述されているピクチャタイプ情報(nal_unit_type_of_leading_picture)を参照すれば、LPを構成しているNALユニットの符号化方式が分かるため判断することができる。例えば、LPを構成しているNALユニットの符号化方式がフレーム内符号化方式であれば、1つ前のSOPのアクセスユニット(AU)の映像信号が復号されていなくても、復号することが可能である。
Embodiment 2. FIG.
In the first embodiment, the HEVCES decoding unit 21 decodes the video signal of the access unit (AU) related to the channel before switching until the IRAP presentation time related to the channel after switching is reached. Although the decoded image and the PTS (presentation time) that are the video signals are stored in the decoded image buffer 22, the access unit (AU) of the LP access unit (AU) related to the channel after switching is shown. Depending on the encoding method of the NAL unit that constitutes), it may be possible to perform decoding even before IRAP decoding.
Whether or not the LP access unit (AU) is decodable even before IRAP decoding is configured by referring to picture type information (nal_unit_type_of_leading_picture) described in the HEVC picture structure descriptor. This can be determined because the encoding method of the NAL unit being used is known. For example, if the encoding method of the NAL unit constituting the LP is an intra-frame encoding method, it can be decoded even if the video signal of the access unit (AU) of the previous SOP is not decoded. Is possible.

HEVCES復号部21は、IRAPの復号前であっても、切替後のチャンネルに係るLPのアクセスユニット(AU)を復号することが可能であれば、そのアクセスユニット(AU)の映像信号を復号して、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納する。
例えば、図10のGOP構成において、LPであるB25,B25,B27,B28は復号できないが、B29,B30,B31の復号可能であれば、B29,B30,B31の映像信号を復号して、その復号した映像信号である復号画像とPTS(提示時刻)を復号画像バッファ22に格納する。
これにより、外部の再生装置(図示せず)は、切替後のチャンネルに係るIRAPの提示時刻になるまでの間において、B25,B25,B27,B28の提示時刻では、切替前のチャンネルに係る復号画像を再生し、B29,B30,B31の提示時刻では、切替後のチャンネルに係る復号画像を再生することができる。
The HEVCES decoding unit 21 decodes the video signal of the access unit (AU) if it can decode the LP access unit (AU) related to the channel after switching even before the IRAP decoding. Then, the decoded image and the PTS (presentation time) which are the decoded video signals are stored in the decoded image buffer 22.
For example, in the GOP configuration of FIG. 10, B25, B25, B27, and B28 that are LPs cannot be decoded, but if B29, B30, and B31 can be decoded, the video signals of B29, B30, and B31 are decoded, The decoded image and the PTS (presentation time) that are the decoded video signals are stored in the decoded image buffer 22.
As a result, an external playback device (not shown) decodes the channel before switching at the presentation time of B25, B25, B27, and B28 until the presentation time of IRAP related to the channel after switching is reached. The image is reproduced, and at the presentation time of B29, B30, B31, the decoded image relating to the channel after switching can be reproduced.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 音声符号化部、2 音声MMTPペイロード生成部、3 HEVC符号化部(映像符号化手段)、4 映像MMTPペイロード生成部(映像符号化手段)、5 制御情報符号化部(制御情報符号化手段)、6 制御MMTPペイロード生成部(制御情報符号化手段)、7 MMTPパケット生成部(多重化手段)、11 ストリーム選択部(ビットストリーム選択手段)、12 MMTPパケット解析部、13 制御MMTPペイロード処理部(提示時刻算出手段)、14 アセット分離部、15 音声MMTPペイロード処理部、16 音声ESバッファ、17 音声ストリーム復号部、18 音声データバッファ、19 映像MMTPペイロード処理部(映像復号手段)、20 HEVCESバッファ(映像復号手段)、21 HEVCES復号部(映像復号手段)、22 復号画像バッファ(映像復号手段)。   DESCRIPTION OF SYMBOLS 1 Audio encoding part, 2 Audio MMTP payload production | generation part, 3 HEVC encoding part (video coding means), 4 Video MMTP payload production | generation part (video coding means), 5 Control information coding part (Control information coding means) ), 6 control MMTP payload generation unit (control information encoding unit), 7 MMTP packet generation unit (multiplexing unit), 11 stream selection unit (bit stream selection unit), 12 MMTP packet analysis unit, 13 control MMTP payload processing unit (Presentation time calculation means), 14 asset separation unit, 15 audio MMTP payload processing unit, 16 audio ES buffer, 17 audio stream decoding unit, 18 audio data buffer, 19 video MMTP payload processing unit (video decoding unit), 20 HEVCES buffer (Video decoding means), 21 HEVCES decoding (Video decoding means), 22 the decoded picture buffer (video decoding means).

Claims (6)

映像のアクセスユニット単位に映像信号を符号化して、前記映像信号の符号化データを出力する映像符号化手段と、
前記映像符号化手段により1以上のアクセスユニットの映像信号がフレーム間予測符号化方式で符号化された場合に、前記1以上のアクセスユニットの映像信号の全てを復号することが可能な複数のアクセスユニットの集合であるGOP毎に、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを含む制御情報を符号化して、GOP単位の制御情報の符号化データを出力する制御情報符号化手段と、
前記映像符号化手段から出力された映像信号の符号化データと前記制御情報符号化手段から出力された制御情報の符号化データを多重化し、多重化後の符号化データであるビットストリームを出力する多重化手段と
を備えた符号化装置。
Video encoding means for encoding a video signal in units of video access units and outputting encoded data of the video signal;
A plurality of accesses capable of decoding all of the video signals of the one or more access units when the video signal of the one or more access units is encoded by the interframe predictive encoding method by the video encoding means. For each GOP that is a set of units, it includes presentation time information that indicates the presentation time of the first access unit in the presentation order, and number information that indicates the number of access units that are earlier in presentation order than the first access unit in the encoding order. Control information encoding means for encoding control information and outputting encoded data of control information in GOP units;
The encoded data of the video signal output from the video encoding means and the encoded data of the control information output from the control information encoding means are multiplexed, and a bit stream that is the encoded data after multiplexing is output. An encoding device comprising: multiplexing means.
前記制御情報符号化手段は、前記提示時刻情報と前記個数情報の他に、前記符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットを構成している符号化単位の1以上のユニットであるナルユニットの符号化方式を示すピクチャタイプ情報を含む制御情報を符号化して、GOP単位の制御情報の符号化データを出力することを特徴とする請求項1記載の符号化装置。   In addition to the presentation time information and the number information, the control information encoding means is one or more units of an encoding unit constituting an access unit whose presentation order is earlier than the first access unit in the encoding order. 2. The encoding apparatus according to claim 1, wherein control information including picture type information indicating an encoding method of a certain null unit is encoded, and encoded data of control information in GOP units is output. 複数の符号化装置から出力されたビットストリームの中から、提示対象のビットストリームを選択するストリーム選択手段と、
前記ストリーム選択手段により選択されたビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号する映像復号手段と、
前記ストリーム選択手段により選択されたビットストリームに多重化されている複数のアクセスユニットの集合であるGOP単位の制御情報の符号化データの復号処理を実施して、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを復号し、前記提示時刻情報が示す提示時刻と前記個数情報が示す個数から、前記符号化順で先頭のアクセスユニットの提示時刻を算出する提示時刻算出手段とを備え、
前記ストリーム選択手段は、前記提示対象のビットストリームを切り替える指令が与えられた場合、前記複数の符号化装置から出力されたビットストリームの中から、切替後のビットストリームを選択して、当該ビットストリームを前記映像復号手段に出力するとともに、前記提示時刻算出手段により算出された提示時刻になるまでの間、切替前のビットストリームも前記映像復号手段に出力し、
前記映像復号手段は、前記切替後のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号するとともに、前記提示時刻算出手段により算出された提示時刻になるまでの間、前記切替前のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号することを特徴とする復号装置。
Stream selection means for selecting a bit stream to be presented from bit streams output from a plurality of encoding devices;
Video decoding means for decoding a video signal in units of access units from encoded data of the video signal multiplexed in the bit stream selected by the stream selection means;
Decoding processing of encoded data of control information in GOP units, which is a set of a plurality of access units multiplexed in the bit stream selected by the stream selection means, and presenting the first access unit in the presentation order From the presentation time information indicating the time and the number information indicating the number of access units whose order of presentation is earlier than the first access unit in the encoding order, the presentation time indicated by the presentation time information and the number indicated by the number information And a presentation time calculation means for calculating the presentation time of the head access unit in the encoding order,
When the instruction to switch the bit stream to be presented is given, the stream selection unit selects the bit stream after switching from the bit streams output from the plurality of encoding devices, and the bit stream Is output to the video decoding means, and before the presentation time calculated by the presentation time calculating means is reached, the bit stream before switching is also output to the video decoding means,
The video decoding means decodes the video signal in units of access units from the encoded data of the video signal multiplexed in the switched bit stream and until the presentation time calculated by the presentation time calculation means is reached. A decoding apparatus for decoding a video signal for each access unit from encoded data of a video signal multiplexed in the bit stream before switching.
前記映像復号手段は、前記提示時刻情報と前記個数情報の他に、前記符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットを構成している符号化単位の1以上のユニットであるナルユニットの符号化方式を示すピクチャタイプ情報が前記制御情報に含まれている場合、前記切替後のビットストリームに多重化されている制御情報に含まれているピクチャタイプ情報を復号し、前記ピクチャタイプ情報が示す符号化方式を参照して、前記符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの中で、復号可能なアクセスユニットを特定し、前記復号可能なアクセスユニットの映像信号を復号することを特徴とする請求項3記載の復号装置。   In addition to the presentation time information and the number information, the video decoding means is a null that is one or more units of an encoding unit that constitutes an access unit whose presentation order is earlier than the first access unit in the encoding order. When picture type information indicating a unit encoding method is included in the control information, the picture type information included in the control information multiplexed in the switched bitstream is decoded, and the picture type With reference to the encoding method indicated by the information, the access unit that identifies the decodable access unit among the access units whose presentation order is earlier than the first access unit in the encoding order, and the video signal of the decodable access unit is The decoding device according to claim 3, wherein the decoding device performs decoding. 映像符号化手段が、映像のアクセスユニット単位に映像信号を符号化して、前記映像信号の符号化データを出力する映像符号化処理ステップと、
制御情報符号化手段が、前記映像符号化処理ステップで1以上のアクセスユニットの映像信号がフレーム間予測符号化方式で符号化された場合に、前記1以上のアクセスユニットの映像信号の全てを復号することが可能な複数のアクセスユニットの集合であるGOP毎に、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを含む制御情報を符号化して、GOP単位の制御情報の符号化データを出力する制御情報符号化処理ステップと、
多重化手段が、前記映像符号化処理ステップで出力された映像信号の符号化データと前記制御情報符号化処理ステップで出力された制御情報の符号化データを多重化し、多重化後の符号化データであるビットストリームを出力する多重化処理ステップと
を備えた符号化方法。
A video encoding means for encoding a video signal in units of video access units and outputting encoded data of the video signal; and
The control information encoding means decodes all of the video signals of the one or more access units when the video signal of one or more access units is encoded by the inter-frame prediction encoding method in the video encoding processing step. For each GOP that is a set of a plurality of access units that can be performed, the presentation time information indicating the presentation time of the first access unit in the presentation order and the access unit whose presentation order is earlier than the first access unit in the coding order A control information encoding processing step that encodes control information including the number information indicating the number and outputs encoded data of the control information in GOP units;
The multiplexing means multiplexes the encoded data of the video signal output in the video encoding processing step and the encoded data of the control information output in the control information encoding processing step, and the encoded data after multiplexing And a multiplexing process step for outputting a bitstream.
ストリーム選択手段が、複数の符号化装置から出力されたビットストリームの中から、提示対象のビットストリームを選択するストリーム選択処理ステップと、
映像復号手段が、前記ストリーム選択処理ステップで選択されたビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号する映像復号処理ステップと、
提示時刻算出手段が、前記ストリーム選択処理ステップで選択されたビットストリームに多重化されている複数のアクセスユニットの集合であるGOP単位の制御情報の符号化データの復号処理を実施して、提示順で先頭のアクセスユニットの提示時刻を示す提示時刻情報と、符号化順で先頭のアクセスユニットより提示順が早いアクセスユニットの個数を示す個数情報とを復号し、前記提示時刻情報が示す提示時刻と前記個数情報が示す個数から、前記符号化順で先頭のアクセスユニットの提示時刻を算出する提示時刻算出処理ステップとを備え、
前記ストリーム選択処理ステップでは、前記提示対象のビットストリームを切り替える指令が与えられた場合、前記複数の符号化装置から出力されたビットストリームの中から、切替後のビットストリームを選択して、当該ビットストリームを前記映像復号手段に出力するとともに、前記提示時刻算出処理ステップで算出された提示時刻になるまでの間、切替前のビットストリームも前記映像復号手段に出力し、
前記映像復号処理ステップでは、前記切替後のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号するとともに、前記提示時刻算出処理ステップで算出された提示時刻になるまでの間、前記切替前のビットストリームに多重化されている映像信号の符号化データからアクセスユニット単位の映像信号を復号することを特徴とする復号方法。
A stream selection processing step in which the stream selection means selects a bit stream to be presented from among the bit streams output from the plurality of encoding devices;
A video decoding processing step, wherein the video decoding means decodes a video signal in units of access units from encoded data of the video signal multiplexed in the bit stream selected in the stream selection processing step;
The presentation time calculation means performs a decoding process of the encoded data of the control information in GOP units, which is a set of a plurality of access units multiplexed in the bit stream selected in the stream selection processing step, Decoding the presentation time information indicating the presentation time of the first access unit and the number information indicating the number of access units earlier in the encoding order than the first access unit in the encoding order, and the presentation time indicated by the presentation time information A presentation time calculation processing step of calculating the presentation time of the first access unit in the encoding order from the number indicated by the number information,
In the stream selection processing step, when a command to switch the bit stream to be presented is given, the bit stream after switching is selected from the bit streams output from the plurality of encoding devices, and the bit is selected. While outputting the stream to the video decoding means, until the presentation time calculated in the presentation time calculation processing step, also outputs the bit stream before switching to the video decoding means,
In the video decoding processing step, the video signal for each access unit is decoded from the encoded data of the video signal multiplexed in the bit stream after the switching, and at the presentation time calculated in the presentation time calculation processing step. Until then, the decoding method characterized in that the video signal in units of access units is decoded from the encoded data of the video signal multiplexed in the bit stream before switching.
JP2014112682A 2014-05-30 2014-05-30 Encoding device, decoding device, encoding method, and decoding method Active JP6257448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112682A JP6257448B2 (en) 2014-05-30 2014-05-30 Encoding device, decoding device, encoding method, and decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112682A JP6257448B2 (en) 2014-05-30 2014-05-30 Encoding device, decoding device, encoding method, and decoding method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017233494A Division JP6641344B2 (en) 2017-12-05 2017-12-05 Encoding device

Publications (2)

Publication Number Publication Date
JP2015228553A JP2015228553A (en) 2015-12-17
JP6257448B2 true JP6257448B2 (en) 2018-01-10

Family

ID=54885806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112682A Active JP6257448B2 (en) 2014-05-30 2014-05-30 Encoding device, decoding device, encoding method, and decoding method

Country Status (1)

Country Link
JP (1) JP6257448B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140010277A1 (en) * 2012-07-09 2014-01-09 Qualcomm, Incorporated Supplemental enhancement information (sei) messages having a fixed-length coded video parameter set (vps) id

Also Published As

Publication number Publication date
JP2015228553A (en) 2015-12-17

Similar Documents

Publication Publication Date Title
JP7091421B2 (en) Transmitter and receiver
JP5133567B2 (en) Codec change method and apparatus
US11711522B2 (en) Signaling for addition or removal of layers in scalable video
US7610605B2 (en) Method and apparatus for conversion and distribution of data utilizing trick-play requests and meta-data information
KR100711635B1 (en) Picture coding method
CN102396221B (en) Support for blocking trick mode operations
US8826346B1 (en) Methods of implementing trickplay
JP2018186524A (en) Content transmitting device and content reproduction device
JP7067653B2 (en) Decoding device
JP6344392B2 (en) Encoding device, encoding method, transmitting device, decoding device, decoding method, and receiving device
US10812841B2 (en) Apparatus for encoding and transcoding which applies multi-format ultra-high definition high-efficiency codec
JP5369599B2 (en) Video encoding apparatus and video encoding method
JP6641344B2 (en) Encoding device
JP6825075B2 (en) Decryptor
JP7003308B2 (en) Decoding device
JP6257448B2 (en) Encoding device, decoding device, encoding method, and decoding method
US7269839B2 (en) Data distribution apparatus and method, and data distribution system
JP7306527B2 (en) decoding device
JP2015226305A (en) Encoding device
JP2023076538A (en) Transmission method, reception method, transmission device, and reception device
KR20120058373A (en) Video transmission and device playing system based on http streaming using svc server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6257448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250