JP2004357321A - Encoding apparatus in information transmission system - Google Patents

Encoding apparatus in information transmission system Download PDF

Info

Publication number
JP2004357321A
JP2004357321A JP2004207870A JP2004207870A JP2004357321A JP 2004357321 A JP2004357321 A JP 2004357321A JP 2004207870 A JP2004207870 A JP 2004207870A JP 2004207870 A JP2004207870 A JP 2004207870A JP 2004357321 A JP2004357321 A JP 2004357321A
Authority
JP
Japan
Prior art keywords
information
header
vop
code
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004207870A
Other languages
Japanese (ja)
Inventor
Yoshihiro Kikuchi
義浩 菊池
Toshiaki Watanabe
敏明 渡邊
Takeshi Nakajo
健 中條
Takeshi Nagai
剛 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004207870A priority Critical patent/JP2004357321A/en
Publication of JP2004357321A publication Critical patent/JP2004357321A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Error Detection And Correction (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To normally attain decoding processing even on the occurrence of an error in important information such as header information by providing error robustness for a bit stream itself in an information transmission system for transmitting an image or the like subjected to compression encoding. <P>SOLUTION: A bit stream reconstruction circuit 107 adds information having already been transmitted from an upper layer or part of the information, information having already been transmitted in the same layer or part of the information, or information for restoring contents of the information having already been transmitted in the upper layer or the same layer or contents of the part information to encoded information as restoration information including information denoting a prediction mode of each image frame of an image encoding stream in order to restore the encoded information including the image encoding stream obtained at an encoding circuit 103 to apply compression encoding to the image signal and thereafter uses a designation information insertion circuit 106 to insert designation information with a prescribed bit pattern denoting the addition of the restoration information into the header information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は符号化された動画像/静止画像をISDNやインターネット等の有線通信網、あるいはPHSや衛星通信等の無線通信網を用いて伝送する情報伝送システムにおける符号化装置に関する。   The present invention relates to an encoding device in an information transmission system for transmitting an encoded moving image / still image using a wired communication network such as ISDN or the Internet, or a wireless communication network such as PHS or satellite communication.

近年、画像をはじめとする各種情報のディジタル符号化技術及び広帯域ネットワーク技術の進展により、これらを利用したアプリケーションの開発が盛んになっており、圧縮符号化した画像などを通信網を利用して伝送するシステムが開発されている。   In recent years, with the development of digital coding technology for images and other types of information and broadband network technology, applications using these technologies have been actively developed, and compressed and coded images are transmitted using communication networks. A system has been developed.

例えば、テレビ電話、テレビ会議システム、デジタルテレビ放送においては、動画像や音声をそれぞれ少ない情報量に圧縮符号化し、それら圧縮された動画像符号列、音声符号列や他のデータ符号列を多重化してひとつの符号列にまとめて伝送/蓄積する技術が用いられている。   For example, in videophones, videoconferencing systems, and digital television broadcasting, video and audio are each compression-encoded to a small amount of information, and the compressed video and audio code sequences and other data code sequences are multiplexed. A technique of transmitting / accumulating a single code string collectively is used.

動画像信号の圧縮符号化技術としては動き補償、離散コサイン変換(DCT)、サブバンド符号化、ピラミッド符号化、可変長符号化等の技術やこれらを組み合わせた方式が開発されている。動画像符号化の国際標準方式としてはISO MPEG1,MPEG2,ITU−T H.261,H.262,H.263が存在し、また動画像、音声・オーディオ信号を圧縮した符号列や他のデータを多重化する国際標準方式としてはISO MPEGシステム、ITU−TH.221,H.223が存在する。   Techniques such as motion compensation, discrete cosine transform (DCT), sub-band coding, pyramid coding, and variable-length coding, and methods combining these techniques have been developed as compression coding techniques for moving image signals. International standards for video coding include ISO MPEG1, MPEG2, and ITU-T H.264. 261, H .; 262, H .; H.263, and an international standard system for multiplexing a moving image, a code string obtained by compressing an audio / audio signal, and other data, include the ISO MPEG system and ITU-TH. 221, H.R. 223 are present.

上述の動画像符号化国際標準方式のような従来の動画像符号化方式においては、動画像信号をフレーム毎に分割し、さらにフレームを細かい領域に分割した、GOB、マクロブロック等の単位毎に符号化が行われ、このフレーム、GOB、マクロブロック毎に符号化のモード等を示すヘッダ情報が付加される。これらのヘッダ情報はそのフレーム、GOB等全体の復号に必ず必要な情報である。このため、もしヘッダ情報に伝送路/蓄積媒体による誤りが混入し、動画像復号化装置において正しく復号できないと、そのヘッダ情報のあるフレーム、GOB等全体が正しく復号できず、動画像復号化装置における再生動画像の品質が大きく劣化してしまうことになる。   In a conventional moving picture coding method such as the above-mentioned moving picture coding international standard method, a moving image signal is divided into frames, and the frames are further divided into small areas, and each unit such as GOB, macro block, or the like is divided. Encoding is performed, and header information indicating an encoding mode and the like is added to each frame, GOB, and macroblock. These header information are necessary information for decoding the entire frame, GOB, and the like. For this reason, if an error due to the transmission path / storage medium is mixed in the header information and the video information cannot be decoded correctly by the video decoding device, the entire frame including the header information, GOB, etc. cannot be correctly decoded, and the video decoding device does not. In this case, the quality of the reproduced moving image will be greatly deteriorated.

すなわち、通信網を利用して圧縮符号化された画像を伝送する場合には、受信側では伝送されてきた0/1のビット列から、意味のある情報を再生する復号処理が必要になる。そのためには、一定のビット列のまとまりがどのような規則のもとに符号化されてきたものなのかを指し示す情報として、前述のへッダ情報が非常に重要になる。このヘッダ情報とは例えば、現在復号しているフレームの予測タイプ(フレーム内の符号化であるか、フレーム間の符号化であるか、等)、そのフレームを表示するタイミングを示す情報(タイム・レファランス)、あるいは量子化を行う際のステップサイズ情報などである。これらのへッダ情報が失われてしまうと、それ以後に伝送されてきた情報が正しく復号出来ないことになる。   That is, when transmitting an image that has been compression-encoded using a communication network, the receiving side needs to perform a decoding process of reproducing meaningful information from the transmitted 0/1 bit string. To this end, the above-mentioned header information is very important as information indicating under what rule a certain unit of a bit string has been encoded. The header information includes, for example, the prediction type of the currently decoded frame (whether it is intra-frame encoding or inter-frame encoding, etc.), and information (time, Reference), or step size information when performing quantization. If the header information is lost, information transmitted thereafter cannot be correctly decoded.

例えば前記フレームの予測タイプが、本来はフレーム間の符号化であることを示していたにも関わらず、何らかの原因でビット列に誤りが混入し、フレーム内を示すビットパターンに変化したとする。この場合、その後の実際の情報が正しく伝送されてきたとしても、復号側ではその信号をフレーム内符号化の結果と判断してしまうため、最終的には正しく復号されないことになる。よって、動画像復号化装置における再生動画像の品質が大きく劣化してしまうことになる。   For example, suppose that although the prediction type of the frame originally indicates that the coding is between frames, an error is mixed in the bit string for some reason and the bit pattern changes to a bit pattern indicating the inside of the frame. In this case, even if the subsequent actual information is transmitted correctly, the decoding side determines that the signal is the result of the intra-frame encoding, so that it will not be correctly decoded eventually. Therefore, the quality of the reproduced moving image in the moving image decoding apparatus is greatly deteriorated.

このような誤りの混入は、特に無線テレビ電話や携帯情報端末、無線デジタルテレビ受信装置等のように無線伝送路等を介して動画像を伝送/蓄積するシステムを用いた場合に多発する。従来の画像伝送は有線通信網を用いたシステムが主流であり、仮に無線通信網を用いる場合でも誤り率が非常に少ない衛星通信を想定していた。従って、伝送する符号化列の構造自体についての誤り耐性については十分な考慮がなされておらず、ヘッダ情報等の重要情報に対する伝送路誤り保護が十分ではなかった。   Such mixing of errors frequently occurs particularly when a system that transmits / stores a moving image via a wireless transmission path or the like, such as a wireless videophone, a portable information terminal, or a wireless digital television receiver, is used. Conventional image transmission uses a system using a wired communication network, and satellite communication with a very low error rate is assumed even when a wireless communication network is used. Therefore, sufficient consideration has not been given to the error resistance of the structure of the coded sequence to be transmitted itself, and the transmission path error protection for important information such as header information has not been sufficient.

今後移動体通信の主流のーつになるPHSでは誤り率が衛星通信の十万倍〜百万倍程度になるため、従来のように符号化されたビット列に誤り訂正を施しただけでは十分な訂正が不可能な状態になる。また、PHSと同様に今後の通信の主流になると予想されるインターネットでは、いつ、どの様な誤りが混入するかが統計的に明らかになっておらず、適切な誤り訂正が行えない場合もある。しかもこれらPHSやインターネットの場合は、符号列中の一部の情報が消失してしまう場合もあり、理論的に誤り訂正では対処できない事態も発生する事になる。そのため符号列自体の構造に誤り耐性能力を持たせることが必要になってくる。   In PHS, which will become the mainstream of mobile communication in the future, the error rate will be about 100,000 to 1,000,000 times that of satellite communication. Therefore, it is not enough to perform error correction on the encoded bit sequence as in the past. It becomes impossible to correct. Also, in the Internet, which is expected to become the mainstream of communication in the future like PHS, it is not clear statistically how and when errors will be mixed, and there may be cases where appropriate error correction cannot be performed. . In addition, in the case of the PHS or the Internet, some information in the code string may be lost, and a situation that cannot be dealt with theoretically by error correction may occur. Therefore, it is necessary to give the structure of the code string itself an error resilience capability.

このように従来は、伝送する符号化列の構造自体の誤り耐性について十分な考慮がなされておらず、特に、伝送路誤りが入ると大きな画質劣化を誘発するヘッダ情報等の重要情報に対しては伝送路誤りに対する考慮が十分ではなかった。   As described above, conventionally, sufficient consideration has not been given to the error resistance of the structure of the coded sequence to be transmitted itself, and in particular, important information such as header information that induces large image quality degradation when a transmission path error enters. Did not consider transmission line errors sufficiently.

本発明はこのような点に鑑みてなされたものであり、符号化列の構造自体に誤り耐性能力を持たせることにより、伝送路誤りによってへッダ情報のような重要情報に誤りが発生しても高品位に画像信号を復号することが可能な情報伝送システムにおける符号化装置を提供することを目的とする。   The present invention has been made in view of such a point, and by giving an error resilience capability to the structure of a coded sequence, an error occurs in important information such as header information due to a transmission line error. It is another object of the present invention to provide an encoding device in an information transmission system capable of decoding an image signal with high quality.

本発明の基本概念は、へッダ情報のような重要情報を、ある一定の指示情報の指示に従って、任意のタイミングで何度でも繰り返し伝送可能なシステム構成を実現し、これによって符号化列自体に誤り耐性能力を持たせることにある。   The basic concept of the present invention is to realize a system configuration in which important information such as header information can be repeatedly transmitted at an arbitrary timing according to an instruction of a certain instruction information. Is to have an error resilience capability.

そのために、本発明は、画像信号を圧縮符号化することにより得られた画像符号列を含む符号化された情報を2つ以上のレイヤに分け、各レイヤに同期信号と、復号に必要なへッダ情報とを付加して伝送する情報伝送システムにおいて、前記符号化された情報を復元するための、前記画像符号列の各画像フレームの予測モードを表す情報を含む復元用情報として、上位レイヤですでに伝送した情報あるいはその一部の情報、または、同一レイヤ内においてすでに伝送した情報あるいはその一部の情報、あるいはまた、前記上位レイヤまたは同一レイヤ内においてすでに伝送した情報あるいはその一部の情報の内容を復元可能な情報を伝送することが可能な手段を有する符号化装置を提供することによって、符号列の構造自体に誤り耐性能力を持たせ、これによってへッダ情報に誤りが発生しても正常に復号処理を行うことを可能にしている。   For this purpose, the present invention divides encoded information including an image code sequence obtained by compression-encoding an image signal into two or more layers, and assigns a synchronization signal to each layer and a signal necessary for decoding. In the information transmission system for transmitting by adding the header information, the upper layer is used as restoring information including information indicating a prediction mode of each image frame of the image code sequence for restoring the encoded information. Information already transmitted in or part of the information, or information already transmitted in the same layer or part of the information, or information already transmitted in the upper layer or the same layer or part of the information By providing an encoding device having means capable of transmitting information capable of restoring the content of information, the structure of the code string itself has an error resilience capability. Myself understood, it is made possible to perform the decoding processing properly even error occurs in the header information to thereby.

以上のように、本発明によれば、符号化列自体の構造に誤り耐性能力を持たせることによって、仮にヘッダ情報などの重要情報に誤りが混入してそれを復号処理に利用出来なくなったとしても、指示情報が示す新たな情報を代用して復号処理を正しく継続することが可能となる。   As described above, according to the present invention, by giving error resilience capability to the structure of a coded sequence itself, it is assumed that important information such as header information contains errors and cannot be used for decoding. Also, the decoding process can be correctly continued by using the new information indicated by the instruction information.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の一実施形態に係る符号化装置の構成を示している。カメラ101で取り込まれた動画像はA/D変換器102でデイジタル信号に変換され、符号化回路103に入力される。符号化回路103では、DCT変換、量子化、可変長符号化、逆量子化、逆DCT変換、動き保証などによって、動画像信号の高能率圧縮符号化が行われ、符号化されたデータ列が生成される。符号化されたデータ列の中の重要へッダ情報は重要ヘッダ情報再構築回路104に入力され、ここに一旦保持される。符号化回路103の後にはビット列再構成回路107があり、ここで伝送路に送り出される最終的な符号列、すなわちMPEG2などに準拠したデータストリームが決定される。   FIG. 1 shows a configuration of an encoding device according to an embodiment of the present invention. A moving image captured by the camera 101 is converted into a digital signal by an A / D converter 102 and input to an encoding circuit 103. In the encoding circuit 103, high-efficiency compression encoding of a moving image signal is performed by DCT transform, quantization, variable length encoding, inverse quantization, inverse DCT transform, motion assurance, etc., and the encoded data sequence is converted. Generated. The important header information in the encoded data sequence is input to the important header information reconstructing circuit 104, where it is temporarily stored. After the encoding circuit 103, there is a bit string reconstructing circuit 107, where a final code string sent to the transmission path, that is, a data stream conforming to MPEG2 or the like is determined.

ビット列再構成回路107においては、まず、ある一定のビット列単位でその先頭に同期信号回路105で決定されている同期信号が付加され、その後、指示情報挿入回路106により、そのビット列に指示情報が挿入される。この指示情報は重要へッダ情報の追加を示すものであり、この指示情報をビット列に挿入することによって、そのビット列に重要へッダ情報を追加することが可能となる。次いで、重要情報再構築回路104から必要な重要ヘッダ情報が取り出され、それがビット列に付加される。なおここでのビット列構成の詳細は、図4、図5を参照して後述する。   In the bit string reconstruction circuit 107, first, a synchronization signal determined by the synchronization signal circuit 105 is added to the beginning of the bit string in a certain fixed bit string, and thereafter, instruction information is inserted into the bit string by the instruction information insertion circuit 106. Is done. This instruction information indicates the addition of important header information. By inserting this instruction information into a bit string, it becomes possible to add important header information to the bit string. Next, necessary important header information is extracted from the important information reconstructing circuit 104 and added to the bit string. The details of the bit string configuration here will be described later with reference to FIGS.

ビット列再構築回路107で最終的に決定したビット列は、符号化された他の音声情報、文字情報等と多重化回路108において多重化され、伝送路110に送出される。なお、ヘッダ情報内の何を重要ヘッダ情報とするかについては、符号化回路103の外からユーザが自由に指定することも可能である。   The bit sequence finally determined by the bit sequence reconstruction circuit 107 is multiplexed with other encoded audio information, character information, and the like by the multiplexing circuit 108 and transmitted to the transmission line 110. Note that the user can freely specify what is included in the header information as important header information from outside the encoding circuit 103.

図2は本発明に関わる復号部の構成である。   FIG. 2 shows the configuration of the decoding unit according to the present invention.

伝送されてきたビット列は分離回路121において、画像情報、音声情報、文字情報等に分離される。画像情報のビット列はまず、同期検出回路122において同期を検出することにより、ビット列内の復号開始位置を検出する。その情報が復号回路124に送られ、ここから復号処理が開始、あるいは再開される。まず最も上位のレイヤのへッダ情報から復号が開始されるが、これら復号された信号はエラーチェック回路125により誤りが混入しているかどうかがチェックされる。もし誤りの混入が確認された場合は、その部分が使用出来ないため、その旨を重要情報回路126に伝えておく。次のレイヤのヘッダ情報を復号する際に、同期検出回路122において同期を検出した後、今度は同じビット列が指示情報判定回路123にも転送され、ここで指示情報の内容が調べられる。これにより、重要ヘッダ情報が追加されているか否か、および追加されている場合にはその重要ヘッダ情報の種類及び追加位置などが検出される。この検出結果に基づき、指示情報判定回路123から復号回路124に動作指示が与えられる。復号回路124では、現レイヤのヘッダ情報と、そこに付加されている重要ヘッダ情報の復号が行われる。重要ヘッダ情報の復号結果は、重要情報保持回路126に転送され、ここで一旦保持される。もしエラーチェック回路125から誤り混入確認信号が来ている場合は、上位レイヤでの重要へッダ情報が使用できないことがわかるため、復号回路124は、現レイヤで送られてきた重要ヘッダ情報を代用することにより、現レイヤに後続する符号列に対する復号処理を継続する。復号された画像などの情報は、D/A回路127においてアナログ信号に戻され、モニタ128上に表示される。   The transmitted bit string is separated by a separation circuit 121 into image information, audio information, character information, and the like. First, the synchronization detection circuit 122 detects the synchronization of the bit sequence of the image information, thereby detecting the decoding start position in the bit sequence. The information is sent to the decoding circuit 124, from which the decoding process is started or restarted. First, decoding is started from the header information of the uppermost layer. These decoded signals are checked by the error check circuit 125 as to whether or not an error is mixed. If it is confirmed that an error has occurred, that part cannot be used, and the fact is notified to the important information circuit 126. When decoding the header information of the next layer, after detecting synchronization in the synchronization detection circuit 122, the same bit string is transferred to the instruction information determination circuit 123, and the content of the instruction information is examined here. As a result, it is detected whether or not important header information has been added, and if added, the type and addition position of the important header information are detected. Based on this detection result, an operation instruction is given from the instruction information determination circuit 123 to the decoding circuit 124. The decoding circuit 124 decodes the header information of the current layer and the important header information added thereto. The decoding result of the important header information is transferred to the important information holding circuit 126, where it is once held. If the error check signal is received from the error check circuit 125, it is known that the important header information in the upper layer cannot be used. Therefore, the decoding circuit 124 checks the important header information transmitted in the current layer. By substituting, the decoding process for the code string subsequent to the current layer is continued. The information such as the decoded image is returned to the analog signal in the D / A circuit 127 and displayed on the monitor 128.

次に、本実施形態で用いられる画像符号列の構造について説明する。   Next, the structure of the image code string used in the present embodiment will be described.

図3は画画を複数のレイヤに分割する場合の概念図である。   FIG. 3 is a conceptual diagram when an image is divided into a plurality of layers.

一つのフレーム200は例えば16画素×16画素のマクロブロックを集めた多数のスライス(マクロブロックライン)201に分割される(図3(a))。一方、各スライス201はその中がいくつかのマクロブロック203の集合として構築されている(図3(b))。フレーム200として画面全体を捉えた場合が最上位レイヤとなり、その中の201ごとに捉えた場合が次のレイヤ、203レベルがさらにその次のレイヤということになる。   One frame 200 is divided into a number of slices (macroblock lines) 201 in which macroblocks of 16 pixels × 16 pixels are collected (FIG. 3A). On the other hand, each slice 201 is constructed as a set of several macroblocks 203 (FIG. 3B). The case where the entire screen is captured as the frame 200 is the highest layer, the case where each frame 201 is captured is the next layer, and the level 203 is the next layer.

図4は、図3で示した各レイヤのデータ構造の一例を示した図である。   FIG. 4 is a diagram showing an example of the data structure of each layer shown in FIG.

図4(a)は、図3(a)に対応する最上位のフレームレイヤのビット列であり、図4(b)は図3(b)のスライスに対応するスライスレイヤのビット列の従来例である。一方図4(c)は、図3(b)のスライスに対応するスライスレイヤについてのここで提案する新たなビット列の例である。   FIG. 4A shows a bit sequence of the uppermost frame layer corresponding to FIG. 3A, and FIG. 4B shows a conventional example of a bit sequence of a slice layer corresponding to the slice of FIG. 3B. . On the other hand, FIG. 4C shows an example of a new bit sequence proposed here for a slice layer corresponding to the slice of FIG. 3B.

図4(a)に示されているように、フレームレイヤすなわち1フレームの画像符号列は、ピクチャのスタート位置を示す同期信号(ピクチャスタートコード;PSC)から始まる。PSCの後にはフレームを再生するタイミングを示すタイムレファランス(TR)、フレーム内/フレーム間等の予測符号化のタイプ情報(PT)が続き、その後には量子化ステップサイズ情報(PQ)が続く。これらTR,PT,PQは画面の全ての復号処理あるいは表示に際して必要な情報であり、これらの情報が誤り等によって破壊された場合、仮にその後のレイヤで再び同期が取れたとしても、復号あるいは表示が正しくは行われないことになる。PQの後のDataには、下位のレイヤ情報が格納されており、その典型的なビット列が図4(b)となる。   As shown in FIG. 4A, a frame layer, that is, an image code string of one frame starts with a synchronization signal (picture start code; PSC) indicating a picture start position. The PSC is followed by a time reference (TR) indicating the timing of reproducing the frame, type information (PT) of predictive coding such as intra-frame / inter-frame, and then quantization step size information (PQ). These TRs, PTs, and PQs are information necessary for all the decoding processing or display of the screen. If these information are destroyed due to an error or the like, even if the synchronization is re-established in a subsequent layer, the decoding or display is performed. Will not be done correctly. The lower layer information is stored in Data after the PQ, and a typical bit string is shown in FIG.

図4(b)に示されているように、スライスレイヤにおいては、各スライス201の画像符号列は、その開始を示す同期信号(SSC)から始まり、その後に予測タイプ情報(SPT)、続いてそのスライス番号(SN)、最後は量子化ステップサイズ情報(SQ)となる。その後のDataは、さらに下位のマクロブロックレイヤの情報である。   As shown in FIG. 4B, in the slice layer, the image code string of each slice 201 starts with a synchronization signal (SSC) indicating the start, then predictive type information (SPT), and then. The slice number (SN) and finally the quantization step size information (SQ). Subsequent Data is information of a lower macroblock layer.

次に本第1実施形態で使用されるスライスレイヤの構造を図4(c)を用いて説明する。   Next, the structure of the slice layer used in the first embodiment will be described with reference to FIG.

上述したように図4(a)の情報は重要情報であり、この部分が使用できない場合は、仮にその下層のスライスレイヤの情報が破壊されていなくても、正しく画面を復号することが出来ない。図4(a)の情報が使用できない場合でもその下層のスライスレイヤの情報を正しく復号できるようにするためには、図4(a)のヘッダ情報の内容がスライスレイヤで分かることが必要になる。そこで、本第1実施形態では、SPT内に指示情報を示す予め定められたビットパターンの符号を用意し、その符号が現れた場合は、図4(a)で伝送したヘッダ情報を再びスライスレイヤで伝送するようにしている。この例ではTRとPTを伝送している(この場合はSPTを指示情報として使用しており、SPTが本来の予測タイプを表していないことから、PTが必要となっている)。図4(a)のフレームレイヤに誤りが混入しなかった場合は、この情報(TR,PT)は使用されないことになるが、もしフレームレイヤの情報が誤り等で破壊された場合には、図4(c)におけるこれらの情報を代用して、復号処理を続けることが可能となる。   As described above, the information in FIG. 4A is important information, and if this part cannot be used, the screen cannot be correctly decoded even if the information of the slice layer below it is not destroyed. . Even if the information of FIG. 4A cannot be used, in order to correctly decode the information of the lower slice layer, it is necessary that the contents of the header information of FIG. . Therefore, in the first embodiment, a code of a predetermined bit pattern indicating the instruction information is prepared in the SPT, and when the code appears, the header information transmitted in FIG. To be transmitted. In this example, the TR and the PT are transmitted (in this case, the SPT is used as the instruction information, and the PT is necessary because the SPT does not represent the original prediction type). If no error is mixed in the frame layer of FIG. 4A, this information (TR, PT) is not used. However, if the information of the frame layer is destroyed by an error or the like, the information shown in FIG. The decoding process can be continued by substituting the information in 4 (c).

図5は図4に代わる別の例である。   FIG. 5 is another example replacing FIG.

図5(a)に示すフレームレイヤは図4(a)と同様であるが、図5(b),(c)のスライスレイヤについては、そのヘッダ情報に挿入される指示情報が図4と異なっている。図4ではSPT内に指示情報を用意したが、ここでは新たなビット(IS)を挿入している。ISが次にフレームレイヤの重要情報が続くことを示している場合は、図5(c)に示されているようにISの次にTRを伝送し、復号側は、フレームレイヤの情報が誤り等で破壊された場合には、スライスレイヤのTRを利用する。この場合は、SPTが純粋に予測タイプのみを表すようになっているため、図4の場合のようにPTを再度スライスレイヤで伝送する必要はない。   The frame layer shown in FIG. 5A is the same as that shown in FIG. 4A, but the instruction information inserted into the header information of the slice layers shown in FIGS. ing. Although instruction information is prepared in the SPT in FIG. 4, a new bit (IS) is inserted here. If the IS indicates that the important information of the frame layer follows, the TR is transmitted next to the IS as shown in FIG. In the case of being destroyed by, for example, the TR of the slice layer is used. In this case, since the SPT indicates only the prediction type, it is not necessary to transmit the PT again in the slice layer as in the case of FIG.

図5(d)は図5(b)の変形例であり、スライスレイヤにおいて、SPTを伝送しない場合の例である。この時はISの指示によってフレームレイヤの重要情報を再送する際に、スライスレイヤでは、図5(e)のようにTRとPTが必要になる。   FIG. 5D is a modification example of FIG. 5B, and is an example in which the SPT is not transmitted in the slice layer. At this time, when the important information of the frame layer is retransmitted according to the instruction of the IS, the TR and the PT are required in the slice layer as shown in FIG.

図6は、画面が単一のレイヤで構成される場合の概念図、およびその時のビット列の例である。   FIG. 6 is a conceptual diagram in the case where the screen is composed of a single layer, and an example of a bit string at that time.

この場合は図6(a)のように、画面内が単純にブロック(マクロブロック)だけで分割される。この場合の1フレームの画像符号列は、図6(b)のように、一つの同期信号PSCのみによって画面全体の同期を取る仕組みになる。この時もTRやPTが重要であることにかわりないため、仮にこれらの情報が破壊された場合には、その後の情報が正しく伝送されても、復号を行うことが出来ない。従って何らかの方法でこれら重要情報を再度伝送する仕組みが有効である。特にランダムエラーが発生する場合、どちらの情報も破壊される確率は、一度しか情報を伝送しない場合に比べて格段に減少する。またバーストエラーが発生する場合も、これら再送情報を一度目の情報からある程度離しておくことによって、双方とも破壊される確率を減少させることができる。図6(b)の例では、重要情報TR,PT,PQ等の後にISを挿入し、この信号の指示によってこの後にTR,PT等を挿入することが可能な構成になっている。指示情報ISの位置は、上述した理由により、例えばバーストエラーの統計的な継続期間以上、重要情報から離しておくことが有効となる。   In this case, the screen is simply divided into blocks (macro blocks) as shown in FIG. In this case, as shown in FIG. 6B, one frame of the image code string has a structure in which the entire screen is synchronized with only one synchronization signal PSC. At this time, since the TR and the PT are still important, if these pieces of information are destroyed, decoding cannot be performed even if the subsequent information is correctly transmitted. Therefore, a mechanism for transmitting such important information again by some method is effective. In particular, when a random error occurs, the probability of destruction of either information is significantly reduced as compared with the case where information is transmitted only once. Also, when a burst error occurs, the probability that both of these retransmission information are destroyed can be reduced by keeping the retransmission information apart from the first information to some extent. In the example of FIG. 6B, the IS is inserted after the important information TR, PT, PQ, etc., and the TR, PT, etc. can be inserted after that according to the instruction of this signal. For the above-mentioned reason, it is effective to keep the position of the instruction information IS away from the important information for, for example, more than the statistical duration of the burst error.

図7は本発明に関わる符号化部の他の構成例である。   FIG. 7 shows another configuration example of the encoding unit according to the present invention.

カメラ301で取り込まれた画像はA/D変換器302でディジタル信号に変換され、符号化回路303に入力される。符号化回路303の後にはビット列再構成回路307があり、ここで伝送路に送り出される最終的なビット列が決定される。特に誤りが発生しやすいネットワークを使用する場合は、回復しきれなかつた誤りの伝搬を極力避けるため、予測を行わないリフレッシュという操作をある一定時間ごとに行うことが普通である。このリフレッシュは面面全体をそのモードにすることも可能であるが(この場合はそのフレームの予測タイプがフレーム内になる)、リフレッシュ(フレーム内符号化)はフレーム間符号化に比べて発生情報量が格段に多いため、特に低ビットレートの符号化伝送に使用することは難しい。そのため、1フレーム内の一部分のみにリフレッシュを行い、ある一定時間をかけて、フレーム全体に相当する位置のリフレッシュを終了するという手法を用いることが好ましい。また、誤りが復号側で検知された場合は、再送要求を出して、その部分のみを送りなおしてもらうようにすることも重要である。   The image captured by the camera 301 is converted into a digital signal by an A / D converter 302 and input to an encoding circuit 303. After the encoding circuit 303, there is a bit string reconstructing circuit 307, where the final bit string sent to the transmission path is determined. In particular, when using a network in which an error is likely to occur, it is usual to perform a refresh operation without prediction at regular intervals in order to minimize the propagation of errors that cannot be completely recovered. Although this refresh can put the entire surface in that mode (in this case, the prediction type of the frame becomes the intra-frame), the refresh (intra-frame encoding) generates the generated information as compared with the inter-frame encoding. The amount is so large that it is particularly difficult to use it for low bit rate coded transmission. Therefore, it is preferable to use a method in which refresh is performed on only a part of one frame and refresh of a position corresponding to the entire frame is completed over a certain period of time. If an error is detected on the decoding side, it is also important to issue a retransmission request and have only that part retransmitted.

これらの処理を実現するためには、符号化回路303で符号化している途中で、フレーム内/フレーム間の予測切り替えが行えることが必要である。仮にある一定の部分(ここでは一例として図3に示した特定のスライスとする)のみのリフレッシュを行う場合、このスライスの予測タイプはその前までのスライスの予測タイプと異なるため、非常に重要な情報となる。また、リフレッシュの場合は量子化ステップサイズもフレーム間予測の場合とは大きく異なるため、この情報も重要である。   In order to realize these processes, it is necessary that prediction switching within a frame or between frames can be performed during encoding by the encoding circuit 303. When refreshing only a certain portion (here, for example, the specific slice shown in FIG. 3 as an example) is performed, the prediction type of this slice is different from the prediction type of the previous slice. Information. Also, in the case of refresh, the quantization step size is significantly different from that in the case of inter-frame prediction, so this information is also important.

図7の符号化装置においては、符号化回路303でリフレッシュのための符号化を行った場合、その情報が指示情報挿入回路305に送られる。一方前記リフレッシュのための重要情報は符号化処理変更情報回路306に予め格納されている。ビット列再構成回路307では、リフレッシュのための符号化が行われたスライスのビット列の先頭に同期信号回路304で決定されている同期信号が付加され、その後指示情報挿入回路305により、リフレッシュを行ったことを示す指示情報が挿入される。この状態で、リフレッシュされた画像を復号するために必要な前述の重要情報が追加可能となるため、符号化処理変更情報回路306から必要な重要情報が取り出され、スライスのビット列に付加される。なおここでのビット列構成例の詳細は図9で説明する。   In the encoding device of FIG. 7, when encoding for refresh is performed by the encoding circuit 303, the information is sent to the instruction information insertion circuit 305. On the other hand, the important information for the refresh is stored in the encoding process change information circuit 306 in advance. In the bit string reconstruction circuit 307, the synchronization signal determined by the synchronization signal circuit 304 is added to the head of the bit string of the slice that has been coded for refreshing, and thereafter, the refresh is performed by the instruction information insertion circuit 305. Is inserted. In this state, since the above-mentioned important information necessary for decoding the refreshed image can be added, necessary important information is extracted from the encoding process change information circuit 306 and added to the bit string of the slice. The details of the bit string configuration example here will be described with reference to FIG.

ビット列再構成回路307で最終的に決定したビット列は他の符号化された音声情報、文字情報等と多重化回路308において多重化され、伝送路310に送出される。なおリフレッシュに際して、どの様な情報を重要情報として追加するかは符号化処理変更情報回路306の外からユーザが自由に指定することも可能である。   The bit string finally determined by the bit string reconstructing circuit 307 is multiplexed with other encoded voice information, character information, and the like in the multiplexing circuit 308 and transmitted to the transmission path 310. At the time of refreshing, what kind of information is added as important information can be freely specified by the user from outside the encoding process change information circuit 306.

図8は、図7の符号化部に対応する復号装置の構成例である。伝送されてきた符号列は分離回路320において、画像情報、音声情報、文字情報等に分離される。画像情報のビット列はまず、同期検出回路321において同期を検出することにより、ビット列内の復号開始位置が検出される。その情報が復号回路323に送られ、ここから復号処理が開始、あるいは再開される。さらにビット列は指示情報判定回路322にも転送され、ここで指示情報の内容が判定される。リフレッシュが実現可能な構成の場合、この指示情報によって、復号処理の種類をフレーム内/フレーム間予測符号化タイプに合わせて変更できれば良いため、復号回路323内のフレーム内復号器324、フレーム間復号器325を切り替えるスイッチを、指示情報判定回路322からの信号により切り替える。そして、リフレッシュのためのスライスについては、フレーム内復号器324によって復号処理が実行される。このフレーム内復号処理は、前述の量子化ステップサイズなどの重要情報に従って制御される。復号回路323のフレーム内復号器324またはフレーム間復号器325で復号された画像情報は、D/A回路326においてアナログ信号に戻された後、モニタ327上に表示される。   FIG. 8 is a configuration example of a decoding device corresponding to the encoding unit in FIG. The transmitted code string is separated by a separation circuit 320 into image information, audio information, character information, and the like. First, the synchronization detection circuit 321 detects the synchronization of the bit sequence of the image information, whereby the decoding start position in the bit sequence is detected. The information is sent to the decoding circuit 323, from which the decoding process is started or restarted. Further, the bit string is also transferred to the instruction information determination circuit 322, where the content of the instruction information is determined. In the case of a configuration capable of realizing refresh, it is sufficient that the type of decoding processing can be changed in accordance with the intra-frame / inter-frame predictive coding type according to this instruction information, so the intra-frame decoder 324 in the decoding circuit 323 and the inter-frame decoding The switch for switching the unit 325 is switched by a signal from the instruction information determination circuit 322. Then, decoding processing is performed by the intra-frame decoder 324 on the slice for refreshing. This intra-frame decoding process is controlled according to important information such as the above-described quantization step size. The image information decoded by the intra-frame decoder 324 or the inter-frame decoder 325 of the decoding circuit 323 is converted back to an analog signal by the D / A circuit 326 and displayed on the monitor 327.

図9はリフレッシュを行う場合のフレーム内の様子と、それに対応する画像符号列の構造を示した図である。   FIG. 9 is a diagram showing a state in a frame when refreshing is performed and a structure of a corresponding image code string.

フレーム351は複数のスライスに分割されるが、ここでは例えばフレーム間符号化を行うスライス352の次に、リフレッシュのためのスライス353が伝送される場合を考える(図9(a))。その次のスライス354は再びフレーム間符号化となる。この時に伝送されるビット列の様子を図9(b)に示す。このビット列内の各部分361、362、および363は、それぞれ図9(a)のスライス352、353、および354に相当する。リフレッシュのためのスライスのビット列に含まれているSPT2内には、フレーム内符号化を使用したリフレッシュであることを示す指示情報が挿入される。その後のSQ2はリフレッシュ用に用意された量子化ステップサイズを示している。また、Data2は全て、フレーム内符号化の結果として復号される。   The frame 351 is divided into a plurality of slices. Here, for example, a case is considered in which a slice 353 for refreshing is transmitted after a slice 352 for performing inter-frame coding (FIG. 9A). The next slice 354 is again inter-frame coded. FIG. 9B shows the state of the bit string transmitted at this time. Each part 361, 362, and 363 in this bit sequence corresponds to slices 352, 353, and 354 in FIG. 9A, respectively. In the SPT2 included in the bit string of the slice for refreshing, indication information indicating that the refresh is performed using intra-frame coding is inserted. Subsequent SQ2 indicates a quantization step size prepared for refresh. All of Data2 is decoded as a result of intra-frame encoding.

図10は重要情報の内容に関する別の例を示した図であり、図10(a)はフレーム、図10(b)はスライスレイヤのビット列である。   FIG. 10 is a diagram showing another example of the contents of important information, in which FIG. 10A shows a frame and FIG. 10B shows a bit string of a slice layer.

スライスレイヤにおいて、指示情報となるSPT後に来る情報は図4ではTRであった。これは表示のタイミングをそのまま表現しても良いが、場合によってはその表現に関わるビット数が多大になることもある。これを避けるために、図10では、圧縮符号化で一般に行われる処理である、その情報に対応する、以前に伝送した情報との差分を符号化する、という手法が採用されている。   In the slice layer, the information that comes after the SPT serving as the instruction information is TR in FIG. This may represent the display timing as it is, but in some cases, the number of bits involved in the representation may be large. In order to avoid this, in FIG. 10, a method of encoding the difference between the information and the previously transmitted information corresponding to the information, which is a process generally performed in the compression encoding, is adopted.

すなわち、TRとして0から255までを考えた場合、これらをそのまま表現するには8ビットを要する。しかしこれを例えば、3フレーム以上のコマ落としがないという拘束条件が成り立つ場合を考えると、この時、表示する際に互いに隣合うフレームは、最大で3フレーム以上は離れないことになるから、相対的なタイムレファランスとしては4つの状態(コマ落としの数が0、1、2、3)が表現できれば十分である。この時はTRとして2ビットあれば良いことになり、ビット数の削減が可能になる。ただしこの場合は、すでに復号された直前の情報が必要となるため、この部分のTRのみでは表示タイミングが確定しない。   That is, when 0 to 255 are considered as TR, 8 bits are required to express these as they are. However, considering this, for example, in the case where the constraint condition that there is no frame dropping of three or more frames is satisfied, at this time, frames that are adjacent to each other at the time of display will not be separated by at least three frames. It is sufficient that four states (the number of dropped frames is 0, 1, 2, 3) can be expressed as a typical time reference. At this time, it is sufficient that 2 bits are used as TR, and the number of bits can be reduced. However, in this case, since the information immediately before decoding is required, the display timing is not determined only by this TR.

図10(b)は、上で説明した差分のTR(図ではDTR)を重要ヘッダ情報としてスライスレイヤにて伝送する場合のビット列の例である。DTRが復号された後、すでに復号されている前フレームの図10(a)に相当するフレームレイヤのピット列のTR情報にDTRを加えることによって、現フレームの真のTRを算出することができる。   FIG. 10B is an example of a bit string when the above-described difference TR (DTR in the figure) is transmitted as important header information in the slice layer. After the DTR is decoded, the true TR of the current frame can be calculated by adding the DTR to the TR information of the pit string of the frame layer corresponding to FIG. 10A of the previous frame that has already been decoded. .

図11は上記図10のような場合の復号処理を行う回路を示した図である。この図は、図2の復号部分と入れ換えることによって動作する。まず分離回路121から送られてきたビット列は、同期検出回路122により復号開始位置がわかり、フレームレイヤのTR,PT等が復号器401で復号される。同時にこの復号されたTR情報はメモリ2(404)に格納される。また、これらへッダ情報はエラーチェック回路402で誤りがチェックされ、その結果がメモリ1(403)に転送される(以上図10(a)についての処理)。一方、図10(b)のスライスレイヤについては、まず指示情報判定回路123によってSPTが判定され、その後のDTR,PTが401で復号される。また、DTRは403に転送される。もし402からの情報により、その上位のフレームレイヤのヘッダ情報(TR)が誤り等により使用できないことが分かった場合は、403から404ヘリクエスト信号を出して、ここにすでに格納されている前フレームのTR情報を403に転送する。403内ではこのTRと、現フレームにおける上記DTRとを加算して、現フレームのTRを作成し、これを401に戻して復号処理を継続するとともに、このTR情報を404にも転送して、次のフレームでの同様の処理に使用できるようにしておく。   FIG. 11 is a diagram showing a circuit for performing the decoding process in the case as shown in FIG. This figure operates by replacing the decoding part of FIG. First, the decoding start position of the bit string sent from the separation circuit 121 is known by the synchronization detection circuit 122, and the TR, PT, etc. of the frame layer are decoded by the decoder 401. At the same time, the decoded TR information is stored in the memory 2 (404). The header information is checked for errors by the error check circuit 402, and the result is transferred to the memory 1 (403) (the processing of FIG. 10A). On the other hand, for the slice layer in FIG. 10B, the SPT is first determined by the instruction information determination circuit 123, and the subsequent DTR and PT are decoded at 401. The DTR is transferred to 403. If it is found from the information from 402 that the header information (TR) of the upper frame layer cannot be used due to an error or the like, a request signal is sent from 403 to 404, and the previous frame already stored here is output. Is transferred to 403. In 403, the TR and the DTR in the current frame are added to create a TR of the current frame, and the TR is returned to 401 to continue the decoding process. It should be available for similar processing in the next frame.

図12は、他のヘッダ情報のための用意されているビットパターンの中で未使用のパターンを指示情報として使用する場合の例である。   FIG. 12 shows an example in which an unused pattern among bit patterns prepared for other header information is used as instruction information.

ここでは、SPTとして2ビットのビットパターンが予め割り当てられている場合を想定する。予測タイプはI(フレーム内符号化)、P(順方向予測符号化)、B(双方向予測符号化)の3種類であり、それぞれ00、01、10のビットパターンが割り当てられている。従って“11”に対する情報が未使用であるため、この符号を指示情報として使用する。つまり、SPTが“11”である場合は予測タイプではなく、その後に重要情報が続くことを示している。なお指示情報が示す重要情報はへッダ情報(TR,PT,PQ)あるいはその一部でも良いし、あるいはその後のデータ(例えば図4(a)のData)を含んでも良い。これらはシステムの要求や、ネットワークの誤り発生頻度、必要な符号化レート等によって変更することが可能である。   Here, it is assumed that a 2-bit bit pattern is assigned in advance as the SPT. There are three types of prediction: I (intra-frame coding), P (forward prediction coding), and B (bidirectional prediction coding), and bit patterns of 00, 01, and 10 are assigned, respectively. Therefore, since the information for “11” is not used, this code is used as the instruction information. That is, when the SPT is “11”, it is not a prediction type, but indicates that important information follows. The important information indicated by the instruction information may be header information (TR, PT, PQ) or a part thereof, or may include subsequent data (for example, Data in FIG. 4A). These can be changed according to the requirements of the system, the frequency of occurrence of errors in the network, the required coding rate, and the like.

以上のように、本第1実施形態では、ヘッダ情報のような重要情報が消失しても、それを復元するための情報がある一定の指示情報の指示に従って追加伝送されるため、重要ヘッダ情報を誤りなどが発生してそれを復号できない場合でも、その後に転送される指示情報とその指示情報で指定される復元用情報を用いて、復号処理を正しく継続することが可能となる。   As described above, in the first embodiment, even when important information such as header information is lost, information for restoring the important information is additionally transmitted according to an instruction of certain instruction information. Even if an error or the like occurs and cannot be decoded, the decoding process can be correctly continued using the instruction information transferred thereafter and the restoration information specified by the instruction information.

次に、本発明の第2実施形態について説明する。   Next, a second embodiment of the present invention will be described.

本第2実施形態に係る符号化装置の全体構成は図1の符号化装置と同一である。本第2実施形態においては、画像信号は、図13のように各フレーム(ピクチャまたはVOPとも呼ぶ)はマクロブロックと呼ばれる小領域(図中点線の領域)に分割されて符号化が行われる。さらに、画像信号を符号化した画像符号列に誤りが混入した時にそのフレーム内の個々の符号列でも同期が回復できるように、フレームを1ないしは複数マクロブロックからなるビデオパケット(図中実線の領域)と呼ばれる単位に区切って符号化が行われる。   The overall configuration of the encoding device according to the second embodiment is the same as the encoding device in FIG. In the second embodiment, the image signal is encoded by dividing each frame (also referred to as a picture or VOP) into small areas (dotted areas in the figure) called macroblocks as shown in FIG. Further, when an error is mixed in an image code sequence obtained by encoding an image signal, a frame is divided into a video packet composed of one or a plurality of macroblocks (a solid line area in FIG. ) Is encoded.

図14は、符号化装置から出力される画像符号列の1例を示したものである。図14(a)は1つのフレーム(VOP)全体の画像符号列である。VOPの先頭には一意復号可能な同期符号であるVOP start code(図中VSC)と、そのVOPに関するヘッダ情報を含むVOPヘッダ(図中VOP header)がつけられる。   FIG. 14 shows an example of an image code string output from the encoding device. FIG. 14A shows an image code string of one entire frame (VOP). At the head of the VOP, a VOP start code (VSC in the figure), which is a synchronous code that can be uniquely decoded, and a VOP header (VOP header in the figure) including header information about the VOP are attached.

VOPの符号列はさらに、マクロブロックデータ(図中MBdata)を含むビデオパケット毎の符号列に区切られている。各ビデオパケットの画像符号列の先頭にはresync marker(図中RM)と呼ばれる一意に復号可能な同期符号と、それに続くビデオパケットヘッダ(図中Video packet header)が付けられる。ただし、VOPの最初のビデオパケットにはVOP start codeとVOP headerが付いているので、ここにはresync marker(RM)とビデオパケットヘッダ(Video packet header)は付けない。   The VOP code string is further divided into code strings for each video packet including macroblock data (MBdata in the figure). At the head of the image code string of each video packet, a uniquely decodable synchronization code called a resync marker (RM in the figure) and a video packet header (Video packet header in the figure) following the code are attached. However, since a VOP start code and a VOP header are attached to the first video packet of the VOP, a resync marker (RM) and a video packet header (Video packet header) are not added here.

図14(b)は、VOPヘッダに含まれるヘッダ情報の例を示したものである。図中、modulo time base(MTB)とVOP time increment(VTI)は、そのVOPの時刻を示す情報である。この時刻情報は、そのVOPのフレームを復号及び表示するタイミングを規定するために使用される。   FIG. 14B shows an example of header information included in the VOP header. In the figure, modulo time base (MTB) and VOP time increment (VTI) are information indicating the time of the VOP. This time information is used to define the timing for decoding and displaying the frame of the VOP.

ここで、図15を用いて、VOPの時刻と、modulo time base(MTB)、VOP time increment(VTI)との関係を説明する。VOP time incrementは時刻をミリ秒精度で表す情報であり、VOPの時刻を1000ミリ秒(1秒)で剰余を取った値が入る。modulo time baseは時刻を秒精度で表す情報であり、直前に符号化したVOPと同じ秒ならば“0”になり、異なる秒ならばその差分値になる。   Here, the relationship between the time of the VOP, the modulo time base (MTB), and the VOP time increment (VTI) will be described with reference to FIG. The VOP time increment is information indicating the time with millisecond precision, and contains a value obtained by taking the remainder of the VOP time in 1000 milliseconds (1 second). The modulo time base is information indicating the time with a second precision. If the second is the same as the VOP encoded immediately before, the modulo time base is "0", and if the second is different, the difference is the difference value.

例えば、図15のようにVOPの時刻(ミリ秒)が0,33,700,1000,1300,1833,2067の場合、VOP time incrementはそれぞれ1000の剰余、すなわち、0,33,700,0,300,833,67である。また、modulo time baseが1となるのは、時刻を1000で割って小数点以下を切り捨てた値(図の例では0,0,0,1,1,1,2となる)が、直前のVOPと異なる場合、すなわち、時刻=0,1000,2067に相当するVOPで“1”になり、それ以外のVOPでは“0”になる。また、modulo time baseは可変長符号を用いた符号化を行ってもよい。例えばmodulo time baseが0,1,2…のときに、可変長符号をそれぞれ“1”,“01”,“001”…のように対応づけて用いることも可能である。   For example, as shown in FIG. 15, when the time (millisecond) of the VOP is 0, 33, 700, 1000, 1300, 1833, 2067, the VOP time increment is a remainder of 1000, that is, 0, 33, 700, 0, 300, 833, 67. Further, the reason that the modulo time base is 1 is that the value obtained by dividing the time by 1000 and rounding down the decimal point (in the example of the figure, 0, 0, 0, 1, 1, 1, 2) is the value of the immediately preceding VOP. In other words, it becomes “1” in the VOP corresponding to time = 0, 1000, 2067, and becomes “0” in other VOPs. In the modulo time base, encoding using a variable length code may be performed. For example, when the modulo time base is 0, 1, 2,..., The variable length codes can be used in association with “1,” “01,” “001,” respectively.

また、図14(b)のVOP予測モード(図中VPT)はそのVOP全体の予測符号化モード(I,B,P)を示す情報である。VOP量子化パラメータ(図中PQ)はそのVOPの符号化に用いられた量子化ステップ幅を示す情報である。ただし、VOPを複数のビデオパケットに分割して符号化する場合は、ビデオパケットごとに量子化ステップ幅を変更可能であるため、最初のビデオパケットの量子化ステップ幅を示す情報としてもよい。   The VOP prediction mode (VPT in the figure) of FIG. 14B is information indicating the prediction encoding mode (I, B, P) of the entire VOP. The VOP quantization parameter (PQ in the figure) is information indicating the quantization step width used for encoding the VOP. However, when a VOP is divided into a plurality of video packets and encoded, the quantization step width can be changed for each video packet, and thus the information may be information indicating the quantization step width of the first video packet.

図14(c)および(d)は、ビデオパケットに付加されるヘッダ情報であるビデオパケットヘッダ(Video packet header)に含まれる情報の例を示したものである。マクロブロック番号(図中MBA)はそのビデオパケットの最初のマクロブロックの番号を示す情報である。ビデオパケット量子化パラメータ(図中SQ)はそのビデオパケットの量子化ステップ幅を示す情報である。ヘッダ拡張コード(図中HEC)は、ビデオパケットヘッダに二重化(多重化)する重要情報が追加されているかどうかを示すフラグである。HECが“0”のときは図14(c)のように重要情報は追加されておらず、またHECが“1”のときは図14(d)のように重要情報が追加されている。図14(d)の例では、画像フレームの時刻情報を復元できるようにするために、重要情報として、VOPの時刻を表すmodulo time base(図中MTB)とVOP time increment(図中VTI)がそのまま付加されている。   FIGS. 14C and 14D show examples of information included in a video packet header (Video packet header), which is header information added to a video packet. The macroblock number (MBA in the figure) is information indicating the number of the first macroblock of the video packet. The video packet quantization parameter (SQ in the figure) is information indicating the quantization step width of the video packet. The header extension code (HEC in the figure) is a flag indicating whether important information to be duplicated (multiplexed) is added to the video packet header. When HEC is “0”, no important information is added as shown in FIG. 14C, and when HEC is “1”, important information is added as shown in FIG. 14D. In the example of FIG. 14D, in order to be able to restore the time information of the image frame, as important information, a modulo time base (MTB in the figure) indicating the time of the VOP and a VOP time increment (VTI in the figure) are included. It is added as it is.

図16は図14の画像符号化列に対応した復号化装置の構成を示すブロック図である。ここでは、図2の復号化装置と相対応する部分に同一の符号を付してその差異のみを説明する。図16の復号化装置においては、図2の復号化装置の構成に加え、VOPヘッダ復号回路601、ビデオパケットヘッダ復号回路602、時刻復号回路603、一時記憶回路621が設けられている。   FIG. 16 is a block diagram showing a configuration of a decoding device corresponding to the image coded sequence of FIG. Here, portions corresponding to those of the decoding apparatus of FIG. 2 are denoted by the same reference numerals, and only the differences will be described. The decoding device in FIG. 16 includes a VOP header decoding circuit 601, a video packet header decoding circuit 602, a time decoding circuit 603, and a temporary storage circuit 621 in addition to the configuration of the decoding device in FIG.

同期検出回路122でVOP start codeが検出されると、復号回路124にこれが検出されたことを示す信号が通知される。復号回路124はその通知に応答して、VOP start codeに引き続くVOPヘッダが含まれる符号列、すなわち最初のビデオパケットをVOPヘッダ復号回路601に送り、そこでVOPヘッダの復号が実行させる。VOPヘッダ復号回路601では、VOPヘッダに含まれる時刻、VOP符号化モード、VOP量子化パラメータの復号が行われる。このうち、時刻については、modulo time baseおよびVOP time incrementが時刻復号回路603に送られ、そこで時刻の復号が行われる。   When the VOP start code is detected by the synchronization detection circuit 122, a signal indicating that the VOP start code is detected is notified to the decoding circuit 124. In response to the notification, the decoding circuit 124 sends a code string including the VOP header subsequent to the VOP start code, that is, the first video packet to the VOP header decoding circuit 601 where the VOP header is decoded. The VOP header decoding circuit 601 decodes the time, VOP encoding mode, and VOP quantization parameter included in the VOP header. Among them, regarding the time, the modulo time base and the VOP time increment are sent to the time decoding circuit 603, where the time is decoded.

時刻復号回路603では、まず、送られてきたmodulo time baseおよびVOP time incrementが復号されるとともに、誤りがないかのチェックが行なわれる。誤りのチェックは、modulo time baseおよびVOP time incrementから復号された時刻が、実際に存在しうる時刻であるかを検証することによって行う。例えば、符号化した画像信号がNTSC信号の場合にはフレームレートは30Hzであるため、時刻は1/30秒(=33ミリ秒)の倍数の値を取るはずである。したがって、復号された時刻が1/30秒の倍数でなかった場合にはmodulo time baseおよびVOP time incrementに伝送路誤りがあると判定する。同時に、PAL信号の場合には1/25秒の倍数になっているかでチェック可能である。   The time decoding circuit 603 decodes the transmitted modulo time base and VOP time increment, and checks whether there is any error. The error is checked by verifying that the time decoded from the modulo time base and the VOP time increment is a time that can actually exist. For example, when the encoded image signal is an NTSC signal, the frame rate is 30 Hz, so that the time should take a multiple of 1/30 seconds (= 33 milliseconds). Therefore, if the decoding time is not a multiple of 1/30 second, it is determined that there is a transmission path error in the modulo time base and the VOP time increment. At the same time, in the case of a PAL signal, it is possible to check whether the signal is a multiple of 1/25 seconds.

このようなエラーチェックのための基準値は、画像信号の種類(PAL,NTSC,CIF等)ごとに符号化装置、復号化装置であらかじめ定められた値を用意しておいてもよいし、(図示しない)システム情報の符号列にこれを示す情報を入れて示してもよいし、画像符号列の一部に入れてもよい。   As the reference value for such an error check, a value predetermined by the encoding device and the decoding device may be prepared for each type of image signal (PAL, NTSC, CIF, etc.), or ( Information indicating this may be put in a code string of system information (not shown), or may be put in a part of an image code string.

時刻復号回路603での時刻の復号および誤りチェックが終わると、VOPヘッダ復号回路601には、誤りがあると判定されたときはそれを示す信号が、誤りがないと判定されたときは復号された時刻を示す信号が送られる。VOPヘッダ復号化回路601は、時刻に誤りがなかった場合には、一時記憶回路621にこの時刻を示す情報を格納した後、その情報と他の情報とをあわせて復号回路124に送る。一方、時刻に誤りがあったときには、そのVOPヘッダが含まれる最初のビデオパケットの符号列は破棄され、次のビデオパケットの復号が開始される。   When the decoding of the time and the error check in the time decoding circuit 603 are completed, the VOP header decoding circuit 601 decodes the signal indicating that there is an error, and decodes the signal indicating that there is no error. A signal is sent indicating the time of the event. When there is no error in the time, the VOP header decoding circuit 601 stores information indicating the time in the temporary storage circuit 621, and sends the information together with other information to the decoding circuit 124. On the other hand, when there is an error in the time, the code string of the first video packet including the VOP header is discarded, and decoding of the next video packet is started.

同期検出回路122でresync marker(RM)が検出されると復号回路124にそれらが検出されたことを示す信号が伝えられる。復号回路124はそれに応じて、resync marker(RM)に引き続くビデオパケットヘッダが含まれる符号列、つまり2番目以降のあるビデオパケット、をビデオパケットヘッダ復号回路601に送り、そこでビデオパケットヘッダの復号を実行させる。ビデオパケットヘッダ復号回路602では、ビデオパケットヘッダに含まれるマクロブロック番号(MBA)、ビデオパケット量子化パラメータ(SQ)、ヘッダ拡張コード(HEC)の復号が行われる。   When the resync marker (RM) is detected by the synchronization detection circuit 122, a signal indicating that they are detected is transmitted to the decoding circuit 124. In response, the decoding circuit 124 sends a code string including a video packet header following the resync marker (RM), that is, a certain second or subsequent video packet, to the video packet header decoding circuit 601, where decoding of the video packet header is performed. Let it run. The video packet header decoding circuit 602 decodes a macro block number (MBA), a video packet quantization parameter (SQ), and a header extension code (HEC) included in the video packet header.

もし、ヘッダ拡張コード(HEC)=“1”だった場合には、それに引き続くmodulo time baseおよびVOP time incrementを時刻復号回路603に送り、ここで時刻の復号を行う。時刻復号回路603では、先のVOPヘッダの復号の場合と同様に、送られてきたmodulo time baseおよびVOP time incrementを復号するとともに、誤りがないかチェックを行う。時刻復号回路603での時刻の復号および誤りチェックが終わると、ビデオパケットヘッダ復号回路602には、誤りがあると判定されたときはそれを示す信号が、誤りがないと判定されたときは復号された時刻を示す信号が送られる。ビデオヘッダ復号化回路602では、時刻に誤りがあったときには、そのVOPヘッダが含まれるビデオパケットの符号列は破棄し、次のビデオパケットの復号を行う。   If the header extension code (HEC) is “1”, the subsequent modulo time base and VOP time increment are sent to the time decoding circuit 603, where the time is decoded. The time decoding circuit 603 decodes the transmitted modulo time base and VOP time increment and checks whether there is any error, as in the case of decoding the VOP header. When the time decoding and error checking by the time decoding circuit 603 are completed, the video packet header decoding circuit 602 outputs a signal indicating that there is an error, and decodes the signal if it is determined that there is no error. A signal is sent indicating the time at which it was performed. When there is an error in the time, the video header decoding circuit 602 discards the code string of the video packet including the VOP header and decodes the next video packet.

一方、時刻に誤りがなかった場合には、第1の一時記憶回路621に格納されている時刻、すなわち直前に復号されたビデオパケットで得た時刻との比較を行い、現在のビデオパケットが含まれるVOPの判定を行う。もし同一の時刻であれば、そのビデオパケットは直前に復号されたビデオパケットと同一のVOPに含まれていると判定し、復号回路124に復号されたビデオパケットヘッダの情報を示す信号を送って復号を行う。一方、復号された時刻と一時記憶回路621に格納されている時刻が異なる場合には、これから復号しようとするビデオパケットは、直前に復号されたビデオパケットとは異なるVOPに含まれていると判定する。この場合は、一時記憶回路621に復号された時刻を記録するとともに、復号回路124に対して、直前のビデオパケットとこのビデオパケットとの間にVOP領域があり、このビデオパケットから新しいVOPとして復号することを示すVOP分割信号、復号された時刻、および、復号されたビデオパケットヘッダの情報を示す信号を送る。復号回路124ではVOP分割信号を受け、直前に復号されたビデオパケットでVOPが終了したとみなしてVOP復号終了処理を行い、これから復号しようとするビデオパケットが次のVOPの最初のビデオパケットとみなしてVOP復号開始処理を行い、引き続きビデオパケットの復号を行う。   On the other hand, if there is no error in the time, the time is compared with the time stored in the first temporary storage circuit 621, that is, the time obtained in the video packet decoded immediately before, and the current video packet is included. Is determined. If the time is the same, it is determined that the video packet is included in the same VOP as the video packet decoded immediately before, and a signal indicating the information of the decoded video packet header is sent to the decoding circuit 124. Perform decryption. On the other hand, when the decoded time is different from the time stored in the temporary storage circuit 621, it is determined that the video packet to be decoded is included in a different VOP from the video packet decoded immediately before. I do. In this case, the decoding time is recorded in the temporary storage circuit 621, and the decoding circuit 124 has a VOP area between the immediately preceding video packet and this video packet, and decodes this video packet as a new VOP. Then, a VOP division signal indicating that the video packet is to be transmitted, a decoding time, and a signal indicating information of the decoded video packet header are transmitted. The decoding circuit 124 receives the VOP division signal, performs VOP decoding end processing on the assumption that the VOP has ended with the video packet decoded immediately before, and regards the video packet to be decoded from now on as the first video packet of the next VOP. To perform VOP decoding start processing, and subsequently decode video packets.

このような処理を行うことにより、たとえVOP start codeおよびVOPヘッダが誤りによって失われてしまっても、ビデオパケットヘッダの時刻情報によってVOP境界を判定できるとともに、正しい復号時刻を得ることができるため、復号画像の品質が向上する。   By performing such processing, even if the VOP start code and the VOP header are lost due to an error, the VOP boundary can be determined based on the time information of the video packet header, and the correct decoding time can be obtained. The quality of the decoded image is improved.

図17は、VOPヘッダおよびビデオパケットヘッダの第2の例を示したものである。図14の例と比較すると、ヘッダに含まれる情報に誤りが入ったかどうかをチェックするCRC検査ビットが付加されている点が異なる。   FIG. 17 shows a second example of the VOP header and the video packet header. The difference from the example of FIG. 14 is that a CRC check bit for checking whether or not an error is included in the information included in the header is added.

図17(a)はVOPヘッダである。図中、CW1はVOPヘッダに含まれるmodulo time base、VOP time increment、VOP符号化モード、VOP量子化パラメータに対するCRCチェックを行うための検査ビットである。   FIG. 17A shows a VOP header. In the drawing, CW1 is a check bit for performing a CRC check on a modulo time base, a VOP time increment, a VOP encoding mode, and a VOP quantization parameter included in the VOP header.

図17(b)および(c)はビデオパケットヘッダである。図中、CW2は、マクロブロック番号、ビデオパケット量子化パラメータ、および、ヘッダ拡張コードに対するCRCチェックを行うための検査ビットである。また、CW3はHEC=“1”、すなわち、重要情報が付加されたビデオパケットヘッダのみに存在し、重要情報、すなわち、modulo time baseおよびVOP time incrementに対するCRCチェックを行うための検査ビットである。   FIGS. 17B and 17C show a video packet header. In the figure, CW2 is a check bit for performing a CRC check on a macroblock number, a video packet quantization parameter, and a header extension code. Also, CW3 is HEC = "1", that is, a check bit that exists only in the video packet header to which important information has been added, and that performs a CRC check on important information, that is, modulo time base and VOP time increment.

図18は図17の画像符号列に対応する復号化装置の構成である。図16の復号化装置に相対する部分に同一の符号を付してその違いのみを説明すると、CRC判定回路605が加わっている点が異なる。   FIG. 18 shows the configuration of a decoding device corresponding to the image code string in FIG. The same reference numerals are given to portions corresponding to the decoding device in FIG. 16 and only the difference will be described. The difference is that a CRC determination circuit 605 is added.

VOPヘッダ復号回路601では、VOPヘッダに含まれる情報の復号を行うと共に、CRC検査ビットCW1を用いてVOPヘッダのCRCチェックを行う。もし、CRCチェックで誤りありと判定された場合は、そのVOPヘッダおよびそれが含まれるビデオパケットを破棄して、次のビデオパケットの復号に移る。   The VOP header decoding circuit 601 decodes information included in the VOP header and performs a CRC check of the VOP header using the CRC check bit CW1. If it is determined by the CRC check that there is an error, the VOP header and the video packet including the VOP header are discarded, and decoding of the next video packet is started.

ビデオパケットヘッダ復号回路602では、ビデオパケットヘッダに含まれる情報の復号を行うと共に、CRC検査ビットCW2を用いてビデオパケットヘッダのCRCチェックを行う。もし、CRCチェックで誤りありと判定された場合は、そのビデオパケットヘッダおよびそれが含まれるビデオパケットを破棄して、次のビデオパケットの復号に移る。もし、誤りなしと判定された場合には、復号されたヘッダ拡張コードHECが“1”であった場合には、それに引き続く追加された重要情報(MTBおよびVTI)を復号する。そしてCRC検査ビットCW3を用いて重要情報に誤りが入っているか否かがチェックされる。もし、誤りがなければ前述の図16の復号化装置の場合と同様に、VOPヘッダや他のビデオパケットヘッダ中の時刻情報との比較、VOP分割処理等を行う。   The video packet header decoding circuit 602 decodes information included in the video packet header and performs a CRC check on the video packet header using the CRC check bit CW2. If it is determined by the CRC check that there is an error, the video packet header and the video packet including the header are discarded, and the process proceeds to the decoding of the next video packet. If it is determined that there is no error, and if the decoded header extension code HEC is “1”, the subsequent added important information (MTB and VTI) is decoded. Then, it is checked whether or not there is an error in the important information by using the CRC check bit CW3. If there is no error, comparison with the time information in the VOP header and other video packet headers, VOP division processing, etc. are performed as in the case of the decoding apparatus in FIG.

以上説明したように、第2実施形態においては、画像フレームの時刻を表す情報をそのフレーム内のビデオパケットに付加しているため、VOPヘッダに含まれる時刻情報が誤りによって失われてもビデオパケットヘッダ中の重要情報により正しい時刻を復号できるため、復号装置において正しい時刻に画像を再生表示することができる。   As described above, in the second embodiment, since information indicating the time of an image frame is added to a video packet in the frame, the video packet is lost even if the time information included in the VOP header is lost due to an error. Since the correct time can be decoded based on the important information in the header, the decoding device can reproduce and display the image at the correct time.

また、ビデオパケットヘッダの時刻情報と、VOPヘッダあるいは他のビデオパケットヘッダの時刻情報を比較してVOP境界判定を行うことにより、VOP start codeが誤りによって失われてもVOPの境界を正しく復号でき、復号画像の品質が向上する。   In addition, by comparing the time information of the video packet header with the time information of the VOP header or another video packet header and performing the VOP boundary determination, the VOP boundary can be correctly decoded even if the VOP start code is lost due to an error. Thus, the quality of the decoded image is improved.

上述の例において、重要情報が含まれるかどうかは各ビデオパケット毎にヘッダ拡張コード(HEC)によって示される。例えば、すべてのビデオパケットヘッダでHEC=“1”として重要情報を入れるようにしてもよいし、一部のビデオパケットのみHEC=“1”としてもよい。伝送路誤りの状態に応じて重要情報を入れるビデオパケットの数を制御することにより、少ないオーバーヘッドで効率的に重要情報を保護することができる。   In the above example, whether or not important information is included is indicated by a header extension code (HEC) for each video packet. For example, HEC = "1" may be set in all video packet headers to put important information, or HEC = "1" may be set only in some video packets. By controlling the number of video packets containing important information according to the state of the transmission path error, important information can be efficiently protected with a small overhead.

例えば、上述の例のようにmodulo time base(MTB)とVOP time increment(VTI)を用いて復号時刻を表す場合には、MTB=0の場合には時刻情報が正しく復号できなくても復号時刻の誤差は1秒以下だが、MTBが0以外のVOPでMTBが正しく復号されないとそれ以降のVOPで復号時刻に秒単位の大きな誤差が生じてしまう。このため、MTBが0のVOPでは全てのビデオパケットでHEC=“0”とするか少数のビデオパケットでのみHEC=“1”とし、MTBが1以外のVOPでは全てないしは多くのビデオパケットでHEC=“1”としてMTBが正しく復号されるようにしても良い。   For example, when the decoding time is represented by using the modulo time base (MTB) and the VOP time increment (VTI) as in the above-described example, when the time information cannot be correctly decoded when MTB = 0, the decoding time Is less than 1 second, but if the MTB is not correctly decoded in a VOP whose MTB is other than 0, a large error in the decoding time will occur in the decoding time in subsequent VOPs. For this reason, in a VOP having an MTB of 0, HEC = "0" in all video packets or HEC = "1" in only a small number of video packets, and in a VOP having an MTB other than 1, HEC is used in all or many video packets. = “1” so that the MTB is correctly decoded.

第2の実施形態では、二重化する重要情報として、時刻を表す情報(modulo time base,VOP time increment)を用いる例を示したが、この情報以外にも、例えば、符号化モードを表す情報、量子化パラメータを表す情報、動き補償に関する情報、動きベクトル情報等を合わせて二重化してもよい。   In the second embodiment, an example in which information indicating a time (modulo time base, VOP time increment) is used as important information to be duplicated is described. However, other than this information, for example, information indicating an encoding mode, quantum It may be duplicated together with information representing the conversion parameter, information on motion compensation, motion vector information, and the like.

複数のVOP予測モード(例えば、フレーム内予測VOP(I−VOP)、前方予測VOP(P−VOP)、前方後方予測VOP(B−VOP)等)をVOP毎に切り替えて符号化する場合には、このVOP予測モードに関する情報が正しく復号できないとそのVOPを復号することができない。VOP予測モードもビデオパケットヘッダに二重化情報として含めることにより、VOPへッダのVOP予測モードが誤りによって失われても、ビデオパケットヘッダ中の二重化情報に含まれているVOP予測モード情報をもとにそのVOPを復号することが可能である。以下、そのような例について説明する。   When encoding by switching a plurality of VOP prediction modes (for example, intra-frame prediction VOP (I-VOP), forward prediction VOP (P-VOP), forward-backward prediction VOP (B-VOP)), for each VOP If the information on the VOP prediction mode cannot be correctly decoded, the VOP cannot be decoded. By including the VOP prediction mode in the video packet header as duplicated information, even if the VOP prediction mode of the VOP header is lost due to an error, the VOP prediction mode information included in the duplicated information in the video packet header is used. It is possible to decode the VOP. Hereinafter, such an example will be described.

図27は、第2の実施形態におけるビデオパケットヘッダの第3の例を示したものである。1つのフレーム(VOP)全体の画像符号列およびVOPへッダはそれぞれ図14(a)および(b)と同一である。図27(a)および(b)はそれぞれ、へッダ拡張コードHEC=“0”およびHEC=“1”の時のビデオパケットヘッダである。図14のビデオパケットヘッダに比べ、HEC=“1”の時に、時刻を表す情報(図中MTB,VTI)に加え、VOP予測モード(図中VPT)が含まれている点が異なる。   FIG. 27 illustrates a third example of the video packet header according to the second embodiment. The image code string and VOP header of one entire frame (VOP) are the same as those in FIGS. 14A and 14B, respectively. FIGS. 27A and 27B show video packet headers when the header extension codes HEC = "0" and HEC = "1", respectively. The difference from the video packet header of FIG. 14 is that when HEC = "1", a VOP prediction mode (VPT in the figure) is included in addition to information (MTB, VTI in the figure) indicating the time.

図27の画像符号列に対応する復号化装置はその全体構成は図16と同じである。ただし、ビデオパケットヘッダ復号回路602の動作が異なる。また、一時記憶回路621に時刻情報(modulo time base,VOP time increment)だけでなく、VOP予測モード情報(VPT)も記録する点が異なる。以下、この相違点を中心に復号化回路の動作を説明する。   The decoding device corresponding to the image code string in FIG. 27 has the same overall configuration as that in FIG. However, the operation of the video packet header decoding circuit 602 is different. Another difference is that not only time information (modulo time base, VOP time increment) but also VOP prediction mode information (VPT) is recorded in the temporary storage circuit 621. Hereinafter, the operation of the decoding circuit will be described focusing on this difference.

同期検出回路122でVOP start codeが検出されると復号回路124にこれが検出されたことを示す信号が伝えられる。復号回路124はそれに応じて、VOP start codeに引き続くVOPへッダが含まれる符号列をVOPヘッダ復号回路601に送り、VOPへッダの復号が行われる。VOPへッダ復号回路601では、VOPヘッダに含まれる時刻情報(MTB,VTI)、VOP符号化モード情報(VPT)、VOP量子化パラメータ(PQ)の復号が行われる。このうち、時刻については、modulo time base(MTB)およびVOP time increment(VTI)を時刻復号回路603に送り、ここで時刻の復号が行われる。   When the VOP start code is detected by the synchronization detection circuit 122, a signal indicating that the VOP start code is detected is transmitted to the decoding circuit 124. In response, the decoding circuit 124 sends a code string including a VOP header following the VOP start code to the VOP header decoding circuit 601, and the VOP header is decoded. The VOP header decoding circuit 601 decodes time information (MTB, VTI), VOP coding mode information (VPT), and VOP quantization parameter (PQ) included in the VOP header. Among them, as for the time, a modulo time base (MTB) and a VOP time increment (VTI) are sent to the time decoding circuit 603, where the time is decoded.

時刻復号回路603では、まず、送られてきたmodulo time baseおよびVOP time incrementを復号するとともに、誤りがないかチェックを行う。誤りのチェックは、modulo time baseおよびVOP time incrementから復号された時刻が、実際に存在しうる時刻であるかを検証することによって行う。例えば、符号化した画像信号がNTSC信号の場合にはフレームレートは30Hzであるため、時刻は1/30秒(=33ミリ秒)の倍数の値を取るはずである。したがって、復号された時刻が1/30秒の倍数でなかった場合にはmodulo time baseおよびVOP time incrementに伝送路誤りが有ると判定する。同様に、PAL信号の場合には1/25秒の倍数になっているかでチェック可能である。   The time decoding circuit 603 first decodes the sent modulo time base and VOP time increment, and checks whether there is any error. The error is checked by verifying that the time decoded from the modulo time base and the VOP time increment is a time that can actually exist. For example, when the encoded image signal is an NTSC signal, the frame rate is 30 Hz, so that the time should take a multiple of 1/30 seconds (= 33 milliseconds). Therefore, when the decoding time is not a multiple of 1/30 seconds, it is determined that there is a transmission path error in the modulo time base and the VOP time increment. Similarly, in the case of a PAL signal, it is possible to check whether it is a multiple of 1/25 seconds.

画像信号の種類(PAL,NTSC,CIF等)は符号化装置、復号化装置であらかじめ定められた値を用いてもよいし、(図示しない)システム情報の符号列にこれを示す情報を入れて示してもよいし、画像符号列の一部に人れていも良い。   As the type of the image signal (PAL, NTSC, CIF, etc.), a value predetermined by an encoding device and a decoding device may be used, or information indicating this may be put in a code string of system information (not shown). It may be shown or a part of the image code sequence may be present.

時刻復号回路603での時刻の復号および誤りチェックが終わると、VOPヘッダ復号回路601に、誤りが有ると判定されたときはそれを示す信号が、誤りが無いと判定されたときは復号された時刻を示す信号が送られれる。VOPヘッダ復号化回路601では、時刻に誤りがなかった場合には、さらにVOP予測モード情報(VPT)を復号する。もし、VOP予測モード情報にも誤りがなかった場合は、時刻情報とVOP予測モード情報を一時記憶回路621に格納し、他の情報とあわせて復号回路124に送る。一方、VOPヘッダに含まれる時刻情報やVOP予測モード情報に誤りがあったときには、そのVOPヘッダが含まれるビデオパケットの符号列は破棄し、次のビデオパケットの復号を行う。   When the decoding of the time and the error check in the time decoding circuit 603 are completed, the VOP header decoding circuit 601 decodes a signal indicating that there is an error and decodes a signal indicating that there is no error. A signal indicating the time is sent. If there is no error in the time, the VOP header decoding circuit 601 further decodes VOP prediction mode information (VPT). If there is no error in the VOP prediction mode information, the time information and the VOP prediction mode information are stored in the temporary storage circuit 621 and sent to the decoding circuit 124 together with other information. On the other hand, when there is an error in the time information or the VOP prediction mode information included in the VOP header, the code string of the video packet including the VOP header is discarded, and the next video packet is decoded.

同期検出回路122でresync markerが検出されると復号回路124にそれらが検出されたことを示す信号が伝えられる。復号回路124はそれに応じて、resync markerに引き続くビデオパケットヘッダが含まれる符号列をビデオパケットヘッダ復号回路601に送り、ビデオパケットヘッダの復号が行われる。ビデオパケットヘッダ復号回路601では、ビデオパケットヘッダに含まれるマクロブロック番号、ビデオパケット量子化パラメータ、へッダ拡張コードの復号を行う。   When the resync marker is detected by the synchronization detection circuit 122, a signal indicating that they are detected is transmitted to the decoding circuit 124. In response, the decoding circuit 124 sends a code string including a video packet header following the resync marker to the video packet header decoding circuit 601 to decode the video packet header. The video packet header decoding circuit 601 decodes a macroblock number, a video packet quantization parameter, and a header extension code included in the video packet header.

もし、へッダ拡張コードHEC=“1”だった場合には、それに引き続くmodulo time baseおよびVOP time incrementを時刻復号回路603に送り、ここで時刻の復号を行う。時刻復号回路603では、先のVOPヘッダの復号の場合と同様に、送られてきたmodulo time baseおよびVOP time incrementを復号するとともに、誤りがないかチェックを行う。時刻復号回路603での時刻の復号および誤りチェックが終わると、ピデオパケットヘッダ復号回路602に、誤りが有ると判定されたときはそれを示す信号が、誤りが無いと判定されたときは復号された時刻を示す信号が送られる。ビデオパケットヘッダ復号化回路602では、時刻に誤りがあったときには、そのビデオパケットヘッダが含まれるビデオパケットの符号列は破棄し、次のビデオパケットの復号を行う。   If the header extension code HEC = “1”, the subsequent modulo time base and VOP time increment are sent to the time decoding circuit 603, where the time is decoded. The time decoding circuit 603 decodes the transmitted modulo time base and VOP time increment and checks whether there is any error, as in the case of decoding the VOP header. When the decoding of the time and the error check in the time decoding circuit 603 are completed, a signal indicating that the video packet header decoding circuit 602 has an error is decoded when it is determined that there is no error. A signal is sent indicating the time of the event. When there is an error in the time, the video packet header decoding circuit 602 discards the code string of the video packet including the video packet header and decodes the next video packet.

一方、時刻に誤りがなかった場合には、さらに時刻情報に引き続くVOP予測モード情報の復号を行う。もし、VOP予測モード情報にも復号誤りが無かった場合には、復号された時刻情報と、第1の一時記憶回路621に格納されている時刻との比較を行い、そのビデオパケットが含まれるVOPの判定を行う。もし同一の時刻であれば、そのビデオパケットは直前に復号されたビデオパケットと同一のVOPに含まれていると判定し、復号回路124に復号されたビデオパケットヘッダの情報を示す信号を送って復号を行う。一方、復号された時刻と一時記憶回路621に格納されている時刻が異なる場合には、これから復号しようとするビデオパケットは、直前に復号されたビデオパケットとは異なるVOPに含まれていると判定する。この場合は、一時記憶回路621に復号された時刻情報およびVOP予測モード情報を記録するとともに、復号回路124に、このビデオパケットがVOPの最初であることを示すVOP分割信号、復号された時刻、および、復号されたビデオパケットヘッダの情報を示す信号を送る。復号回路124ではVOP分割信号を受け、直前に復号されたビデオパケットでVOPが終了したとみなしてVOP復号終了処理を行い、これから復号しようとするビデオパケットが次のVOPの最初のビデオパケットとみなしてVOP復号開始処理を行い、引き続きビデオパケットの復号を行う。   On the other hand, if there is no error in the time, the VOP prediction mode information subsequent to the time information is further decoded. If there is no decoding error in the VOP prediction mode information, the decoded time information is compared with the time stored in the first temporary storage circuit 621, and the VOP including the video packet is compared. Is determined. If the time is the same, it is determined that the video packet is included in the same VOP as the video packet decoded immediately before, and a signal indicating the information of the decoded video packet header is sent to the decoding circuit 124. Perform decryption. On the other hand, when the decoded time is different from the time stored in the temporary storage circuit 621, it is determined that the video packet to be decoded is included in a different VOP from the video packet decoded immediately before. I do. In this case, the decoded time information and the VOP prediction mode information are recorded in the temporary storage circuit 621, and the VOP division signal indicating that this video packet is the first of the VOP, the decoded time, Then, a signal indicating the information of the decoded video packet header is sent. The decoding circuit 124 receives the VOP division signal, performs VOP decoding end processing on the assumption that the VOP has ended with the video packet decoded immediately before, and regards the video packet to be decoded from now on as the first video packet of the next VOP. To perform VOP decoding start processing, and subsequently decode video packets.

なお、ビデオパケットヘッダに含まれているVOP予測モード情報と、一時記憶回路621に記録されているVOP予測モード情報が異なる場合には、そのビデオパケットはビデオパケットヘッダに含まれているVOP予測モードを用いて復号処理を行っても良い。これにより、VOPヘッダに含まれているVOP予測モード情報が正しく復号できなかった場合にもそのビデオパケットを復号することが可能である。   If the VOP prediction mode information included in the video packet header is different from the VOP prediction mode information recorded in the temporary storage circuit 621, the video packet is included in the VOP prediction mode included in the video packet header. May be used to perform the decoding process. Accordingly, even when the VOP prediction mode information included in the VOP header cannot be correctly decoded, the video packet can be decoded.

このような処理を行うことによりVOP start codeおよびVOPヘッダが誤りによって失われてしまってもビデオパケットヘッダの時刻情報およびVOP予測モード情報によってVOP境界とVOP予測モードを正しく識別できるため、復号画像の品質が向上する。   By performing such processing, even if the VOP start code and the VOP header are lost due to an error, the VOP boundary and the VOP prediction mode can be correctly identified by the time information and the VOP prediction mode information of the video packet header. Quality is improved.

なお、VOPへッダやビデオパケットヘッダを復号する際に、画像符号列中に(図示しない)誤り検査情報(CRC、スタッフィングビット等)がある場合や、伝送路/蓄積媒体からの符号列を受信する回路、あるいは、受信した符号列を画像符号列、音声符号列等に分離する逆多重化回路において符号列中に誤りがあることを判定する機能がある場合には、これらによって誤り判定された結果を用いて復号されたVOPヘッダやビデオパケットヘッダに誤りがあるかを判定するようにしても良い。もし、これによって復号された情報に誤りがあると判定された場合には、それらの情報は画像復号には用いないようにする。また、誤りがあると判定された情報が含まれるビデオパケットは復号せずに破棄するようにしても良い。   When decoding a VOP header or a video packet header, if there is error check information (CRC, stuffing bit, etc.) in the image code string (not shown), or a code string from the transmission path / storage medium, If the receiving circuit or the demultiplexing circuit that separates the received code string into an image code string and a sound code string has a function of determining that there is an error in the code string, the error is determined by these. It may be determined whether there is an error in the decoded VOP header or video packet header using the result. If it is determined that there is an error in the decoded information, the information is not used for image decoding. Also, a video packet including information determined to have an error may be discarded without decoding.

図28は、第2の実施形態におけるビデオパケットヘッダの第4の例を示したものである。1つのフレーム(VOP)全体の画像符号列およびVOPヘッダはそれぞれ図14(a)および図17(a)と同一である。図28(a)および(b)はそれぞれ、HEC=“0”およびHEC=“1”の時のビデオパケットヘッダである。図17(b),(c)のビデオパケットヘッダに比べ、HEC=“1”の時に、時刻を表す情報(図中MTB,VTI)に加え、VOP予測モード(図中VPT)が含まれている点が異なる。   FIG. 28 shows a fourth example of the video packet header according to the second embodiment. The image code string and the VOP header of one entire frame (VOP) are the same as those in FIGS. 14A and 17A, respectively. FIGS. 28A and 28B show video packet headers when HEC = "0" and HEC = "1", respectively. Compared with the video packet headers of FIGS. 17B and 17C, when HEC = "1", a VOP prediction mode (VPT in the figure) is included in addition to the information (MTB and VTI in the figure) indicating the time. Are different.

図28の画像符号列に対応する復号化装置はその全体構成は図18と同じである。ただし、ビデオパケットヘッダ復号回路602の動作が異なる。また、一時記憶回路621に時刻情報(modulo time base,VOP time increment)だけでなく、VOP予測モード情報(VPT)も記録する点が異なる。以下、この相違点を中心に復号化回路の動作を説明する。   The decoding device corresponding to the image code string in FIG. 28 has the same overall configuration as that in FIG. However, the operation of the video packet header decoding circuit 602 is different. Another difference is that not only time information (modulo time base, VOP time increment) but also VOP prediction mode information (VPT) is recorded in the temporary storage circuit 621. Hereinafter, the operation of the decoding circuit will be described focusing on this difference.

VOPヘッダ復号回路601では、VOPへッダに含まれる情報の復号を行うと共に、CRC検査ビットCW1を用いてVOPヘッダのCRCチェックを行う。もし、CRCチェックで誤りありと判定された場合は、そのVOPヘッダおよびそれが含まれるビデオパケットを破棄して、次のビデオパケットの復号に移る。   The VOP header decoding circuit 601 decodes information included in the VOP header and performs a CRC check of the VOP header using the CRC check bit CW1. If it is determined by the CRC check that there is an error, the VOP header and the video packet including the VOP header are discarded, and decoding of the next video packet is started.

ビデオパケットヘッダ復号回路602では、ビデオパケットヘッダに含まれる情報の復号を行うと共に、CRC検査ビットCW2を用いてビデオパケットヘッダのCRCチェックを行う。もし、CRCチェックで誤りありと判定された場合は、そのビデオパケットヘッダおよびそれが含まれるビデオパケットを破棄して、次のビデオパケットの復号に移る。もし、誤り無しと判定された場合には、復号されたヘッダ拡張コードHECが1であった場合には、それに引き続く二重化された重要情報(図中MTB,VTIおよびVPT)を復号する。そして、CRC検査ビットCW3を用いて二重化重要情報に誤りが入っているかチェックする。もし、誤りがなければ前述の図16の復号化装置と同様に、VOPへッダや他のビデオパケットヘッダ中の時刻情報との比較、VOP分割処理等を行う。   The video packet header decoding circuit 602 decodes information included in the video packet header and performs a CRC check on the video packet header using the CRC check bit CW2. If it is determined by the CRC check that there is an error, the video packet header and the video packet including the header are discarded, and the process proceeds to the decoding of the next video packet. If it is determined that there is no error, and if the decoded header extension code HEC is 1, the subsequent duplicated important information (MTB, VTI and VPT in the figure) is decoded. Then, using the CRC check bit CW3, it is checked whether the duplicated important information contains an error. If there is no error, comparison with the VOP header or time information in other video packet headers, VOP division processing, etc. are performed in the same manner as in the decoding apparatus of FIG.

以上説明したように、時刻を表す情報を重要情報に含めているため、VOPヘッダに含まれる時刻情報が誤りによって失われてもビデオパケットヘッダ中の重要情報により正しい時刻を復号できるため、復号装置において正しい時刻に画像を再生表示することができる。また、ビデオパケットヘッダの時刻情報と、VOPヘッダあるいは他のビデオパケットヘッダの時刻情報を比較してVOP境界判定を行うことにより、VOP start codeが誤りによって失われてもVOPの境界を正しく復号でき、復号画像の品質が向上する。   As described above, since the information representing the time is included in the important information, the correct time can be decoded by the important information in the video packet header even if the time information included in the VOP header is lost due to an error. Can reproduce and display an image at a correct time. In addition, by comparing the time information of the video packet header with the time information of the VOP header or another video packet header and performing the VOP boundary determination, the VOP boundary can be correctly decoded even if the VOP start code is lost due to an error. Thus, the quality of the decoded image is improved.

また、VOP予測モードもビデオパケットヘッダに二重化情報として含めることにより、VOPへッダのVOP予測モードが誤りによって失われても、ビデオパケットヘッダ中の二重化情報に含まれているVOP予測モード情報をもとにそのVOPを復号することが可能である。   Also, by including the VOP prediction mode in the video packet header as duplicated information, even if the VOP prediction mode of the VOP header is lost due to an error, the VOP prediction mode information included in the duplicated information in the video packet header is retained. It is possible to decode the VOP based on it.

また、第2の実施形態において、VOPヘッダ、ビデオパケットヘッダに同期符号(Picture start code,VOP start code,Resync marker等)と同一のパターンが生じないようにマーカービットと呼ばれるビットを付加してもよい。   In the second embodiment, a bit called a marker bit is added to the VOP header and the video packet header so that the same pattern as a synchronization code (Picture start code, VOP start code, Resync marker, etc.) is not generated. Good.

図31は図14の符号列にマーカービットを付加した例である。図31中、VOP time increment(VTI)の後ろにある“marker”がマーカービットであり、予め定められたビット値(例えば“1”)を持つ。   FIG. 31 shows an example in which marker bits are added to the code string in FIG. In FIG. 31, “marker” after VOP time increment (VTI) is a marker bit, and has a predetermined bit value (for example, “1”).

図32は、マーカービットのないビデオパケットヘッダとマーカービットのあるビデオパケットヘッダを比較して示したものである。図32(a)のように、同期符号の一つであるresync markerを“00000000000000001”というビットパターンを持つ17ビットの符号語とする。また、VOP time increment(VTI)は10ビットの任意の値を持つ符号語であり、MTBは最後のビットが0の可変長符号である。   FIG. 32 shows a comparison between a video packet header without marker bits and a video packet header with marker bits. As shown in FIG. 32A, the resync marker, which is one of the synchronization codes, is a 17-bit code word having a bit pattern of “000000000000000001”. VOP time increment (VTI) is a code word having an arbitrary value of 10 bits, and MTB is a variable length code in which the last bit is 0.

図32(b)のようにマーカービットがない場合にはVTIが0の連続するパターンになった場合にはresync markerと同一のビットパターンが生じてしまう。図32(b)の例では、MTBの“0”とVTIの“0000000000”とそれに続く“000001”というビット列でresync markerと同一のパターンが生じてしまっている。   As shown in FIG. 32B, when there is no marker bit, when the VTI is a continuous pattern of 0, the same bit pattern as that of the resync marker occurs. In the example shown in FIG. 32B, the same pattern as the resync marker has been generated in the bit string of “0” of the MTB, “000000000000” of the VTI, and “000001” following the bit string.

これに対し図32(c)のようにVTIの後ろにマーカービット“1”を付加することにより、ビデオパケットヘッダ中の連続する0ビットの数が最大11ビット(MTBの最後の1ビットの0とVTIの“0000000000”)に抑えられるため、resync markerと同一のビットパターンを生じることはない。   On the other hand, by adding a marker bit “1” after the VTI as shown in FIG. 32 (c), the number of consecutive 0 bits in the video packet header can be up to 11 bits (0 in the last 1 bit of the MTB). And the VTI “000000000000”), the same bit pattern as that of the resync marker is not generated.

なお、マーカービットは予め定められたビット値(図32の例では“1”)を持つため、復号化装置においてマーカービットがこの予め定められた値かどうかを判定することにより、VOPヘッダ、ビデオパケットヘッダに伝送路誤りがあるかどうかを判定するようにしてもよい。   Since the marker bit has a predetermined bit value (“1” in the example of FIG. 32), the decoding device determines whether the marker bit has the predetermined value, thereby determining whether the VOP header, the video It may be determined whether there is a transmission path error in the packet header.

第2の実施形態で示した図17、図27、図28等の他の符号列にも同様にマーカービットを付加して用いることができる。   17, 27, 28, etc. shown in the second embodiment can be used by adding marker bits.

また、このような符号列の構造はスライスレイヤを用いた場合にも適用できる。図33は第1の実施形態におけるスライス構造を用いた符号列の別の例を示したものである。   Further, such a structure of the code string can be applied to a case where a slice layer is used. FIG. 33 shows another example of a code string using the slice structure in the first embodiment.

図33中、SSCはスライス同期符号、EPBは同期符号(例えばSSC)以外の部分が同期符号と同一のビットパターンにならないように付加されるビット値“1”を持つビット、MBAはそのスライスの最初のマクロブロックの番号を示す情報、SQUATNTはそのスライスで用いられる量子化パラメータ、GFIDはピクチャヘッダに含まれる情報またはその一部を示すための情報である。また、同期符号SSCを符号列中のバイト位置にそろえる場合にはスタッフィングビットSSTUFがSSCの前に付加される。Macroblock Dataは各マクロブロックの情報である。   In FIG. 33, SSC is a slice synchronization code, EPB is a bit having a bit value “1” added so that a portion other than a synchronization code (for example, SSC) does not have the same bit pattern as the synchronization code, and MBA is a slice synchronization code. Information indicating the number of the first macroblock, SQUANTT is a quantization parameter used in the slice, and GFID is information included in the picture header or information indicating a part thereof. When the synchronization code SSC is aligned with the byte position in the code string, a stuffing bit SSTUF is added before the SSC. Macroblock Data is information on each macroblock.

TRが二重化された重要情報であり、時刻情報(Temporal Reference)を示している。TRIはTRが付加されたかどうかを示す1ビットのフラグで、TRI=1の時にTRが付加される。   TR is duplicated important information, and indicates time information (Temporal Reference). TRI is a 1-bit flag indicating whether TR has been added or not. When TRI = 1, TR is added.

次に、本発明の第3実施形態について説明する。   Next, a third embodiment of the present invention will be described.

図19は本第3実施形態に係る動画像・音声符号化装置の全体構成を示す。圧縮符号化する動画像信号101Aおよび音声信号102Aはそれぞれ動画像符号化装置111Aおよび音声符号化装置112Aに入力され、それぞれ圧縮されて動画像符号列121Aおよび音声符号列122Aが出力される。動画像符号化装置および音声符号化装置の構成については、文献(安田浩編著、“マルチメディア符号化の国際標準”、丸善(平成6年))等の詳しいのでここでは省略する。   FIG. 19 shows the overall configuration of a video / audio coding apparatus according to the third embodiment. The moving image signal 101A and the audio signal 102A to be compression-encoded are input to the moving image encoding device 111A and the audio encoding device 112A, respectively, and compressed to output the moving image code sequence 121A and the audio code sequence 122A, respectively. The configurations of the moving picture coding apparatus and the speech coding apparatus are detailed in the literature (edited by Hiroshi Yasuda, “International Standard for Multimedia Coding”, Maruzen (1994)) and so on, and are omitted here.

動画像符号列121Aおよび音声符号列122Aは、データ符号列103Aと共に、多重化装置130Aで多重化され、多重化符号列135Aが出力される。   The moving image code string 121A and the audio code string 122A are multiplexed together with the data code string 103A by the multiplexer 130A, and a multiplexed code string 135A is output.

図20は、図19の動画像・音声符号化装置に対応する動画像・音声復号化装置の全体構成を示す図である。動画像・音声符号化装置からの多重化符号列185Aは、多重分離装置180Aで分離され、動画像符号列171A、音声符号列172Aおよびデータ符号列173Aが出力される。動画像符号列171A、音声符号列172Aはそれぞれ動画像復号化装置161Aおよび音声復号化装置162Aに入力され、そこでそれぞれ復号されることにより、再生動画像信号151Aおよび再生音声信号152Aが出力される。   FIG. 20 is a diagram showing the overall configuration of a video / audio decoding device corresponding to the video / audio coding device of FIG. The multiplexed code sequence 185A from the video / audio coding device is separated by the demultiplexing device 180A, and a video code sequence 171A, a voice code sequence 172A, and a data code sequence 173A are output. The video code sequence 171A and the audio code sequence 172A are input to the video decoding device 161A and the audio decoding device 162A, respectively, where they are decoded to output a reproduced video signal 151A and a reproduced audio signal 152A. .

図21(a)および(b)は、動画像符号列121Aの2つの例を示したものである。動画像符号化装置111Aにおける符号化はピクチャ(フレーム,VOP)単位に行われて動画像符号列121Aが作成される。ピクチャの中はさらにマクロブロックと呼ばれる小領域に分割されて符号化が行われる。   FIGS. 21A and 21B show two examples of the video code sequence 121A. Encoding in the moving image encoding device 111A is performed in units of pictures (frames, VOPs), and a moving image code sequence 121A is created. The picture is further divided into small areas called macroblocks and encoded.

1ピクチャの動画像符号列はピクチャのスタート位置を示す一意復号可能な符号であるピクチャスタートコード(PSC)201A(VOPスタートコードともいう)からはじまる。   A video code sequence of one picture starts with a picture start code (PSC) 201A (also referred to as a VOP start code), which is a uniquely decodable code indicating the start position of a picture.

ピクチャスタートコード201Aの後ろにはピクチャヘッダ(PH)202A(VOPヘッダともいう)が続く。ピクチャヘッダ202Aには、ピクチャの時間的位置を示すPTR(Picture Temporal Reference)221A、ピクチャ全体の符号化モードを示すピクチャ符号化モード(PCM)222A、ピクチャ量子化ステップサイズ(PQ)223Aが含まれている。ピクチャヘッダ202Aの後ろには各マクロブロックの符号化データ203Aが続く。   A picture header (PH) 202A (also referred to as a VOP header) follows the picture start code 201A. The picture header 202A includes a PTR (Picture Temporal Reference) 221A indicating the temporal position of the picture, a picture encoding mode (PCM) 222A indicating the encoding mode of the entire picture, and a picture quantization step size (PQ) 223A. ing. Encoded data 203A of each macroblock follows the picture header 202A.

図21(b)は複数のマクロブロックをまとめたスライス毎に符号化を行った例を示したものである。   FIG. 21B shows an example in which encoding is performed for each slice in which a plurality of macro blocks are put together.

各スライスの符号列においては、スライスのスタート位置を示す一意復号可能な符号である再同期マーカー(RM)210A、スライスヘッダ(SH)211Aが続き、さらに各マクロブロックのマクロブロックデータ(MB)203Aが続く。スライスヘッダ211Aにはスライスの最初のマクロブロックの番号を示すSMBN(Slice Macroblock Number)231A、量子化ステップサイズ(SQ)232Aが含まれている。   In the code string of each slice, a resynchronization marker (RM) 210A and a slice header (SH) 211A, which are uniquely decodable codes indicating the start position of the slice, follow, and macroblock data (MB) 203A of each macroblock. Followed by The slice header 211A includes an SMBN (Slice Macroblock Number) 231A indicating the number of the first macroblock of the slice, and a quantization step size (SQ) 232A.

再同期マーカー210Aおよびスライスヘッダ211Aは、あらかじめ定められた一定ビット毎に付加しても良いし、画像フレーム中の特定の位置に付加するようにしてもよい。このようにスライス構造をもつ符号化を行った場合には、動画像符号列中に誤りが混入しても、一意復号可能な再同期マーカー210Aで再同期をとることができ、誤りが伝播する範囲をそのスライスの中に収めることができるため、伝送路誤りがあったときの再生画像の品質が向上する。   The resynchronization marker 210A and the slice header 211A may be added for each predetermined fixed bit, or may be added to a specific position in an image frame. When coding having a slice structure is performed as described above, even if an error is mixed in a video code sequence, resynchronization can be performed with the resynchronization marker 210A that can be uniquely decoded, and the error propagates. Since the range can be included in the slice, the quality of a reproduced image when a transmission path error occurs is improved.

図22は、多重化器で多重化された多重化符号列135Aの一例を示す図である。多重化符号列135Aは、動画像符号列(VIDEO)、音声(オーディオ)符号列(SPEECH)、データ,制御情報符号列(DATA)が所定のサイズごとにそれぞれ多重化されている複数の多重パケットから構成されている。図22中、301A,302A,303Aで示す区間がそれぞれひとつの多重化パケットである。これは、全ての多重化パケットが同じ長さ(ビット数)の固定長パケットでも良いし、多重化パケット毎に長さの異なる可変長パケットでも良い。   FIG. 22 is a diagram illustrating an example of the multiplexed code string 135A multiplexed by the multiplexer. The multiplexed code sequence 135A is composed of a plurality of multiplexed packets in which a video code sequence (VIDEO), an audio (audio) code sequence (SPEECH), data, and a control information code sequence (DATA) are multiplexed for each predetermined size. It is composed of In FIG. 22, the sections denoted by 301A, 302A, and 303A are one multiplexed packet. In this case, all multiplexed packets may be fixed-length packets having the same length (number of bits), or variable-length packets having different lengths for each multiplexed packet.

各多重化パケットは最初に多重化パケットのスタート位置を示す多重化スタートコード(MSC)310Aが付き、その後ろに多重化ヘッダ(MH)311A,312A,313Aが続く。その後ろに図19の動画像符号列121A、音声符号列122A、データ符号列103Aをパケット単位などで多重化した多重化ペイロード(図中321A,322A,323A)が続く。   Each multiplexed packet first has a multiplexing start code (MSC) 310A indicating the start position of the multiplexed packet, followed by multiplexing headers (MH) 311A, 312A, and 313A. This is followed by a multiplexed payload (321A, 322A, 323A in the figure) obtained by multiplexing the video code sequence 121A, the audio code sequence 122A, and the data code sequence 103A in FIG.

図23(a)および図23(b)は多重化ヘッダ(MH)311A中に含まれる情報の第1の例を示す図である。図中、多重化コード(MC)351Aは、多重化ペイロード321Aの中に動画像符号列(Video)、音声符号列(Speech)、データ符号列(Data)がどのように多重化されているかを示している情報である。この多重化コード情報(MC)に伝送誤りが生じると、多重化がどのように行われているかが分からなくなるため、多重分離装置180Aで動画像符号列、音声符号列、データ符号列を正しく分離できなくなる。このため、動画像復号化装置161A、音声復号化装置162Aでも正しい復号を行うことができず、再生動画像信号、音声信号の品質が劣化してしまう。   FIGS. 23A and 23B are diagrams illustrating a first example of information included in the multiplex header (MH) 311A. In the figure, a multiplexing code (MC) 351A indicates how a moving image code string (Video), an audio code string (Speech), and a data code string (Data) are multiplexed in the multiplexed payload 321A. The information is shown. If a transmission error occurs in the multiplexed code information (MC), it becomes impossible to know how the multiplexing is performed. become unable. Therefore, even the video decoding device 161A and the audio decoding device 162A cannot perform correct decoding, and the quality of the reproduced video signal and the audio signal is deteriorated.

これを避けるため、多重化ヘッダ(MH)はいずれも誤り検査符号および誤り訂正符号により強い誤り保護を行う。図23中、353A(CRC)がCRC誤り検査ビット、354A(FEC)が誤り訂正符号の検査ビットである。   In order to avoid this, each of the multiplexed headers (MH) performs strong error protection using an error check code and an error correction code. In FIG. 23, 353A (CRC) is a CRC error check bit, and 354A (FEC) is a check bit of an error correction code.

本第3実施形態では、動画像符号列(Video)を含む多重化パケットの多重化ヘッダ(MH)には、動画像符号列(Video)のビデオヘッダ情報(VHD)352Aも多重化コード情報(MC)と一緒に含められている。図23の例では、ビデオヘッダ情報(VHD)352Aが含まれる多重化ヘッダ(MH)は、MH1(311A)およびMH2(312A)である。ビデオヘッダ情報(VHD)352Aは、動画像符号化におけるピクチャ(フレーム)全体の符号化モード等の、誤りが混入すると再生画像に大きな劣化が生じてしまう重要な情報である。例えば、動画像符号化列が図21に示すものの場合は、ピクチャヘッダ202Aやスライスヘッダ211Aないしはその中の一部の情報をビデオヘッダ情報(VHD)352Aとして多重化ヘッダ中に入れる。   In the third embodiment, the multiplexed header (MH) of the multiplexed packet including the video code sequence (Video) includes the video header information (VHD) 352A of the video code sequence (Video) as well as the multiplexed code information (MH). MC). In the example of FIG. 23, the multiplex header (MH) including the video header information (VHD) 352A is MH1 (311A) and MH2 (312A). The video header information (VHD) 352A is important information such as a coding mode of an entire picture (frame) in moving picture coding, in which an error causes significant deterioration in a reproduced picture. For example, when the encoded video sequence is as shown in FIG. 21, the picture header 202A, the slice header 211A, or a part of the information is put in the multiplexed header as video header information (VHD) 352A.

このように、動画像符号化におけるピクチャヘッダ等の重要情報を多重化ヘッダに挿入して、多重化コード(MC)と合わせて誤り訂正符号および誤り検出符号を生成してそれらによって強い誤り保護を行うことが本第3実施形態の特徴である。これにより、重要情報に対して誤り保護を行わない従来の動画像符号化装置に比べ、伝送路誤りに対する耐性が向上する。   As described above, important information such as a picture header in video coding is inserted into the multiplex header, and an error correction code and an error detection code are generated together with the multiplex code (MC), thereby providing strong error protection. Performing is a feature of the third embodiment. As a result, resistance to transmission path errors is improved as compared with a conventional moving picture coding apparatus that does not perform error protection on important information.

図24は多重化ヘッダ(MH)の第2の例を示す図である。図23に示した第1の例に相対応する情報に同一の符号を付して相違点のみを説明すると、動画像符号列(Video)を含む多重化パケットには、多重化ヘッダの中にビデオヘッダ情報(VHD)352Aに加え、動画像符号列のピクチャやスライスの境界の位置を示すピクチャポインタ(ALP)451Aが含まれていることが第1の例と異なる。   FIG. 24 is a diagram illustrating a second example of the multiplex header (MH). The same reference numerals are given to the information corresponding to the first example shown in FIG. 23, and only the difference will be described. A multiplexed packet including a moving image code string (Video) is included in a multiplexed header. The first example is different from the first example in that a picture pointer (ALP) 451A indicating the position of a picture or slice boundary in a moving image code string is included in addition to the video header information (VHD) 352A.

ピクチャポインタ(ALP)451Aがない場合には、多重分離装置180Aで動画像符号列を分離した後、動画像復号化装置161Aでピクチャスタートコードや再同期マーカによりピクチャやスライス境界を検出する必要がある。これに対し、ピクチャポインタ(ALP)451Aを多重化ヘッダに含めた場合には、ピクチャやスライス境界がこのピクチャポインタによっても検出できる。ピクチャポインタは多重化ヘッダ中で強く誤り保護が行われているため、ピクチャ境界やスライス境界が正しく検出される確率が向上し、再生画像の品質が向上する。   If there is no picture pointer (ALP) 451A, it is necessary to demultiplex the moving image code string by the demultiplexing device 180A and then detect the picture or slice boundary by the picture start code or the resynchronization marker by the moving image decoding device 161A. is there. On the other hand, when the picture pointer (ALP) 451A is included in the multiplexed header, a picture or slice boundary can be detected by the picture pointer. Since the picture pointer is strongly protected from error in the multiplexed header, the probability of correctly detecting a picture boundary or a slice boundary is improved, and the quality of a reproduced image is improved.

また、ビデオヘッダ情報(VHD)352Aには、ピクチャヘッダ、スライスヘッダに含まれる全ての情報を含めても良いし、一部の情報だけを含めるようにしてもよい。   Further, the video header information (VHD) 352A may include all information included in the picture header and the slice header, or may include only a part of the information.

図25は、動画像符号列(Video)を含む多重化パケット601A,601Bそれぞれの多重化ヘッダ中に、それぞれ対応する多重化コード(MC1)611A,(MC2)621Aに加えて、ビデオヘッダ情報として、Picture Time Referemce(PTR1)612A,(PTR2)622Aのみを含めた例である。   FIG. 25 shows, as multiplexed codes (MC1) 611A and (MC2) 621A, in each of the multiplexed headers of the multiplexed packets 601A and 601B including the video code sequence (Video), as video header information. , Picture Time Reference (PTR1) 612A, and (PTR2) 622A.

図中、多重化パケット601Aの多重化ペイロード中には、PTR=1のピクチャの符号列の最後のスライス(Slice N)613Aと、それに続くPTR=2のピクチャのピクチャスタートコード(PSC)614Aと、PTR=2のPicture Time Referemce(PTR2)615Aと、ピクチャ符号化モード(PCM2)616Aと、PTR=2のピクチャの符号列の最初のスライスの前半部分(Slice 1)617Aが含まれている。また、多重化パケット602Aのペイロードには、PTR=2のピクチャの符号列の最初のスライスの後半分(Slice 1)623A、第2スライスの再同期マーカー(RM)624A、スライスヘッダ(SH2)625A、PTR=2のピクチャの符号列の第2スライス(Slice 2)626Aが含まれている。   In the figure, in the multiplexed payload of the multiplexed packet 601A, the last slice (Slice N) 613A of the code string of the picture of PTR = 1, and the picture start code (PSC) 614A of the picture of PTR = 2 that follows. , PTR = 2, a Picture Time Reference (PTR2) 615A, a picture encoding mode (PCM2) 616A, and a first half (Slice 1) 617A of the first slice of the code sequence of the picture with PTR = 2. In the payload of the multiplexed packet 602A, the latter half (Slice 1) 623A of the first slice of the code string of the picture with PTR = 2, the resynchronization marker (RM) 624A of the second slice, and the slice header (SH2) 625A , PTR = 2 are included in the second slice (Slice 2) 626A of the code sequence of the picture.

多重化パケット601Aの多重化ヘッダ(MH1)には、その多重化パケット601A中に最後の部分の符号列があるPTR=1のピクチャのPTR612Aが含まれ、多重化コード(MC1)611Aと共に誤り訂正、検出符号(CRC,FEC)で誤り保護される。したがって、多重化ペイロードの動画像符号化列中に含まれるPTR(615A)が誤りによって正しく復号できなくても、多重化ヘッダ中のPTR(612A)が正しく復号され、正しいPTRを得ることができるので、復号したピクチャを正しい時間に表示することができる。   The multiplexed header (MH1) of the multiplexed packet 601A includes the PTR 612A of the PTR = 1 picture having the last part of the code string in the multiplexed packet 601A, and the error correction together with the multiplexed code (MC1) 611A. , Error detection with a detection code (CRC, FEC). Therefore, even if the PTR (615A) included in the video coded stream of the multiplexed payload cannot be decoded correctly due to an error, the PTR (612A) in the multiplexed header can be correctly decoded, and a correct PTR can be obtained. Therefore, the decoded picture can be displayed at the correct time.

さらに、スライス構造を用いた動画像符号化方式においては、スライススタートコード(再同期マーカ)、スライスヘッダの含まれる多重化パケットのビデオヘッダ情報352AにPTRを入れれば、ピクチャスタートコードが誤りによって正しく復号できなくても、このPTRによってピクチャ境界を判定できる。例えば、ピクチャスタートコード(PSC)614AやPTR615Aが欠落しても、次の多重化パケットの多重化ヘッダ中にPTR622Aが含まれているため、これとそれより前の多重化パケットの多重化ヘッダに含まれるPTR(例えばPTR612A)を比較し、これが等しくなければ多重化パケット601Aにピクチャ境界があると判定する。この場合、多重化パケット602A中に再同期マーカーがある最初のスライス(図の例では624Aのslice2から)正しく復号を行うことができる。   Further, in the video coding method using the slice structure, if the PTR is inserted in the slice start code (resynchronization marker) and the video header information 352A of the multiplexed packet including the slice header, the picture start code may be incorrectly set due to an error. Even if decoding is not possible, a picture boundary can be determined by this PTR. For example, even if the picture start code (PSC) 614A or PTR 615A is missing, the multiplexed header of the next multiplexed packet contains PTR 622A. The included PTRs (for example, PTR 612A) are compared, and if they are not equal, it is determined that the multiplexed packet 601A has a picture boundary. In this case, it is possible to correctly decode the first slice (from slice 2 of 624A in the example in the figure) in which the resynchronization marker is included in the multiplexed packet 602A.

ピクチャ符号化モードが頻繁に変わる符号化方式(例えばBピクチャを用いた符号化方式等)を用いる場合には、多重化ヘッダにピクチャ符号化モードを含めるようにしてもよい。   When using an encoding method in which the picture encoding mode changes frequently (for example, an encoding method using a B picture), the multiplex header may include the picture encoding mode.

図26は多重化符号列の第3の例である。この多重化符号列では、各多重化パケット701A,702A,703A中にひとつのピクチャないしはスライスが入り、各ピクチャヘッダ(PH1)712A、スライスヘッダ(SH2)722Aが多重化ヘッダ751A,752Aの中で多重化コード(MC1)711A,(MC2)721Aと一緒に誤り保護されている。このように、動画像符号化のピクチャ、スライスと、多重化パケットをそろえておけば、各多重化パケットは必ずピクチャないしはスライスのスタート位置であることが一意に分かるため、多重分離された画像符号列の中から改めてピクチャスタートコードや再同期マーカーを検出する必要がなく、処理量が削減される。さらには、多重化スタートコードを伝送路誤りに対して強い耐性を有する符号としておけば、ピクチャやスライスのスタート位置が正しく特定できずにそのピクチャやスライスが復号できない確率が少なくなる。   FIG. 26 shows a third example of the multiplexed code string. In this multiplexed code string, one picture or slice is included in each multiplexed packet 701A, 702A, 703A, and each picture header (PH1) 712A and slice header (SH2) 722A are included in the multiplexed headers 751A, 752A. Error protection is performed together with the multiplexing codes (MC1) 711A and (MC2) 721A. In this way, if the pictures and slices for video coding are aligned with the multiplexed packet, each multiplexed packet can be uniquely identified as being the start position of a picture or slice. There is no need to detect the picture start code or the resynchronization marker from the column again, and the processing amount is reduced. Furthermore, if the multiplexed start code is a code having a strong resistance to transmission path errors, the probability that the picture or slice cannot be decoded because the start position of the picture or slice cannot be specified correctly is reduced.

なお、本第3実施形態では、1つの画像/音声信号を符号化、復号化する例を示したが、複数の画像/音声信号符号化装置を用いて複数の画像/音声信号を符号化および多重化し、また複数の画像/音声信号復号化装置を用いて複数の画像/音声信号を分離/復号化する場合にも同様に応用できる。この場合、多重化ヘッダ情報に含めるビデオヘッダ情報には、複数の画像信号を識別する情報を含めるようにしても良い。   In the third embodiment, an example in which one image / audio signal is encoded and decoded has been described. However, a plurality of image / audio signals are encoded and encoded using a plurality of image / audio signal encoding devices. The present invention can be similarly applied to the case of multiplexing and separating / decoding a plurality of image / audio signals using a plurality of image / audio signal decoding devices. In this case, the video header information included in the multiplexed header information may include information for identifying a plurality of image signals.

また、本第3実施形態と前述の第1および第2実施形態とを適宜組み合わせて伝送用符号列を生成することにより、さらに信頼性の高い符号化情報の伝送が可能となる。第3実施形態において、時刻を表すPTR(Picture Time Reference)を第2実施形態と同様のmodulo time base,VOP time incrementとして取り扱うことも可能である。このように用いることにより、第2実施形態で説明したのと同様に、modulo time base,VOP time incrementの規則性を利用したチェックを行ってもよい。   In addition, by generating the transmission code sequence by appropriately combining the third embodiment with the first and second embodiments, it is possible to transmit encoded information with higher reliability. In the third embodiment, a PTR (Picture Time Reference) representing time can be handled as a modulo time base and a VOP time increment similar to the second embodiment. By using in this manner, a check using the regularity of modulo time base and VOP time increment may be performed in the same manner as described in the second embodiment.

次に本発明による情報を蓄積する媒体に関する具体例について説明する。   Next, a specific example regarding a medium for storing information according to the present invention will be described.

図29は、本発明による符号化装置から出力された画像符号列が蓄積される記録媒体810を用いて画像信号を再生するシステムを示す図である。記録媒体810には、本発明による画像符号化装置で符号化された画像符号列を含む符号列が蓄積されている。820はこの蓄積媒体810に蓄積されている符号列から、画像信号を再生する復号装置であり、830は再生画像を出力する画像情報出力装置である。ここで、画像情報出力装置とは、例えばディスプレイ等を示す。あるいは、再生された画像信号を(図示しない)蓄積媒体に記録しても良いし、図示しない伝送路を介して他の装置又はシステムに伝送してもよい。   FIG. 29 is a diagram showing a system for reproducing an image signal using the recording medium 810 in which the image code string output from the encoding device according to the present invention is stored. The recording medium 810 stores a code string including an image code string encoded by the image encoding device according to the present invention. A decoding device 820 reproduces an image signal from the code string stored in the storage medium 810, and an image information output device 830 outputs a reproduced image. Here, the image information output device refers to, for example, a display or the like. Alternatively, the reproduced image signal may be recorded on a storage medium (not shown) or transmitted to another device or system via a transmission path (not shown).

このような構成の本システムは、蓄積媒体810に前述の各実施形態で説明した如きフォーマットの符号列を蓄積してある。この符号列は、VOP(ピクチャ、フレームともいう)ヘッダ情報の一部がビデオパケット(あるいはスライス、GOB等)ヘッダの一部に二重化情報として記録されていることが特徴である。復号化装置820はこの蓄積媒体810に蓄積されている符号列から、画像信号を再生する。すなわち、復号化装置820は、蓄積媒体810より信号線801を介して符号列を読み込み、図30に示す手順により再生画像を生成する。   In this system having such a configuration, a code string in the format described in each of the above-described embodiments is stored in the storage medium 810. This code string is characterized in that part of VOP (also called picture or frame) header information is recorded as duplication information in part of a video packet (or slice, GOB, etc.) header. The decoding device 820 reproduces an image signal from the code string stored in the storage medium 810. That is, the decoding device 820 reads a code string from the storage medium 810 via the signal line 801 and generates a reproduced image according to the procedure shown in FIG.

以下、図30にしたがって復号化装置820での処理の内容を説明する。   Hereinafter, the content of the processing in the decoding device 820 will be described with reference to FIG.

蓄積媒体810から画像符号列を順次読み込み、まず同期符号を検出する(ステップS11)。もし、検出された同期符号がVOP start codeだったら(ステップS12のYES)、直前に復号されたVOP(フレーム)を画像情報出力装置へ出力する処理を行う(ステップS13)。そして、画像符号列中VOP start codeに引き続くVOPへッダ(図29中VOP header)の復号を行う(ステップS14)。もし、VOPヘッダが正しく復号できたら(ステップS15のYES)、復号化装置中の一時記憶回路に記録されている情報を復号されたVOPヘッダ情報(時刻情報、VOP予測モード等)で置き換える(ステップS16)。そしてVOPヘッダに引き続くマクロブロックデータ(図29中MB data)を復号し、そのビデオパケットの復号を行う(ステップS17)。   The image code sequence is sequentially read from the storage medium 810, and a synchronization code is detected first (step S11). If the detected synchronization code is the VOP start code (YES in step S12), a process of outputting the VOP (frame) decoded immediately before to the image information output device is performed (step S13). Then, the VOP header (VOP header in FIG. 29) subsequent to the VOP start code in the image code string is decoded (step S14). If the VOP header can be correctly decoded (YES in step S15), the information recorded in the temporary storage circuit in the decoding device is replaced with the decoded VOP header information (time information, VOP prediction mode, etc.) (step S15). S16). Then, the macroblock data (MB data in FIG. 29) following the VOP header is decoded, and the video packet is decoded (step S17).

もし、検出された同期符号がresync markerだったら(ステップS18のYES)、resync markerに引き続くビデオパケットヘッダ(マクロブロック番号(MBA)、ビデオパケット量子化パラメータ(SQ)、へッダ拡張コードHEC))の復号を行う(ステップS19)。もし、ビデオパケットヘッダ中のヘッダ拡張コードHEC=“0”だった場合には(ステップS20のNO)、そのビデオパケットの復号を行う(ステップS17)。もし、ヘッダ拡張コードHEC=“1”だった場合には(ステップS20のYES)、それに引き続く二重化情報(図29中DUPH)の復号を行う(ステップS21)。もし、二重化情報が正しく復号できたならば(ステップS22のYES)、この二重化情報と、一時記憶回路に保存されていた情報を比較する(ステップS23)。もし比較結果が等しければ(ステップS23のNO)、ビデオパケットヘッダに引き続くマクロブロックデータ(図29中MBdata)を復号し、そのビデオパケットを復号する(ステップS17)。もし、比較結果が等しくなければ(ステップS23のYES)、このピデオパケットは直前に復号されたVOPとは異なるVOPに属すると判定し、直前に復号したVOPを画像情報出力装置に出力する処理を行い(ステップS24)、一時記憶装置に記録されている情報を復号した二重化情報で置き換える(ステップS25)。さらにそのビデオパケットの復号を行う(ステップS17)。   If the detected synchronization code is a resync marker (YES in step S18), a video packet header (macroblock number (MBA), video packet quantization parameter (SQ), header extension code HEC) following the resync marker is used. ) Is decrypted (step S19). If the header extension code HEC in the video packet header is "0" (NO in step S20), the video packet is decoded (step S17). If the header extension code HEC = "1" (YES in step S20), the subsequent duplication information (DUPH in FIG. 29) is decoded (step S21). If the duplicated information has been correctly decoded (YES in step S22), the duplicated information is compared with the information stored in the temporary storage circuit (step S23). If the comparison results are equal (NO in step S23), the macroblock data (MBdata in FIG. 29) following the video packet header is decoded, and the video packet is decoded (step S17). If the comparison results are not equal (YES in step S23), the process determines that the video packet belongs to a VOP different from the VOP decoded immediately before, and outputs the VOP decoded immediately before to the image information output device. (Step S24), and replace the information recorded in the temporary storage device with the decrypted duplicated information (Step S25). Further, the video packet is decoded (step S17).

以上、図30に示した同期符号検出から始まる一連の処理を、蓄積媒体810に記録されている画像符号列を順次読み込みながら繰り返していき、動面像信号を再生する。   As described above, a series of processes starting from the detection of the synchronization code shown in FIG. 30 is repeated while sequentially reading the image code sequence recorded on the storage medium 810 to reproduce the moving image signal.

なお、画像符号列をそのまま蓄積媒体に記録するのではなく、音声信号やオーディオ信号を符号化した符号列、データ、制御情報等との多重化を行った符号列を蓄積媒体に記録するようにしても良い。この場合、蓄積媒体に記録した情報を画像復号化装置820で復号する前に、逆多重化装置で画像符号列と音声・オーディオ符号列、データ、制御情報を逆多重化する処理を行い、逆多重化された画像符号列を復号化装置820で復号する。   Instead of recording the image code string directly on the storage medium, a code string obtained by multiplexing the audio signal or the audio signal with the code string, data, control information, or the like is recorded on the storage medium. May be. In this case, before the information recorded in the storage medium is decoded by the image decoding device 820, a process of demultiplexing the image code sequence and the audio / audio code sequence, data, and control information by the demultiplexing device is performed. The multiplexed image code sequence is decoded by the decoding device 820.

また、図29では、蓄積媒体810に記録されている情報が復号化装置820に信号線801を介して伝達される例を示したが、信号線以外に、有線/無線/赤外線等の伝送路を介して情報を伝達しても構わない。   Also, FIG. 29 shows an example in which information recorded in the storage medium 810 is transmitted to the decoding device 820 via the signal line 801. However, in addition to the signal line, a transmission path such as wired / wireless / infrared is used. The information may be transmitted via.

以上のように本発明によれば、蓄積媒体に記録されている符号列は、重要な情報が二重化して記録されているため、蓄積媒体に記録された情報に誤りがある場合や、蓄積媒体に記録された情報を再生画像に送る信号線や伝送路において誤りが生じる場合においても、劣化の少ない再生画像を再生することができる。   As described above, according to the present invention, the important information is duplicated and recorded in the code string recorded on the storage medium. Even when an error occurs in a signal line or a transmission path for sending information recorded in a reproduction image to a reproduction image, a reproduction image with little deterioration can be reproduced.

次に、本発明の第4の実施形態について説明する。   Next, a fourth embodiment of the present invention will be described.

本実施形態に係る動画像・音声符号化装置および動画像・音声復号化装置の全体構成はそれぞれ図19および図20と同一である。ただし、各部の動作は第3の実施形態と異なる。以下、この相違点を中心に説明する。   The overall configurations of the video / audio encoding device and the video / audio decoding device according to the present embodiment are the same as those in FIGS. 19 and 20, respectively. However, the operation of each unit is different from the third embodiment. Hereinafter, the difference will be mainly described.

図34(a),(b)および(c)は動画像符号列121Aの3つの例を示したものである。動画像符号化装置111Aにおける符号化はVOP(ピクチャ、フレーム、フィールドともいう)単位に行われて動画像符号列121Aが作成される。ピクチャの中はさらにマクロブロックと呼ばれる小領域に分割されて符号化が行われる。   FIGS. 34 (a), (b) and (c) show three examples of the video code sequence 121A. Encoding in the moving image encoding device 111A is performed in units of VOPs (also referred to as pictures, frames, and fields) to create a moving image code sequence 121A. The picture is further divided into small areas called macroblocks and encoded.

1つのVOPの動画像符号列は一意復号可能な同期符号であるVOPスタートコード(図中VSC)(ピクチャスタートコードともいう)からはじまる。VOPスタートコードの後ろにはVOPヘッダ(図中VH)(ピクチャヘッダともいう)が続く。VOPヘッダには、VOPの時刻を表す情報、VOP符号化モード、VOP量子化ステップサイズ等が含まれている。VOPヘッダの後ろには各マクロブロックの符号化データが続く。   A moving image code sequence of one VOP starts with a VOP start code (VSC in the figure) (also referred to as a picture start code), which is a synchronous code that can be uniquely decoded. The VOP start code is followed by a VOP header (VH in the figure) (also called a picture header). The VOP header includes information indicating the time of the VOP, a VOP encoding mode, a VOP quantization step size, and the like. After the VOP header, encoded data of each macroblock follows.

図34(a)はVOP内をビデオパケット(スライス、GOBともいう)と呼ばれる符号化単位に区切って符号化を行う例を示したものである。ビデオパケットは1ないしは複数のマクロブロック(図中MBdata)からなる。例えば動きベクトルの隣接マクロブロックの動きベクトルからの予測のように、複数マクロブロックにわたる予測を用いた動画像符号化を行う場合には、伝送路誤りの影響が他のビデオパケットに及ばないようにするため、同一のビデオパケットに含まれるマクロブロックだけから予測を行うようにしてもよい。   FIG. 34A shows an example in which encoding is performed by dividing the VOP into encoding units called video packets (also called slices or GOBs). A video packet is composed of one or a plurality of macroblocks (MBdata in the figure). For example, when performing video coding using prediction over a plurality of macroblocks, such as prediction from a motion vector of an adjacent macroblock of a motion vector, make sure that the effect of a transmission path error does not affect other video packets. Therefore, prediction may be performed only from macroblocks included in the same video packet.

VOPの最初のビデオパケット以外の各ビデオパケットの符号列は、一意復号可能な同期符号である再同期マーカ(RM)(スライススタートコード、GOBスタートコードともいう)と、ビデオパケットヘッダ(VPH)(スライスヘッダ、GOBヘッダともいう)から始まり、さらに各マクロブロックのデータ(MBdata)が続く。ビデオパケットヘッダにはビデオパケットの最初のマクロブロックの位置を示すマクロブロック番号(あるいはスライス番号やGOB番号)、ビデオパケットの量子化ステップサイズ等が含まれている。さらに、第1および第2の実施形態で説明したように、VOPヘッダ情報等の重要情報を含めるようにしてもよい。   The code sequence of each video packet other than the first video packet of the VOP includes a resynchronization marker (RM) (also referred to as a slice start code and a GOB start code), which is a synchronization code that can be uniquely decoded, and a video packet header (VPH) ( (Also referred to as a slice header or GOB header), followed by data (MBdata) of each macroblock. The video packet header includes a macroblock number (or slice number or GOB number) indicating the position of the first macroblock of the video packet, a quantization step size of the video packet, and the like. Further, as described in the first and second embodiments, important information such as VOP header information may be included.

図34(b)は、動画像符号列を、予測モードや動きベクトルに関する情報と、動き補償適応予測の残差信号、あるいは、それを直交変換(DCT等)した直交変換係数に関する情報との2つに分けて符号化した符号列の例を示したものである。各ビデオパケットの符号列の中で、予測モードや動きベクトルに関する情報(図中Motion)は前方(図の例ではビデオパケットヘッダないしはVOPヘッダのすぐ後)にあり、予測残差DCT係数に関する情報(図中Texture)は後方にある。2種類の情報の間はモーションマーカ(図中MM)で区切られている。   FIG. 34 (b) shows a moving picture code sequence in which information on a prediction mode and a motion vector and information on a residual signal of motion compensated adaptive prediction or information on an orthogonal transform coefficient obtained by orthogonally transforming the signal (DCT or the like). FIG. 2 shows an example of a code string divided and coded. In the code string of each video packet, information on the prediction mode and the motion vector (Motion in the figure) is ahead (in the example of the figure, immediately after the video packet header or VOP header), and information on the prediction residual DCT coefficient ( In the figure, (Texture) is at the rear. The two types of information are separated by a motion marker (MM in the figure).

図34(c)は、符号化する画像の形状に関する情報をあわせて符号化する動画像符号化方式の符号列の例を示したものである。図中、Shapeが形状情報に関する情報であり、各ビデオパケットのなかで予測モードや動きベクトルに関する情報(Motion)よりも前方(図の例ではビデオパケットヘッダないしはVOPヘッダのすぐ後)にある。形状情報(Shape)と予測モードや動きベクトルに関する情報(Motion)の間はシェープマーカ(図中SM)で区切られている。   FIG. 34 (c) shows an example of a code sequence of a moving image coding method in which information on the shape of an image to be coded is also coded. In the figure, Shape is information on shape information, and is located ahead of information (Motion) on a prediction mode and a motion vector in each video packet (in the example of the figure, immediately after a video packet header or a VOP header). The shape information (Shape) and the information (Motion) related to the prediction mode and the motion vector are separated by a shape marker (SM in the figure).

図34の動画像符号化列において、スタートコードや再同期マーカ等の同期符号は、あるビット数の整数倍のビット位置に揃えるようにすることが好ましい。図35は、各ビデオパケットの最初にあるVOPスタートコード(VSC)および再同期マーカ(RM)の位置をNビットの整数倍の位置にそろえた例である。このような処理を行うことにより、同期符号を任意のビット位置に配置する符号化方式に比べ、復号化装置で同期符号を検出する位置を1/Nに削減することができる。これにより、復号化装置における同期検出処理が簡略化されると共に、伝送路誤りによって同期符号と同一のビットパターン(疑似同期符号)が生じ同期符号が誤って検出されてしまう類似同期と呼ばれる現象の確率を1/Nに抑えることができ、伝送路誤りが入ったときの復号画像の品質が向上する。   In the moving picture coded sequence shown in FIG. 34, it is preferable that synchronization codes such as a start code and a resynchronization marker be aligned at a bit position that is an integral multiple of a certain number of bits. FIG. 35 shows an example in which the position of the VOP start code (VSC) and the position of the resynchronization marker (RM) at the beginning of each video packet are aligned to an integer multiple of N bits. By performing such processing, the position at which the decoding device detects the synchronization code can be reduced to 1 / N as compared with an encoding method in which the synchronization code is arranged at an arbitrary bit position. This simplifies the synchronization detection processing in the decoding device, and also reduces the phenomenon called similar synchronization in which the same bit pattern (pseudo synchronization code) as the synchronization code is generated due to a transmission path error and the synchronization code is erroneously detected. The probability can be suppressed to 1 / N, and the quality of a decoded image when a transmission path error occurs is improved.

このように同期符号の位置を揃えるために、同期符号の直前の情報と同期符号の間にはスタッフィングビット(図35(a)中 stuffing bits)を入れる。図35(b)は、N=8の時のスタッフィングビットの符号表の例を示した図である。このスタッフィングビットは従来多く用いられてきた全てのビットが“0”のスタッフィングビット等と異なり、符号列の逆方向から一意に復号でき、スタッフィングビットの長さを復号装置で特定できることが特徴である。図35(b)の例では、スタッフィングビットの最初の1ビットが“0”で他のビットは“1”である。したがって、スタッフィングビットの最後のビット、すなわち、同期符号の直前のビットから順に逆方向にみて最初の“0”のビットがスタッフィングビットの最初のビットと判定することが可能である。   In order to align the positions of the synchronization codes in this manner, stuffing bits (stuffing bits in FIG. 35A) are inserted between the information immediately before the synchronization codes and the synchronization codes. FIG. 35B is a diagram showing an example of a stuffing bit code table when N = 8. This stuffing bit is different from a stuffing bit in which all bits are conventionally used in which all bits are "0", and is characterized in that the stuffing bit can be uniquely decoded from the reverse direction of the code string, and the length of the stuffing bit can be specified by a decoding device. . In the example of FIG. 35B, the first one of the stuffing bits is “0” and the other bits are “1”. Therefore, it is possible to determine the last bit of the stuffing bit, that is, the first bit of “0” as viewed from the bit immediately before the synchronization code in the reverse direction, as the first bit of the stuffing bit.

このように、スタッフィングビットの最初のビットの位置を特定できるため、復号装置において符号列中に伝送路誤りが混入したことを容易に検出することが可能である。符号列の復号が正しく行われた場合には、スタッフィングビットの直前のデータの復号終了位置と、スタッフィングビットの開始位置が一致しているはずである。もし、復号終了位置とスタッフィングビットの開始位置がずれていた場合には、符号列に伝送路誤りが入ったと判定し、その符号列を復号に用いないようにしても良い。   As described above, since the position of the first bit of the stuffing bit can be specified, it is possible to easily detect that a transmission line error is mixed in the code string in the decoding device. If the code string is correctly decoded, the decoding end position of the data immediately before the stuffing bit and the start position of the stuffing bit should match. If the decoding end position is shifted from the start position of the stuffing bit, it may be determined that a transmission path error has occurred in the code string, and the code string may not be used for decoding.

また、符号列の逆方向からも復号可能な可変長符号を用いて逆方向の復号を行う場合には、復号化装置において逆方向復号の開始位置を特定する必要がある。スタッフィングビットは復号開始位置はスタッフィングビットの直前のビットであるが、従来の、例えば全てのビットが同一のビット値をもつスタッフィングビットはその長さを特定できないため、復号装置で逆方向復号の開始位置がわからない。これに対し、図35のスタッフィングビットは最初のビットの位置を特定することができるため、逆方向復号の開始位置を特定することが可能である。   Further, when decoding in the reverse direction using a variable length code that can be decoded from the reverse direction of the code string, it is necessary to specify the start position of the backward decoding in the decoding device. The stuffing bit has a decoding start position immediately preceding the stuffing bit.However, since the length of a conventional stuffing bit, for example, in which all bits have the same bit value cannot be specified, the decoding device starts reverse decoding. I do not know the position. On the other hand, since the stuffing bit in FIG. 35 can specify the position of the first bit, it is possible to specify the start position of the backward decoding.

また、同期符号が“00000000000000001”のように“0”が多く含まれる符号語の場合、従来の全て“0”のスタッフィングビットは誤りが混入することにより同期符号と同一のビットパターンになってしまう確率が高く、類似同期を生じやすいという問題があった。これに対し、図35のスタッフィングビットは最初のビット以外全て“1”のため、“0”が多く含まれる同期符号とハミング距離が離れており、類似同期が生じる可能性が低い。   Further, when the synchronization code is a code word including many “0” such as “000000000000000001”, the conventional stuffing bits of all “0” become the same bit pattern as the synchronization code due to the inclusion of an error. There is a problem that the probability is high and similar synchronization easily occurs. On the other hand, since the stuffing bits in FIG. 35 are all “1” except the first bit, the hamming distance is far from the synchronization code including many “0”, and the possibility of similar synchronization is low.

以上のように、スタッフィングビットを予め定められた規則に従って生成することにより、復号化逆多重化装置において、多重化符号列中のスタッフィングビットをその生成規則と照合し、もしその生成規則に反すると判定された場合には、多重化符号列中に誤りが混入したと判定することが可能である。これにより、復号化逆多重化装置において、逆多重化し、復号化した信号に大きな劣化が生じないような処理を行うことにより、多重化符号列中に誤りが混入したときの復号化信号の品質を向上させることができる。   As described above, by generating the stuffing bits according to a predetermined rule, the decoding / demultiplexing device checks the stuffing bits in the multiplexed code string against the generation rule, and if the generation rule is violated, When it is determined, it is possible to determine that an error has been mixed in the multiplexed code string. As a result, the decoding / demultiplexing device performs processing that does not cause large degradation in the demultiplexed and decoded signal, thereby improving the quality of the decoded signal when errors are mixed in the multiplexed code sequence. Can be improved.

なお、VOPスタートコードや再同期マーカ以外に、モーションマーカ(MM)やシェープマーカ(SM)もあるビット数の整数倍のビット位置に揃え、その前に図35(b)のようなスタッフィングビットを入れても良い。これにより、形状情報、予測モードや動きベクトル情報等も誤り検出や逆方向復号を行うことができる。   In addition to the VOP start code and the resynchronization marker, the motion marker (MM) and the shape marker (SM) are aligned at an integer multiple of a certain bit number, and a stuffing bit as shown in FIG. You may put in. As a result, error detection and reverse decoding can be performed on shape information, prediction mode, motion vector information, and the like.

図36は多重化器130Aの構成の例を示した図である。図36の例では、多重化処理をアダプテーション層1031A(Adaptation Layer)と多重化層1032A(Multiplex layer)と呼ばれる2段階で行う。アダプテーション層1031Aへの入力は動画像符号列121A、音声符号列122A、データ符号列103Aである。アダプテーション層で処理を行った出力1041A,1042A,1043Aは多重化層1032Aに入力される。多重化層からの出力が多重化符号列135Aになる。   FIG. 36 is a diagram showing an example of the configuration of the multiplexer 130A. In the example of FIG. 36, the multiplexing process is performed in two stages called an adaptation layer 1031A (Adaptation Layer) and a multiplexing layer 1032A (Multiplex layer). The inputs to the adaptation layer 1031A are a video code sequence 121A, a voice code sequence 122A, and a data code sequence 103A. Outputs 1041A, 1042A, 1043A processed in the adaptation layer are input to the multiplexing layer 1032A. The output from the multiplexing layer becomes a multiplexed code string 135A.

図37は動画像符号列121Aに対してアダプテーション層での処理を行った出力符号列1041Aの例を示したものである。アダプテーション層での処理は、動画像符号列121Aをある単位に区切ったAL−SDU(アクセスユニット(Access Unit)ともいう)という単位毎に処理が行われる。1つのAL−SDUをアダプテーション層で処理した出力はAL−PDUとよばれる。図37は1つのAL−PDUの構成を示したものである。各AL−PDUにはALヘッダ(AL−header)がつく。ALヘッダには、例えば、AL−PDUの番号、属性、動画像符号化や多重化のモード等を示す情報を入れても良い。ALヘッダの後ろにはALペイロード(AL payload)としてAL−SDUが続く。さらに、その後ろにCRC検査ビットなど、AL−PDUに伝送路誤りが入ったかどうかを検出するための検査ビットを付けても良い。   FIG. 37 shows an example of an output code string 1041A obtained by performing processing in the adaptation layer on the moving image code string 121A. The processing in the adaptation layer is performed for each unit of AL-SDU (also referred to as an access unit) obtained by dividing the video code sequence 121A into a certain unit. An output obtained by processing one AL-SDU in the adaptation layer is called an AL-PDU. FIG. 37 shows the configuration of one AL-PDU. Each AL-PDU has an AL-header. In the AL header, for example, information indicating the number and attribute of the AL-PDU, the mode of video encoding and multiplexing, and the like may be entered. The AL header is followed by an AL-SDU as an AL payload. Further, a check bit, such as a CRC check bit, for detecting whether or not a transmission path error has entered the AL-PDU may be added after the check bit.

アダプテーション層では、音声符号列121Aやデータ符号列103Aに対しても同様の処理を行い、音声符号列およびデータ符号列に対するAL−PDU1042Aおよび1043Aを出力する。ただし、ALヘッダに入れる情報やCRC検査ビットの長さや有無などは動画像符号列に対するAL−PDU1041Aと異なるようにしても良い。   In the adaptation layer, similar processing is performed on the audio code sequence 121A and the data code sequence 103A, and AL-PDUs 1042A and 1043A for the audio code sequence and the data code sequence are output. However, the information to be put in the AL header, the length and presence or absence of the CRC check bit, and the like may be different from those of the AL-PDU 1041A for the moving image code string.

アダプテーション層で作成されたAL−PDU1041A,1042A,1043Aは、多重化層で多重化される。多重化はMUX−PDUと呼ばれる単位毎に行う。図38(a)〜(c)は多重化を行ったMUX−PDUの例を示したものである。MUX−PDUには、多重化同期符号(MUX flag)、多重化ヘッダ(MUX header)がつく。多重化ヘッダには、MUX−PDUに多重化されているアダプテーション層からの出力の種類や多重化の仕方、MUX−PDUの長さ等の情報を入れても良い。   The AL-PDUs 1041A, 1042A, 1043A created in the adaptation layer are multiplexed in the multiplexing layer. Multiplexing is performed for each unit called MUX-PDU. FIGS. 38A to 38C show examples of multiplexed MUX-PDUs. The MUX-PDU has a multiplexing synchronization code (MUX flag) and a multiplexing header (MUX header). The multiplex header may include information such as the type of output from the adaptation layer multiplexed in the MUX-PDU, the multiplexing method, and the length of the MUX-PDU.

図38(a)は1つのMUX−PDUの中に1つのAL−PDUを入れる例を示したものである。   FIG. 38A shows an example in which one AL-PDU is put in one MUX-PDU.

図38(b)は1つのAL−PDUを複数(図の例では2つ)のMUX−PDUに分割する例を示したものである。この場合、多重化ヘッダには、MUX−PDUに含まれる分割されたAL−PDUが、1つのAL−PDU全体の何番目にあたるかを示す情報や、1つのAL−PDUの最初あるいは最後の分割AL−PDUであることを示す情報を入れても良い。   FIG. 38B shows an example in which one AL-PDU is divided into a plurality (two in the example in the figure) of MUX-PDUs. In this case, the multiplex header includes information indicating the number of the divided AL-PDU included in the MUX-PDU in the total number of one AL-PDU, and the first or last division of one AL-PDU. Information indicating an AL-PDU may be inserted.

図38(c)は、1つのMUX−PDUに複数のAL−PDUを入れる例を示したものである。図の例では、動画像符号列のAL−PDU(Video AL−PDU)と音声符号列のAL−PDU(Audio AL−PDU)を合わせて多重化した例である。この場合、多重化ヘッダには、MUX−PDU中に含まれる複数のAL−PDUの境界を示す情報を入れても良い。あるいは、AL−PDUの境界に、境界を示す識別子をつけてもよい。   FIG. 38C shows an example in which a plurality of AL-PDUs are put in one MUX-PDU. In the example shown in the figure, an AL-PDU (Video AL-PDU) of a video code sequence and an AL-PDU (Audio AL-PDU) of an audio code sequence are combined and multiplexed. In this case, the multiplex header may include information indicating a boundary between a plurality of AL-PDUs included in the MUX-PDU. Alternatively, an identifier indicating the boundary may be attached to the boundary of the AL-PDU.

前述のように、アダプテーション層では符号列をAL−SDUあるいはアクセスユニット(access unit)と呼ばれる単位に区切って処理を行う。図39は、動画像符号列のアダプテーション層での区切り方の例を示した図である。   As described above, the adaptation layer performs processing by dividing the code string into units called AL-SDUs or access units (access units). FIG. 39 is a diagram illustrating an example of a method of dividing a moving image code string in an adaptation layer.

図39は1つのVOPを1つのアクセスユニットとする例である。図39(a)〜(c)がそれぞれ図34(a)〜(c)の動画像符号列に対応する。   FIG. 39 shows an example in which one VOP is used as one access unit. FIGS. 39A to 39C correspond to the moving image code strings in FIGS. 34A to 34C, respectively.

図40は1つのビデオパケットを1つのアクセスユニットとする例である。図40(a)〜(c)がそれぞれ図34(a)〜(c)の動画像符号列に対応する。   FIG. 40 shows an example in which one video packet is used as one access unit. FIGS. 40A to 40C correspond to the moving image code strings in FIGS. 34A to 34C, respectively.

図34(b),(c)のように、ビデオパケット内をさらに形状情報、動きベクトル情報、DCT係数情報のように区切って符号化する場合には、アクセスユニットもこれに合わせて区切ってもよい。図41はこのような例を示したものである。図41(a),(b)がそれぞれ図34(b),(c)の動画像符号列に対応している。形状情報(Shape)、予測モードや動きベクトルに関する情報(Motion)、残差信号やそのDCT係数に関する情報(Texture)毎に、その境界を示すモーションマーカ(MM)、シェープマーカ(SM)を境にしてアクセスユニットを構成する。   As shown in FIGS. 34 (b) and (c), when the video packet is further divided and encoded like shape information, motion vector information and DCT coefficient information, the access unit may be divided accordingly. Good. FIG. 41 shows such an example. FIGS. 41A and 41B correspond to the moving image code strings in FIGS. 34B and 34C, respectively. For each of the shape information (Shape), the information (Motion) related to the prediction mode and the motion vector, and the information (Texture) related to the residual signal and its DCT coefficient, a motion marker (MM) indicating the boundary and a shape marker (SM) are used as boundaries. To configure the access unit.

前述のように多重化層においてMUX−PDUやAL−PDUの境界を示す多重化同期符号、AL境界識別子等が付加されている場合には、各アクセスユニットのスタート位置はこれから判別することができる。この場合は、動画像符号列からアクセスユニットの先頭にある同期符号を取り除いても構わない。図42は1つのVOPを1つのアクセスユニットにする例で、この場合はVOPの先頭にあるVOPスタートコードを取り除いても構わない。図43は1つのビデオパケットを1つのアクセスユニットにする例で、この場合はビデオパケットの先頭にあるVOPスタートコード、再同期マーカを取り除いても構わない。図44は形状情報(Shape)、予測モードや動きベクトルに関する情報(Motion)、残差信号やそのDCT係数に関する情報(Texture)毎にアクセスユニットを構成する例で、この場合、ビデオパケットの先頭にあるVOPスタートコード、再同期マーカと、Shape、Motion、Textureの境界を示すモーションマーカ(MM)、シェープマーカ(SM)を取り除いても構わない。   As described above, when a multiplexing synchronization code indicating an MUX-PDU or AL-PDU boundary, an AL boundary identifier, or the like is added in the multiplexing layer, the start position of each access unit can be determined from this. . In this case, the synchronization code at the beginning of the access unit may be removed from the video code sequence. FIG. 42 shows an example in which one VOP is used as one access unit. In this case, the VOP start code at the head of the VOP may be removed. FIG. 43 shows an example in which one video packet is used as one access unit. In this case, the VOP start code and the resynchronization marker at the head of the video packet may be removed. FIG. 44 shows an example in which an access unit is configured for each of shape information (Shape), information (Motion) relating to a prediction mode and a motion vector, and information (Texture) relating to a residual signal and its DCT coefficient. A certain VOP start code, a resynchronization marker, a motion marker (MM) indicating a boundary between Shape, Motion, and Texture, and a shape marker (SM) may be removed.

図45のように1つのアクセスユニットに1ないしは複数のビデオパケットを入れてもよい。この場合、図45(b)のようにアクセスユニットの最初にあるVOPスタードコードないしは再同期マーカだけを取り除いても構わない。図34(b),(c)の動画像符号列についても同様に複数のビデオパケットでアクセスユニットを構成してもよい。   One access unit may contain one or more video packets as shown in FIG. In this case, as shown in FIG. 45B, only the VOP start code or the resynchronization marker at the beginning of the access unit may be removed. Similarly, the access unit may be composed of a plurality of video packets for the moving picture code strings in FIGS. 34 (b) and (c).

図34(b)および(c)のように、ビデオパケットをShape,Motion,Textureのように分割して符号化する場合は、複数のビデオパケットのShape、Motion、Textureをそれぞれ集めてアクセスユニットを構成してもよい。図46は図34(b)の符号列に対してこのような処理を行ったもので、Motion、Textureをそれぞれ集めてアクセスユニットを構成してある。VOPヘッダおよびビデオパケットヘッダは各ビデオパケット毎にMotionの前につける。   As shown in FIGS. 34 (b) and (c), when a video packet is divided and encoded like Shape, Motion, and Texture, the access unit is collected by collecting Shape, Motion, and Texture of a plurality of video packets. You may comprise. FIG. 46 shows the result of performing such processing on the code string of FIG. 34B, and the access unit is configured by collecting Motion and Texture. The VOP header and the video packet header are added before Motion for each video packet.

Motion、Textureを集めてアクセスユニットを構成する単位はVOP単位でも構わないし、任意の複数個のビデオパケットでも構わない。   The unit constituting the access unit by collecting the Motion and the Texture may be a VOP unit or an arbitrary plurality of video packets.

このようなアクセスユニット構成において、各ビデオパケットのMotion、Textureの境界に同期符号をつけてもよい。図46(b)はMotionの境界に、(c),(d)はMotionおよびTextureの境界に同期符号(RM)を入れたものである。さらに、図46(d)の例では各アクセスユニットの先頭にも同期符号(VSC)を入れている。MotionとTextureで異なる同期符号を用いてもよい。例えば、Motionではモーションマーカを、Textureでは再同期マーカを用いてもよい。   In such an access unit configuration, a synchronization code may be attached to the boundary between Motion and Texture of each video packet. FIG. 46B shows the case where the synchronization code (RM) is inserted at the boundary of Motion, and FIGS. 46C and 46D show the case where the synchronization code (RM) is inserted at the boundary of Motion and Texture. Further, in the example of FIG. 46D, a synchronization code (VSC) is also inserted at the head of each access unit. Different synchronization codes may be used for Motion and Texture. For example, a motion marker may be used in Motion, and a resynchronization marker may be used in Texture.

なお、図34(c)の動画像符号列についても、Shape、Motion、Textureデータをそれぞれ集めてアクセスユニットを構成することが可能である。   It should be noted that the access unit can also be configured by collecting Shape, Motion, and Texture data for the moving image code sequence in FIG.

以上のように、Shape、Motion、Textureのような重要度の異なる符号列の中から同一重要度のもの同士をそれぞれ集めてアクセスユニットを構成し、各アクセスユニット毎に異なる誤り保護(例えば誤り訂正符号、誤り検出符号、再送等)を行うことにより、それぞれの符号列の重要度に応じた誤り保護を行うことができ、伝送路誤りが入ったときの復号画像の品質が向上する。一般に、形状情報(Shape)、モード情報や動きベクトル情報(Motion)は伝送路誤りが入ると復号画像に大きな品質劣化を生じてしまう。このため、Shape,Motionに対して強い誤り訂正符号を用いるといった強い誤り保護を行ってもよい。逆に予測残差信号(Texture)は伝送路誤りが入ってもそれほど大きな画質劣化を生じないため、それほど強く誤り保護を行わなくてもよく、誤り訂正符号、誤り検出符号等による冗長度を少なくすることができる。   As described above, access units having the same importance are collected from code strings having different importance such as Shape, Motion, and Texture, respectively, to constitute an access unit, and different error protection (for example, error correction) is provided for each access unit. (Code, error detection code, retransmission, etc.), it is possible to perform error protection according to the importance of each code string, and to improve the quality of a decoded image when a transmission path error occurs. In general, when a transmission path error enters the shape information (Shape), the mode information and the motion vector information (Motion), the quality of a decoded image is greatly deteriorated. Therefore, strong error protection such as using a strong error correction code for Shape and Motion may be performed. Conversely, the prediction residual signal (Texture) does not cause a great deterioration in image quality even if a transmission path error occurs, so that it is not necessary to perform the error protection so strongly, and the redundancy by the error correction code, the error detection code and the like is reduced. can do.

以上の動画像符号列の同期符号を取り除く例では、多重化器130Aで動画像符号列121Aに含まれている同期符号を取り除いてもよいし、画像符号化器111Aであらかじめ同期符号を取り除いた動画像符号列121Aを多重化器に渡すようにしてもよい。   In the above example in which the synchronization code of the moving image code string is removed, the synchronization code included in the moving image code string 121A may be removed by the multiplexer 130A, or the synchronization code may be removed in advance by the image encoder 111A. The moving image code string 121A may be passed to the multiplexer.

図39〜図46のいずれの例においても、各アクセスユニットの長さがあらかじめ決められた長さの整数倍(例えばバイト単位)になるようにしてもよい。図35の例で示したように、動画像符号列が再同期マーカやスタートコードの前にスタッフィングビットを入れて各ビデオパケットや各VOPがNビット(例えばバイト)単位になっている場合には、このスタッフィングビットを含めてアクセスユニットにすれば、アクセスユニットの長さを決められた長さの整数倍(バイト単位等)にすることが可能である。   In any of the examples of FIGS. 39 to 46, the length of each access unit may be set to an integral multiple (for example, byte unit) of a predetermined length. As shown in the example of FIG. 35, when a video code string includes a stuffing bit before a resynchronization marker or a start code and each video packet or each VOP is in N bits (for example, bytes), If the access unit includes the stuffing bit, the length of the access unit can be set to an integral multiple (eg, byte unit) of the determined length.

もし動画像符号列でこのような処理を行っていない場合には、図47のように各アクセスユニットの最後にスタッフィングビットを入れてアクセスユニットの長さを決められた長さの整数倍(バイト単位等)にしてもよい。スタッフィングビットには例えば図35(b)のスタッフィングビットを用いればよい。この場合、動画像符号列にスタッフィングビットを入れた場合と同様に、スタッフィングビットを用いて符号列に混入した誤りを検出することも可能である。また、動画像符号列以外に音声やデータの符号列に対してもスタッフィングビットを付加してアクセスユニットの長さを決められた長さの整数倍(バイト単位等)にしてもよい。   If such processing is not performed on the video code string, a stuffing bit is inserted at the end of each access unit to make the length of the access unit an integer multiple (byte) of the determined length as shown in FIG. Unit). As the stuffing bit, for example, the stuffing bit in FIG. 35B may be used. In this case, similarly to the case where the stuffing bits are inserted in the moving image code string, it is also possible to detect an error mixed in the code string using the stuffing bits. In addition, a stuffing bit may be added to a voice or data code string in addition to a moving image code string to make the length of the access unit an integral multiple (such as a byte unit) of the determined length.

多重化層では、多重化ペイロード中に多重化同期符号と同一のビットパターンがある場合、逆多重化器でこのビットパターンを誤って多重化同期符号と判定し、MUX−PDUの境界が誤って検出されてしまう疑似同期(エミュレーションとも言う)が生じることがある。動画像符号化器において動画像符号列中の同期符号(VOPスタートコード、再同期マーカ等)以外の部分にこれと同一のビットパターンが無いような動画像符号列を生成した場合には、動画像同期符号を用いて多重化層での類似同期が生じたかどうかを検出することができる。   In the multiplexing layer, when the same bit pattern as the multiplexing synchronization code is present in the multiplexed payload, the demultiplexer erroneously determines this bit pattern as the multiplexing synchronization code, and the MUX-PDU boundary is erroneously determined. Pseudo-synchronization (also called emulation) may be detected. When a moving image encoder generates a moving image code sequence in which a portion other than a synchronization code (VOP start code, resynchronization marker, etc.) in a moving image code sequence does not have the same bit pattern, a moving image It is possible to detect whether similar synchronization has occurred in the multiplexing layer using the image synchronization code.

MUX−PDUペイロードの先頭位置と、AL−PDUの先頭位置を合わせMUX−PDUを構成する。図38に示した例は何れもこのような構成になっている。そして、AL−SDU(アクセスユニット)の先頭に動画像同期符号を入れる。このようにすれば、多重化同期符号と動画像同期符号は多重化ヘッダやALヘッダをはさんで隣接して配置される。もし逆多重化装置で誤って多重化同期符号が検出された場合、これに隣接する多重化ヘッダ、ALヘッダおよび動画像同期符号を検出しようとするが、検出した多重化同期符号は疑似同期であるため、本来多重化ヘッダ,ALヘッダおよび動画像同期符号があるとしてこれらの復号を行った場所にはまったく別の情報が入っている。したがって、逆多重化器において復号した多重化ヘッダ、ALヘッダおよび動画像同期符号が正しい情報かどうかを判定し、正しくないと判定された場合には検出した多重化同期符号を疑似同期と判定する。   The head position of the MUX-PDU payload and the head position of the AL-PDU are combined to form a MUX-PDU. Each of the examples shown in FIG. 38 has such a configuration. Then, a moving picture synchronization code is inserted at the head of the AL-SDU (access unit). In this way, the multiplex synchronization code and the video synchronization code are arranged adjacent to each other with the multiplex header and the AL header interposed therebetween. If the multiplexing synchronization code is erroneously detected by the demultiplexer, the multiplexing header, AL header and video synchronization code adjacent to the multiplexing synchronization code are detected, but the detected multiplexing synchronization code is pseudo-synchronous. For this reason, it is assumed that there are multiplexed headers, AL headers, and moving picture synchronization codes, and completely different information is contained in the places where these are decoded. Therefore, it is determined whether or not the multiplexed header, AL header, and video synchronization code decoded by the demultiplexer are correct information. If the information is not correct, the detected multiplex synchronization code is determined to be pseudo-synchronous. .

図48は、多重化器の構成の第2の例である。この例では、多重化器は、FlexMux層とTransMux層の2つの階層に分かれている。さらに、FlexMux層はアダプテーションサブレイヤ(AL)と多重化サブレイヤ(Mux sublayer)に、TransMux層はプロテクションサブレイヤ(Protection Layer)とトランスマックスサブレイヤ(TransMux Layer)に分かれている。   FIG. 48 shows a second example of the configuration of the multiplexer. In this example, the multiplexer is divided into two layers, a FlexMux layer and a TransMux layer. Further, the FlexMux layer is divided into an adaptation sublayer (AL) and a multiplexing sublayer (Mux sublayer), and the TransMux layer is divided into a protection sublayer (Protection Layer) and a transmax sublayer (TransMux Layer).

図49はFlexMux層で生成された符号列の例を示したものである。1061Aがアダプテーションサブレイヤで、1062Aが多重化サブレイヤで構成された符号列である。アダプテーションサブレイヤには、多重化する情報の種類や時刻を表す情報等の情報が入ったALヘッダ(Header)1065Aが付き、さらに、多重化する動画像符号列、音声符号列、データ符号列等のペイロード(Payload)1066Aが多重化され、AL−PDUが生成される。多重化サブレイヤでは、必要に応じて、さらにAL−PDUの種類やチャネル番号などを示すインデックス(index)1068Aと、AL−PDUの長さを示す情報(length)1069AがついてFlexMux−PDUが生成される。   FIG. 49 shows an example of a code string generated in the FlexMux layer. 1061A is an adaptation sublayer, and 1062A is a code string formed of a multiplexing sublayer. The adaptation sublayer has an AL header (Header) 1065A containing information such as information indicating the type of information to be multiplexed and time, and further includes a moving image code string, a voice code string, a data code string, and the like to be multiplexed. The payload (Payload) 1066A is multiplexed to generate an AL-PDU. In the multiplexing sublayer, if necessary, a FlexMux-PDU is further generated with an index (index) 1068A indicating the type and channel number of the AL-PDU and information (length) 1069A indicating the length of the AL-PDU. You.

FlexMux層で生成されたFlexMux−PDUはTransMux層に入力される。TransMux層には図36の多重化器の構成を用いても構わない。この場合、プロテクションサブレイヤ図36のアダプテーション層1031Aに、トランスマックスサブレイヤが図36の多重化層1032Aに相当する。あるいは、トランスマックスサブレイヤに図36の構成を用い、プロテクションサブレイヤは用いないようにしてもよい。   The FlexMux-PDU generated in the FlexMux layer is input to the TransMux layer. The configuration of the multiplexer shown in FIG. 36 may be used for the TransMux layer. In this case, the protection sublayer corresponds to the adaptation layer 1031A in FIG. 36, and the transmax sublayer corresponds to the multiplexing layer 1032A in FIG. Alternatively, the configuration of FIG. 36 may be used for the transmax sublayer, and the protection sublayer may not be used.

なお、スタッフィングビットによってあらかじめ定められた長さの整数倍の長さに設定された単位符号列を多重化する構成、および同一重要度の符号語同士をそれぞれまとめてそれをアクセス単位とする構成は、前述の第1乃至第3実施形態で説明した多重化符号化列の構造それぞれに適宜適用することができる。   Note that a configuration for multiplexing unit code strings set to an integer multiple of a predetermined length by stuffing bits and a configuration in which codewords having the same importance are collectively used as an access unit are described below. The present invention can be appropriately applied to each of the structures of the multiplexed coded sequence described in the first to third embodiments.

また、図45のようにひとつのアクセスユニットに複数のビデオパケットをいれる場合、アクセスユニットの境界および再同期マーカのフレーム内の配置を図50のようにしてもよい。図50中、白丸が再同期マーカのあるマクロブロック(すなわちビデオパケットの最初のマクロブロック)を、灰丸がアクセスユニット内の最初のマクロブロックの位置を示している。このような画像では、背景部分よりも人物のほうがより重要な情報であるため、伝送路誤りに対して高い耐性を有する方が好ましい。このため、人物部分に再同期マーカを多く配してビデオパケットの間隔を細かくし、伝送路誤りから回復が早期に図れるようにして誤りに耐性を強くする。逆に、背景部分は重要度がそれほど高くないため、再同期マーカーは少なくしてビデオパケットの間隔を広くしても構わない。   When a plurality of video packets are put in one access unit as shown in FIG. 45, the boundary of the access unit and the arrangement of the resynchronization marker in the frame may be as shown in FIG. In FIG. 50, a white circle indicates a macroblock having a resynchronization marker (that is, the first macroblock of a video packet), and a gray circle indicates the position of the first macroblock in the access unit. In such an image, since a person is more important information than a background portion, it is preferable that the image has high resistance to a transmission path error. For this reason, a large number of resynchronization markers are arranged in the person portion to make the intervals between video packets small, so that recovery from a transmission path error can be achieved at an early stage, and the error resistance is strengthened. Conversely, since the background portion is not so important, the resynchronization marker may be reduced and the interval between video packets may be increased.

さらに、フレーム内をラスタスキャンの順に左上から右下のマクロブロックへと符号化する符号化方式においては、あるマクロブロックに混入した誤りがより右下のマクロブロックに波及することがある。特に重要領域内に誤りが波及すると大きな画質劣化を生じるため、重要領域がスタートするマクロブロックはアクセスユニット内の最初のマクロブロックとし、他のアクセスユニットに混入した誤りの影響が及ばないようにしてもよい。図50の例では重要領域である人物の左端マクロブロックをアクセスユニットの最初のマクロブロックにしてある。   Further, in an encoding method in which a frame is encoded from the upper left to the lower right macro block in the raster scan order, an error mixed in a certain macro block may spread to a lower right macro block. In particular, if an error spreads into the important area, the image quality will be greatly degraded, so the macroblock where the important area starts is the first macroblock in the access unit so that the error mixed with other access units does not affect the error. Is also good. In the example of FIG. 50, the leftmost macroblock of the person, which is an important area, is set as the first macroblock of the access unit.

ひとつのアクセスユニットの中で誤り保護の強さを切り換えられる場合には、フレーム内の領域の重要度に応じて誤り保護を切り換えてもよい。図51はこのような切り換えを行う例である。図51中、薄い灰色(ハッチング)の領域が強い誤り保護を行う領域(High QoS)で、より重要な情報である人物部分にこれを割り当ててある。図52はこれに対応するアクセスユニットの構成の例を示したものである。図中、薄い灰色(ハッチング)部分が図51の薄い灰色のマクロブロックに相当するもので、この部分は強く誤り保護を行う。   When the strength of the error protection can be switched within one access unit, the error protection may be switched according to the importance of the area in the frame. FIG. 51 shows an example in which such switching is performed. In FIG. 51, a light gray (hatched) region is a region (High QoS) in which strong error protection is performed, and is assigned to a person portion which is more important information. FIG. 52 shows an example of the configuration of an access unit corresponding to this. In the figure, a light gray (hatched) portion corresponds to the light gray macroblock in FIG. 51, and this portion performs strong error protection.

ビデオパケットをMotion,Textureのように分割して符号化する場合は、図52(b)のようにアクセスユニット内の前半にMotionを、後半にTextureを入れ、さらに図51中薄い灰色で示した重要領域をそれぞれの前半にくるようにしてもよい。あるいは図52(c)のようにMotionとTextureを別のアクセスユニットにし、それぞれの前半をより強く誤り保護してもよい。これらにより、重要領域の符号列のさらに重要なMotion部分をより強く誤り保護することができる。   When a video packet is divided and encoded as in Motion and Texture, as shown in FIG. 52 (b), Motion is inserted in the first half of the access unit and Texture is inserted in the second half, and is further shown in light gray in FIG. The important area may be located in the first half of each. Alternatively, as shown in FIG. 52C, the Motion and the Texture may be different access units, and the first half of each may be more strongly protected against errors. As a result, the more important Motion portion of the code string in the important area can be more strongly error-protected.

以上のような再同期マーカの配置やアクセスユニット内の構成を使用することにより、少ないオーバーヘッド(冗長度)でより強い誤り耐性を持たせることが可能である。一般に再同期マーカや強い誤り保護を用いることによりオーバーヘッドが増加してしまうが、重要な情報である人物等に再同期マーカを多く割り当てて誤り保護を強くし、背景のようなあまり重要でない領域には再同期マーカを少なくして誤り保護を弱くすることにより、全体に均一に再同期マーカの割り当てと誤り保護を行う場合に比べ、同じ平均オーバーヘッドで重要情報に対してより強い誤り耐性を持たせることができる。   By using the arrangement of the resynchronization markers and the configuration in the access unit as described above, it is possible to provide stronger error resilience with less overhead (redundancy). In general, overhead is increased by using a resynchronization marker or strong error protection.However, a large number of resynchronization markers are assigned to important information such as a person to strengthen error protection, and to a less important area such as a background. Reduces error protection by reducing the number of resynchronization markers, thereby providing stronger error resilience to important information with the same average overhead as compared to the case where resynchronization markers are allocated and error protected uniformly throughout. be able to.

さらに、図51の人物部分のように多くの再同期マーカを割り当てた場合、ビデオパケットの長さがこれに対応して非常に短くなるため、各ビデオパケットをそれぞれひとつのアクセスユニットに割り当ててしまうと、ALヘッダ、多重化ヘッダ、多重化同期符号等によるオーバーヘッドが非常に大きくなってしまう。この場合は図45のようにひとつのアクセスユニットに複数のビデオパケットを入れた方がオーバーヘッドは少なくなる。   Furthermore, when a large number of resynchronization markers are allocated as in the case of the person portion in FIG. 51, the length of the video packet is correspondingly very short, and thus each video packet is allocated to one access unit. Then, the overhead due to the AL header, the multiplex header, the multiplex synchronization code, etc. becomes very large. In this case, the overhead is reduced when a plurality of video packets are inserted in one access unit as shown in FIG.

以上説明した各実施形態の符号化/復号化装置の構成およびストリーム構造は適宜組み合わせて使用することができる。また、各符号化/復号化装置の動作はそれぞれソフトウェア制御による処理手順に置き換えて実行することもでき、そのソフトウェアおよび符号化ストリームはそれぞれ記録媒体として提供することができる。   The configurations and stream structures of the encoding / decoding devices of the embodiments described above can be used in appropriate combinations. The operation of each encoding / decoding device can be replaced with a processing procedure under software control and executed, and the software and encoded stream can be provided as recording media.

本発明の第1実施形態に係る情報伝送システムで使用される符号化装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an encoding device used in an information transmission system according to a first embodiment of the present invention. 同第1実施形態の情報伝送システムで使用される復号化装置の構成を示すブロック図。FIG. 2 is a block diagram showing a configuration of a decoding device used in the information transmission system of the first embodiment. 同第1実施形態の情報伝送システムにおいて画面を複数のレイヤに分割する様子を示す図。FIG. 2 is an exemplary view showing how a screen is divided into a plurality of layers in the information transmission system according to the first embodiment. 図3で示した各レイヤのビット列の一例を示す図。FIG. 4 is a diagram illustrating an example of a bit string of each layer illustrated in FIG. 3. 図4に代わる別のビット列の構成を示す図。FIG. 5 is a diagram showing a configuration of another bit sequence instead of FIG. 4. 同第1実施形態の情報伝送システムにおいて画面を単一のレイヤで構成する場合の例を示す図。FIG. 2 is a diagram showing an example of a case where a screen is configured by a single layer in the information transmission system of the first embodiment. 同第1実施形態の情報伝送システムで使用される符号化装置の他の構成例を示すブロック図。FIG. 3 is a block diagram showing another configuration example of the encoding device used in the information transmission system of the first embodiment. 図7の符号化装置に対応する復号装置の構成を示すブロック図。FIG. 8 is a block diagram showing a configuration of a decoding device corresponding to the encoding device in FIG. 7. 同第1実施形態の情報伝送システムにおいてリフレッシュを行う場合のフレーム内の様子と、それに対応するビット列の例を示す図。FIG. 4 is a diagram showing a state in a frame when refreshing is performed in the information transmission system according to the first embodiment, and an example of a bit string corresponding thereto. 同第1実施形態の情報伝送システムで伝送される重要情報の内容に関する他の例を示す図。FIG. 4 is an exemplary view showing another example regarding the content of important information transmitted by the information transmission system of the first embodiment. 図10に対応する復号処理回路の構成を示す図。FIG. 11 is a diagram showing a configuration of a decoding processing circuit corresponding to FIG. 10. 同第1実施形態において使用される指示情報が他のヘッダ情報テーブルの一部を成している場合の例を示す図。FIG. 7 is a diagram showing an example in which instruction information used in the first embodiment forms a part of another header information table. 本発明の第2実施形態の情報伝送システムで使用されるフレーム内の符号化領域を説明する図。FIG. 9 is a diagram for explaining a coding area in a frame used in the information transmission system according to the second embodiment of the present invention. 同第2実施形態で用いられる画像符号化列の例を示す図。FIG. 9 is a diagram showing an example of an image coded sequence used in the second embodiment. 図14の画像符号化列に含まれる時刻を示す情報を説明する図。FIG. 15 is a view for explaining information indicating a time included in the image coded sequence of FIG. 14. 本第2実施形態で使用される復号化装置の構成を示すブロック図。FIG. 13 is a block diagram showing a configuration of a decoding device used in the second embodiment. 本第2実施形態で使用されるVOPヘッダおよびビデオパケットヘッダの例を示す図。FIG. 9 is a diagram showing an example of a VOP header and a video packet header used in the second embodiment. 本第2実施形態で使用される復号化装置の他の構成を示すブロック図。FIG. 13 is a block diagram showing another configuration of the decoding device used in the second embodiment. 本発明の第3実施形態に係る情報伝送システムで使用される画像・音声符号化装置の全体構成を示すブロック図。FIG. 11 is a block diagram showing the overall configuration of an image / speech encoding device used in an information transmission system according to a third embodiment of the present invention. 同第3実施形態で使用される画像・音声復号化装置の全体構成を示すブロック図。FIG. 13 is a block diagram showing the overall configuration of an image / sound decoding device used in the third embodiment. 同第3実施形態で使用される動画像符号列の一例を示す図。The figure which shows an example of the moving image code string used in the 3rd embodiment. 同第3実施形態で使用される多重化符号列の一例を示す図。FIG. 13 is a diagram showing an example of a multiplexed code string used in the third embodiment. 同第3実施形態で使用される多重化ヘッダの第1の例を示す図。FIG. 14 is a diagram showing a first example of a multiplex header used in the third embodiment. 同第3実施形態で使用される多重化ヘッダの第2の例を示す図。FIG. 14 is a diagram showing a second example of a multiplex header used in the third embodiment. 同第3実施形態で使用される多重化符号列の第2の例を示図。FIG. 13 is a diagram showing a second example of a multiplexed code string used in the third embodiment. 同第3実施形態で使用される多重化符号列の第3の例を示す図。FIG. 13 is a diagram showing a third example of a multiplexed code string used in the third embodiment. 本発明で用いられるビデオパケットヘッダの第3の例を示す図。FIG. 9 is a diagram showing a third example of a video packet header used in the present invention. 本発明で用いられるビデオパケットヘッダの第4の例を示す図。FIG. 14 is a diagram showing a fourth example of a video packet header used in the present invention. 本発明による情報を記録する媒体とその復号装置を示すブロック図。FIG. 1 is a block diagram showing a medium for recording information according to the present invention and a decoding device therefor. 図29の媒体に記録された情報を復号する手順を示すフローチャー卜。30 is a flowchart showing a procedure for decoding information recorded on the medium of FIG. 29. 本発明における符号列に疑似同期符号を防止するためのビットを付加した例を示す図。FIG. 6 is a diagram illustrating an example in which a bit for preventing a pseudo-synchronous code is added to a code string according to the present invention. 本発明で符号列に使用されるマーカービットを説明するための図。FIG. 4 is a diagram for explaining marker bits used for a code string in the present invention. 本発明においてスライスレイヤを用いた場合のビット列の例を示す図。FIG. 4 is a diagram showing an example of a bit string when a slice layer is used in the present invention. 本発明の第4実施形態で使用される動画像符号列の例を示す図。FIG. 14 is a diagram illustrating an example of a moving image code sequence used in a fourth embodiment of the present invention. 同第4実施形態における同期符号の配置方法とスタッフィングビットの例を示す図。The figure which shows the arrangement | positioning method of the synchronous code in the 4th Embodiment, and the example of a stuffing bit. 同第4実施形態における多重化器の構成の例を示す図。The figure which shows the example of a structure of the multiplexer in 4th Embodiment. 同第4実施形態におけるアダプテーション層からの出力の例を示す図。FIG. 14 is a diagram showing an example of output from an adaptation layer in the fourth embodiment. 同第4実施形態における多重化層からの出力の例を示す図。FIG. 14 is a diagram illustrating an example of output from a multiplexing layer according to the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第1の例を示す図。FIG. 14 is a diagram showing a first example of a method of dividing a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第2の例を示す図。FIG. 14 is a diagram showing a second example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第3の例を示す図。FIG. 15 is a diagram showing a third example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第4の例を示す図。FIG. 14 is a diagram showing a fourth example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第5の例を示す図。FIG. 14 is a diagram showing a fifth example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第6の例を示す図。FIG. 15 is a diagram showing a sixth example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第7の例を示す図。FIG. 14 is a diagram showing a seventh example of how to divide a moving image code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層での動画像符号列の区切り方の第8の例を示す図。The figure showing the 8th example of how to divide a moving picture code string in an adaptation layer in the fourth embodiment. 同第4実施形態におけるアダプテーション層でのスタッフィングの例を説明するための図。FIG. 15 is a view for explaining an example of stuffing in an adaptation layer in the fourth embodiment. 同第4実施形態における多重化器の構成の第2の例を示す図。FIG. 14 is a diagram showing a second example of the configuration of the multiplexer according to the fourth embodiment. 同第4実施形態における図48の構成の多重化器のFlexMux層で生成された符号列の例を示す図。FIG. 49 is a diagram illustrating an example of a code string generated in the FlexMux layer of the multiplexer having the configuration illustrated in FIG. 48 according to the fourth embodiment. 同第4実施形態におけるアクセスユニットの境界および再同期マーカのフレーム内の配置の他の例を説明するための図。FIG. 17 is a diagram for explaining another example of the arrangement of the boundary of the access unit and the resynchronization marker in the frame in the fourth embodiment. 同第4実施形態においてフレーム内の領域の重要度に応じて誤り保護を切り替える例を説明するための図。FIG. 13 is a diagram for explaining an example of switching error protection according to the importance of an area in a frame in the fourth embodiment. 同第4実施形態におけるアクセスユニットの他の構成例を示す図。The figure which shows the other example of a structure of the access unit in the 4th embodiment.

符号の説明Explanation of reference numerals

200,250,351…フレーム
201,202,352,353,354…スライス
203、251…マクロブロック
361,362,363…スライス内のビット列
101A…動画像信号
102A…音声信号
103A…データ符号列
111A…動画像符号化装置
112A…音声符号化装置
121A…動画像符号化列
122A…音声符号化列
130A…多重化装置
135A…多重化符号列
201A…ピクチャスタートコード
202A…ピクチャヘッダ
203A…マクロブロック符号化データ
210A…再同期マーカー
211A…スライスヘッダ
301A,302A,303A…多重化パケット
311A,312A,313A…多重化ヘッダ
321A,322A,323A…多重化ペイロード
310A…多重化スタートコード
351A…多重化コード
352A…ビデオヘッダ情報
353A…CRC検査ビット
354A…誤り訂正符号検査ビット
451A…ピクチャ境界ポインタ
601A,602A…多重化パケット
611A,621A…多重化コード
612A,615A,622A…PTR
1031A…アダプテーション層
1032A…多重化層
1061A…アダプテーションサブレイヤ
1062A…多重化サブレイヤ
1065A…ALヘッダ
1066A…ALペイロード
1068A…インデックス
1069A…長さ情報
200, 250, 351 ... frames 201, 202, 352, 353, 354 ... slices 203, 251 ... macroblocks 361, 362, 363 ... bit strings in slices 101A ... moving picture signals 102A ... audio signals 103A ... data code strings 111A ... Moving picture coding device 112A ... Speech coding device 121A ... Moving picture coding sequence 122A ... Speech coding sequence 130A ... Multiplexer 135A ... Multiplexing code sequence 201A ... Picture start code 202A ... Picture header 203A ... Macro block coding Data 210A: Resynchronization marker 211A: Slice header 301A, 302A, 303A: Multiplexed packet 311A, 312A, 313A: Multiplexed header 321A, 322A, 323A: Multiplexed payload 310A: Multiplexed start code 351A ... multiplex code 352A ... video header information 353A ... CRC check bits 354A ... error correction code check bits 451A ... picture boundary pointer 601A, 602A ... multiplexed packet 611A, 621A ... multiplex code 612A, 615A, 622A ... PTR
1031A ... adaptation layer 1032A ... multiplex layer 1061A ... adaptation sublayer 1062A ... multiplex sublayer 1065A ... AL header 1066A ... AL payload 1068A ... index 1069A ... length information

Claims (2)

画像信号を圧縮符号化することにより得られた画像符号列を含む符号化された情報を2つ以上のレイヤに分け、各レイヤに同期信号と、復号に必要なヘッダ情報とを付加して伝送する情報伝送システムで使用される符号化装置において、
前記符号化された情報を復元するための、前記画像符号列の各画像フレームの予測モードを表す情報を含む復元用情報として、上位レイヤですでに伝送した情報あるいはその一部の情報、同一レイヤ内においてすでに伝送した情報あるいはその一部の情報、または前記上位レイヤまたは同一レイヤ内においてすでに伝送した情報の内容若しくはその一部の情報の内容を復元するための情報を、前記符号化された情報に付加して伝送する手段と、
前記ヘッダ情報内に前記復元用情報を付加したことを示す所定ビットパターンの指示情報を挿入する手段とを具備することを特徴とする符号化装量。
The encoded information including the image code sequence obtained by compression-encoding the image signal is divided into two or more layers, and a synchronization signal and header information necessary for decoding are added to each layer and transmitted. In an encoding device used in an information transmission system,
The information already transmitted in the upper layer or a part of the information, the same layer, as the restoration information including the information indicating the prediction mode of each image frame of the image code sequence for restoring the encoded information. Information that has already been transmitted in the or part of the information, or information for restoring the content of the information already transmitted in the upper layer or the same layer or the content of a part of the information, the encoded information Means for adding to and transmitting
Means for inserting instruction information of a predetermined bit pattern indicating that the restoration information has been added to the header information.
前記復元用情報は前記画像符号列の各画像フレームの表示時刻を表す情報をさらに含むことを特徴とする請求項1記載の符号化装置。 The encoding apparatus according to claim 1, wherein the restoration information further includes information indicating a display time of each image frame of the image code string.
JP2004207870A 1996-09-02 2004-07-14 Encoding apparatus in information transmission system Pending JP2004357321A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004207870A JP2004357321A (en) 1996-09-02 2004-07-14 Encoding apparatus in information transmission system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP23208196 1996-09-02
JP6130697 1997-03-14
JP16892997 1997-06-25
JP2004207870A JP2004357321A (en) 1996-09-02 2004-07-14 Encoding apparatus in information transmission system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP9188750A Division JPH1174868A (en) 1996-09-02 1997-07-14 Information transmission method, coder/decoder in information transmission system adopting the method, coding multiplexer/decoding inverse multiplexer

Publications (1)

Publication Number Publication Date
JP2004357321A true JP2004357321A (en) 2004-12-16

Family

ID=34069207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004207870A Pending JP2004357321A (en) 1996-09-02 2004-07-14 Encoding apparatus in information transmission system

Country Status (1)

Country Link
JP (1) JP2004357321A (en)

Similar Documents

Publication Publication Date Title
AU711467B2 (en) Information transmission method and encoding/decoding apparatus and encoding multiplexing/decoding demultiplexing apparatus in information transmission system to which information transmission method is applied
CA2367055C (en) Video coding and decoding apparatus with error correction for handling arbitrary shaped blocks
US7124429B2 (en) Video coding apparatus and video decoding apparatus
JP4189430B2 (en) Decoding / demultiplexing device for information transmission system
JP4000131B2 (en) Encoding / multiplexing apparatus and method
JP4000132B2 (en) Decoding / demultiplexing apparatus and method
JP4189429B2 (en) Coding / multiplexing device in information transmission system
JP4113165B2 (en) Recording medium recording an encoding program and recording medium recording a decoding program
JP2007312415A (en) Decoding apparatus and method in information transmission system
JP2004304851A (en) Decoding apparatus in information transmission system
JP2004312782A (en) Information transmission method
JP2004357321A (en) Encoding apparatus in information transmission system
JP2004357318A (en) Encoding apparatus in information transmission system
JP2004304850A (en) Coding apparatus in information transmission system
JP2004357319A (en) Decoding apparatus in information transmission system
JP2004357320A (en) Information transmission method and decoding apparatus in information transmission system adopting the method
JP2004312781A (en) Coding system in information transmission system
JP2004304849A (en) Decoding apparatus in information transmission system
JP2007306612A (en) Apparatus and method of encoding in information transmission system
CA2402878C (en) An encoder/decoder system using redundant header data placed in more than one data layer

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061010

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070709

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070905

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071012