JP2006279550A - Video transmitting device and receiving and reproducing device therefor - Google Patents

Video transmitting device and receiving and reproducing device therefor Download PDF

Info

Publication number
JP2006279550A
JP2006279550A JP2005095674A JP2005095674A JP2006279550A JP 2006279550 A JP2006279550 A JP 2006279550A JP 2005095674 A JP2005095674 A JP 2005095674A JP 2005095674 A JP2005095674 A JP 2005095674A JP 2006279550 A JP2006279550 A JP 2006279550A
Authority
JP
Japan
Prior art keywords
obj
video
unit
encoding
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005095674A
Other languages
Japanese (ja)
Other versions
JP4510678B2 (en
Inventor
Kenji Matsuo
賢治 松尾
Koichi Takagi
幸一 高木
Atsushi Koike
淳 小池
Shuichi Matsumoto
修一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Research Inc
Original Assignee
KDDI R&D Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI R&D Laboratories Inc filed Critical KDDI R&D Laboratories Inc
Priority to JP2005095674A priority Critical patent/JP4510678B2/en
Publication of JP2006279550A publication Critical patent/JP2006279550A/en
Application granted granted Critical
Publication of JP4510678B2 publication Critical patent/JP4510678B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video transmitting device which has more transmission lines in a video transmission environment wherein one or more transmission lines are present and realizes video transmission so that a user can view video of higher quality. <P>SOLUTION: An object constitution part 11 divides video into Obj1 to ObjM. An encoding part 12 generates a basic encoded stream B, an extended encoded stream E, and rate distortion characteristics. A layering part 13 layers encoded data of respective pictures as to (object, quality, and time). As an example, the objects are layered into Obj1 to ObjM, the quality is layered into a basic layer and an extended layer (further fractionized into K layers using set encoding quantities T (=T[1], T[2], ..., T[K])), and the time is layered into I, P, and B pictures. A transmission part 14 distributes and transmits encoded units through transmission lines 1, 2, ..., N in the decreasing order of priority. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は映像伝送装置およびその受信再生装置に関し、特に1または2以上の複数の伝送路が存在する映像伝送環境において、より多くの伝送路を持つユーザはより高い品質の映像を視聴できるようにする映像伝送装置およびその受信再生装置に関する。   The present invention relates to a video transmission apparatus and a reception / playback apparatus for the same, and particularly in a video transmission environment in which one or two or more transmission paths exist, a user having more transmission paths can view higher quality video. The present invention relates to a video transmission apparatus and a reception / reproduction apparatus thereof.

近年、コンピュータの性能向上とネットワークの広帯域化により、デジタル映像の配信が容易になった。一方、ネットワークの多様化により、映像受信者が有する伝送路の種類は様々に異なっている。放送という観点からは、様々に異なる受像環境が混在する場合でも、全ての映像受信者が受像環境の違いに関わらず、同じ映像を視聴できることが重要である。   In recent years, digital video distribution has become easier due to improved computer performance and wider network bandwidth. On the other hand, due to the diversification of networks, the types of transmission paths possessed by video receivers are different. From the viewpoint of broadcasting, it is important that all video receivers can view the same video regardless of differences in the image receiving environment even when various image receiving environments are mixed.

この課題を解決するための手法として、階層符号化技術とそれを利用した映像伝送方式が存在する。階層符号化技術では、基本階層と拡張階層の2階層に分割された符号化ストリームを作成する。基本階層は映像を再生するための最低限の情報を含み、拡張階層は、基本階層に付加されて、再生画像の品質を高める情報を含む。   As a technique for solving this problem, there are a hierarchical encoding technique and a video transmission system using the same. In the hierarchical encoding technique, an encoded stream divided into two layers, a basic layer and an extended layer, is created. The basic layer includes minimum information for reproducing a video, and the extended layer includes information added to the basic layer to improve the quality of a reproduced image.

本出願人による特許出願である下記の特許文献1では、階層符号化技術を利用し、映像受信者が有する伝送路の帯域幅や表示機器の処理能力に応じて、伝送する符号化ストリームの符号量を制御して、常に最高の品質の映像を視聴できるようにした映像伝送装置が提案されている。   In the following Patent Document 1 which is a patent application by the present applicant, the code of the encoded stream to be transmitted is used in accordance with the bandwidth of the transmission path possessed by the video receiver and the processing capability of the display device using the hierarchical encoding technology. There has been proposed a video transmission apparatus in which the amount is controlled so that the highest quality video can always be viewed.

この装置では、符号化蓄積手段は、各オブジェクト画像を基本階層および拡張階層に階層符号化し、それぞれのストリームを作成して蓄積する。この際、拡張階層ではビットプレーン符号化を行う。また、符号化の際に、各オブジェクト画像について拡張階層符号化ストリームの符号語が順次復号された場合の符号量と符号化歪みとの関係を示すレート歪み特性を生成して保持する。伝送手段は、該レート歪み特性と通信路の帯域幅とに基づいて、各オブジェクト画像に対する符号量を配分し、該配分に従って各オブジェクトについての拡張符号化ストリームをカットして送出する。
特願2003−387817 画像伝送装置
In this apparatus, the encoding / accumulating means hierarchically encodes each object image into a basic hierarchy and an extension hierarchy, and creates and stores each stream. At this time, bit-plane encoding is performed in the enhancement layer. Further, at the time of encoding, a rate distortion characteristic indicating a relationship between a code amount and encoding distortion when the codeword of the enhancement layer encoded stream is sequentially decoded for each object image is generated and held. The transmission means allocates the code amount for each object image based on the rate distortion characteristic and the bandwidth of the communication channel, and cuts out and transmits the extended encoded stream for each object according to the allocation.
Japanese Patent Application No. 2003-387817 Image transmission device

従来の映像伝送装置は単一の伝送路を介した映像伝送を想定し、そのような環境では伝送路の状態を反映させて送信する符号量を変化させるものであったが、複数の伝送路が存在する環境を想定したものではなかった。   The conventional video transmission apparatus assumes video transmission via a single transmission line, and in such an environment, the amount of code to be transmitted is changed to reflect the state of the transmission line. It was not supposed to be an environment where there was.

そのため、複数の伝送路が存在する環境で、従来の映像伝送装置を使った映像伝送を行った場合、2つ目以降の伝送路は空き状態のままであり、同時に複数の伝送路を用いた効率の良い映像伝送を行えなかった。   Therefore, when video transmission using a conventional video transmission device is performed in an environment where a plurality of transmission paths exist, the second and subsequent transmission paths remain empty, and a plurality of transmission paths are used at the same time. Efficient video transmission was not possible.

したがって、複数の伝送路を持っているにもかかわらず、単一の伝送路しか有していないユーザと同じ品質の映像しか視聴できないため、ユーザの受信環境を反映させた映像伝送を行えるものではなかった。   Therefore, since the user can only view the same quality video as the user who has only a single transmission path despite having a plurality of transmission paths, the video transmission reflecting the user's reception environment cannot be performed. There wasn't.

本発明は、前記した従来技術に鑑みてなされたものであり、その目的は、1または2以上の複数の伝送路が存在する映像伝送環境において、より多くの伝送路を持つユーザにはより高い品質の映像を視聴できるような映像伝送を実現する映像伝送装置およびその受信再生装置を提供することにある。   The present invention has been made in view of the above-described conventional technology, and its purpose is higher for a user having more transmission paths in a video transmission environment in which one or more transmission paths exist. An object of the present invention is to provide a video transmission apparatus and a reception / reproduction apparatus for realizing video transmission that enables viewing of quality video.

前記した目的を達成するために、本発明は、入力映像内から有意なオブジェクトを抽出し、該入力映像を複数のオブジェクトに分割するオブジェクト化部と、前記オブジェクト化部により分割された各オブジェクトに対して、基本符号化ストリームと拡張符号化ストリームとレート歪み特性とを生成する符号化部と、前記各オブジェクトに対して、オブジェクト、品質、および時間に関して階層化された符号化データ(以下、符号化ユニットと呼ぶ)を作成する階層化部と、優先度の付けられた符号化ユニットを、該優先度に基づいて複数の伝送路に振り分けて送信する送信部とを備えた点に第1の特徴がある。   In order to achieve the above-mentioned object, the present invention extracts a significant object from an input video, divides the input video into a plurality of objects, and each object divided by the objectification unit. On the other hand, an encoding unit that generates a basic encoded stream, an extended encoded stream, and a rate distortion characteristic, and encoded data (hereinafter referred to as code) that is hierarchized in terms of object, quality, and time for each object. The first part is that it includes a hierarchizing unit that creates a transmission unit, and a transmission unit that distributes and transmits the coding units with priorities to a plurality of transmission paths based on the priorities. There are features.

また、本発明は、前記映像伝送装置により送信された符号化ユニットを受信し、時間的にずれがなく復号できるように該符号化ユニットの同期をとる受信部と、前記符号化ユニットを統合する統合部と、該統合された符号化データを復号し、復号オブジェクト映像を得る復号部と、該復号部で復号された複数の復号オブジェクト映像を統合し、1つの復号映像を得るオブジェクト統合部とを具備した点に第2の特徴がある。   Also, the present invention integrates the encoding unit with a receiving unit that receives the encoding unit transmitted by the video transmission apparatus and synchronizes the encoding unit so that it can be decoded without time lag. An integration unit; a decoding unit that decodes the integrated encoded data to obtain a decoded object video; and an object integration unit that integrates a plurality of decoded object videos decoded by the decoding unit to obtain one decoded video. There is a second feature in that

本発明によれば、複数の回線の帯域に合わせた伝送が可能になり、ユーザの受信状況に合わせて最適な品質の映像を伝送することができるようになる。   According to the present invention, transmission according to the bandwidth of a plurality of lines is possible, and it is possible to transmit video of optimum quality according to the user's reception situation.

すなわち、より多くの伝送路をもつユーザは、より高い品質の映像を視聴できるようになる。また、ユーザは、まず優先度の高い順に符号化ユニットだけを受信・復号して映像の概要を把握し、それが興味の沸いた映像であれば、必要に応じて、残りの符号化ユニットも受信・復号する事によって、全容をより高い品質で視聴できるようになる。換言すれば、段階的な映像視聴が可能になる。   That is, a user having a larger number of transmission paths can view higher quality video. In addition, the user first receives and decodes only the encoding units in the order of priority, grasps the outline of the video, and if it is an interesting video, the remaining encoding units are also included as necessary. By receiving and decoding, the whole picture can be viewed with higher quality. In other words, step-by-step video viewing becomes possible.

以下、図面を参照して本発明を詳細に説明する。図1は、本発明に係る映像伝送装置の基本構成を示すブロック図である。以下では、映像受信者に映像を配信する場合を例にとって説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a basic configuration of a video transmission apparatus according to the present invention. Hereinafter, a case where video is distributed to a video receiver will be described as an example.

まず、入力映像がオブジェクト化部11に入力される。入力映像は、オブジェクト以外の部分が例えば「0」レベルとされた複数のオブジェクト映像Obj1,Obj2,・・・,ObjM(Mは、正の整数)に分割される。これはフレーム映像からオブジェクトの映像領域を分割することによって得られる。   First, an input video is input to the objectification unit 11. The input video is divided into a plurality of object videos Obj1, Obj2,..., ObjM (M is a positive integer) in which the part other than the object is set to the “0” level, for example. This is obtained by dividing the video area of the object from the frame video.

フレーム映像からオブジェクト映像を分割するには公知の技術を利用できる。例えば特開2003-44860号公報「映像オブジェクト追跡装置」や特開2002-358526号公報「映像オブジェクト検出・追跡装置」や特開2001-236512号公報「動オブジェクト抽出装置」に記載されたオブジェクト抽出の技術を利用できる。   A known technique can be used to divide the object video from the frame video. For example, the object extraction described in Japanese Patent Laid-Open No. 2003-44860 “Video Object Tracking Device”, Japanese Patent Laid-Open No. 2002-358526 “Video Object Detection / Tracking Device”, and Japanese Patent Laid-Open No. 2001-236512 “Moving Object Extraction Device” Technology can be used.

次に、各オブジェクト映像は符号化部12に入力され、基本符号化ストリームBと拡張符号化ストリームEとレート歪み特性を生成する。レート歪み特性の詳細は後述する。なお、拡張階層ではビットプレーン符号化が行われる。   Next, each object video is input to the encoding unit 12 to generate a basic encoded stream B, an extended encoded stream E, and rate distortion characteristics. Details of the rate distortion characteristics will be described later. Note that bit-plane coding is performed in the enhancement layer.

次に、階層化部13では、各オブジェクト映像の符号化データを、(オブジェクト・品質・時間)に関して階層化する。該階層化された各オブジェクト映像の符号化データを、以後「符号化ユニット」と呼ぶ。この際、品質(例えば、映像品質)に関する階層化には、レート歪み特性を用いる。また、符号化ユニットには、人間の視覚特性を考慮した優先度を付与する。   Next, the hierarchizing unit 13 hierarchizes the encoded data of each object video with respect to (object / quality / time). The encoded data of each hierarchical object video is hereinafter referred to as “encoding unit”. At this time, rate distortion characteristics are used for hierarchization related to quality (for example, video quality). The encoding unit is given priority in consideration of human visual characteristics.

次に、送信部14は、前記符号化ユニットを、前記優先度の高い方から順番に、伝送路1,伝送路2、・・・、伝送路Nに振り分け、伝送路19に送信する。この際、伝送路のインデックス番号は、利用ユーザ数が多い伝送路の順に昇順であるとする。また、MPEG−2 TS(トランスポート ストリーム)のシンタックスを利用し、時間をパケットヘッダに記述してパケット化してから送信する。   Next, the transmission unit 14 distributes the encoding units to the transmission path 1, the transmission path 2,..., The transmission path N in order from the higher priority, and transmits the transmission unit 19 to the transmission path 19. At this time, the transmission path index numbers are assumed to be in ascending order in the order of transmission paths with the largest number of users. Also, using the syntax of MPEG-2 TS (Transport Stream), the time is described in the packet header and packetized to be transmitted.

次に、受信部15は、MPEG−2 TS形式のパケットを受信し、パケットヘッダに記述された時間情報を見て、符号化ユニットの同期を取る。   Next, the receiving unit 15 receives an MPEG-2 TS format packet, looks at time information described in the packet header, and synchronizes the encoding unit.

次に、統合部16は、符号化ユニットを統合し、品質に関する階層化前の拡張符号化ストリームを得る。   Next, the integration unit 16 integrates the encoding units and obtains an extended encoded stream before hierarchization regarding quality.

次に、復号部17は、各オブジェクトの符号化データを復号し、復号オブジェクト映像を得る。   Next, the decoding unit 17 decodes the encoded data of each object to obtain a decoded object video.

最後に、オブジェクト統合部18は、複数の復号映像オブジェクトを統合し、復号映像を得る。これにより、フレーム映像を視聴できるようになる。   Finally, the object integration unit 18 integrates a plurality of decoded video objects to obtain a decoded video. As a result, the frame video can be viewed.

以下に、階層符号化技術として、MPEG−4ベースのFGS(Fine Granularity Scalability)符号化技術を用いた場合を例にとって、図1の各ブロックの処理の具体例を説明する。   A specific example of the processing of each block in FIG. 1 will be described below taking as an example the case where an MPEG-4 based FGS (Fine Granularity Scalability) encoding technique is used as the hierarchical encoding technique.

なお、FGS符号化技術は、下記の文献に記されているように周知である。FGS符号化技術は、特にスケーラビリティ(復号自由度)の高い階層符号化技術であり、このスケーラビリティの高さをビットプレーン符号化処理によって実現するものである。
Weiping Li,“Overviw of Fine Granularity Scalability in MPEG-4 Video Standard”,IEEE Transaction on circuit and systems for video technology, Vol.11, No.3, Mar.2001
The FGS coding technique is well known as described in the following document. The FGS encoding technique is a hierarchical encoding technique that has a particularly high scalability (degree of freedom in decoding), and realizes this high scalability by a bit-plane encoding process.
Weiping Li, “Overviw of Fine Granularity Scalability in MPEG-4 Video Standard”, IEEE Transaction on circuit and systems for video technology, Vol.11, No.3, Mar.2001

オブジェクト化部11
入力映像を、オブジェクト以外の部分が例えば「0」レベルとされた複数のオブジェクト映像Obj1,Obj2,・・・,ObjM(Mは、正の整数)に分割する。映像からオブジェクト映像に分割するオブジェクト化部には、前記した公知の技術を利用できる。
Objectification unit 11
The input video is divided into a plurality of object videos Obj1, Obj2,..., ObjM (M is a positive integer) in which the part other than the object is set to “0” level, for example. The above-described well-known technique can be used for the objectification unit that divides the video into the object video.

図1の例では、オブジェクト映像Obj1は自動車、Obj2は道路、Obj3は並木であり、オブジェクト以外の部分は例えば「0」レベルとされている。   In the example of FIG. 1, the object video Obj1 is a car, Obj2 is a road, Obj3 is a row of trees, and the part other than the object is at a "0" level, for example.

符号化部12
図2は符号化部12の詳細を示すブロック図である。図2はオブジェクト部11にてオブジェクト化されたオブジェクト映像Obj 1、Obj 2、・・・、Obj Mのうちの1つを処理するための構成を示している。複数のオブジェクト映像Obj 1、Obj 2、・・・、Obj Mは、このような構成を複数設けて並列的に、あるいは1つの構成を時分割で使用して処理される。以下では、図2の構成が、前記各オブジェクト映像の代表であるオブジェクト映像Objを処理するものとして説明する。
Encoding unit 12
FIG. 2 is a block diagram showing details of the encoding unit 12. FIG. 2 shows a configuration for processing one of the object videos Obj 1, Obj 2,... A plurality of object videos Obj 1, Obj 2,..., Obj M are processed by providing a plurality of such configurations in parallel or using one configuration in time division. In the following description, it is assumed that the configuration of FIG. 2 processes an object video Obj that is representative of each object video.

入力されたオブジェクト映像Objは、減算器31、減算器32および動き検出部33にフレーム1枚ずつ入力オブジェクト画像ObjImgとして順次入力される。減算器31より後段の部分で基本階層の符号化処理が行われ、減算器32より後段の部分で拡張階層の符号化処理が行われる。 The input object video Obj is sequentially input to the subtracter 31, the subtractor 32, and the motion detector 33 as an input object image Obj Img frame by frame. The base layer encoding process is performed at a portion subsequent to the subtracter 31, and the enhancement layer encoding process is performed at a portion subsequent to the subtractor 32.

基本階層の符号化処理では、まず、減算器31で入力オブジェクト画像ObjImgから動き補償予測部34で得られた予測画像が減算されて、予測誤差画像が生成される。この予測誤差画像はDCT(直交変換)部35で、例えば縦8画素、横8画素のブロック単位でDCT係数に変換される。量子化部36は量子化パラメータに従ってDCT係数を量子化する。量子化済みDCT係数がVLC(可変長符号化)部37で可変長符号化され、動きベクトルMVと共に多重化されて、基本符号化ストリームBObjが作成される。 In the base layer encoding process, first, the prediction image obtained by the motion compensation prediction unit 34 is subtracted from the input object image Obj Img by the subtractor 31 to generate a prediction error image. This prediction error image is converted into a DCT coefficient by a DCT (orthogonal transformation) unit 35, for example, in units of blocks of 8 vertical pixels and 8 horizontal pixels. The quantization unit 36 quantizes the DCT coefficient according to the quantization parameter. The quantized DCT coefficients are variable length encoded by a VLC (variable length encoding) unit 37 and multiplexed with the motion vector MV to create a basic encoded stream B Obj .

また量子化部36からの量子化済みDCT係数は、逆量子化部38で逆量子化され、逆DCT部39で予測誤差画像が再生され、加算器40で動き補償予測部34からの予測画像と加算される。加算器40で得られた復号画像は、フレームメモリ41に格納される。   The quantized DCT coefficients from the quantization unit 36 are inversely quantized by the inverse quantization unit 38, the prediction error image is reproduced by the inverse DCT unit 39, and the predicted image from the motion compensated prediction unit 34 by the adder 40. Is added. The decoded image obtained by the adder 40 is stored in the frame memory 41.

動き検出部33は、オブジェクト映像Objから1フレームずつ順次入力される入力オブジェクト画像ObjImgとフレームメモリ41からの復号画像に基づいて、オブジェクト映像Objの動きを検出し、動きベクトルMVを出力する。動きベクトルMVは、動き補償予測部34と可変長符号化部37に与えられる。オブジェクト映像Objの動きは、例えば縦16画素、横16画素のマクロブロックを単位として検出される。動き補償予測部34は、フレームメモリ41からの局部復号画像と動き検出部33からの動きベクトルMVとにより、予測画像を生成して減算器31と加算器40に出力する。 The motion detection unit 33 detects the motion of the object video Obj based on the input object image Obj Img sequentially input frame by frame from the object video Obj and the decoded image from the frame memory 41, and outputs a motion vector MV. The motion vector MV is given to the motion compensation prediction unit 34 and the variable length coding unit 37. The motion of the object video Obj is detected in units of macroblocks having 16 pixels vertically and 16 pixels horizontally, for example. The motion compensation prediction unit 34 generates a prediction image based on the locally decoded image from the frame memory 41 and the motion vector MV from the motion detection unit 33 and outputs the prediction image to the subtracter 31 and the adder 40.

拡張階層の符号化処理で符号化対象となるのは残差画像であり、それは減算器32の出力、すなわち入力オブジェクト画像ObjImgとフレームメモリ41に格納されている復号画像との差分である。この残差画像は、DCT部42でDCT係数に変換される。これにより、生成されたDCT係数は、ビットプレーン符号化部43でビットプレーン単位に符号化され、さらに可変長符号化部44で可変長符号化されて拡張符号化ストリームEObjが作成される。また、この符号化の際に、ビットプレーン符号化部43でレート歪み特性RDObjが生成される。 What is to be encoded in the encoding process of the enhancement layer is a residual image, which is the difference between the output of the subtractor 32, that is, the input object image Obj Img and the decoded image stored in the frame memory 41. This residual image is converted into DCT coefficients by the DCT unit 42. As a result, the generated DCT coefficients are encoded in bit plane units by the bit plane encoding unit 43, and further variable length encoded by the variable length encoding unit 44 to create an extended encoded stream E Obj . In addition, the rate distortion characteristic RD Obj is generated by the bit plane encoding unit 43 during this encoding.

図3(a)~(d)は、該ビットプレーン符号化部43で行われるFGS符号化技術の拡張階層の符号化処理手順の説明図である。FGS符号化技術の拡張階層では、図3(a)に示されているように、残差画像に対して縦8画像、横8画素のブロック単位でDCTを行ってDCT係数を得る。次に、同図(b)に示されているように、各ブロックのDCT係数をジグザグスキャンして、DCT係数を一次系列に並べ替える。さらに、同図(c)に示されているように、ビットプレーン表現に変換する。その後、同図(d)に示されているように、各ビットプレーンの二値情報シンボルを二値ゼロランレングス符号化処理により符号化して(RUN、EOP)符号語を作成する。ここに、(x,0)(x=0,1,2,・・・)符号語は、1までの0の個数がx個であることを示し、(x、1)は最後の1の符号語(EOP)を示す。   FIGS. 3A to 3D are explanatory diagrams of the encoding process procedure of the enhancement layer of the FGS encoding technique performed by the bit plane encoding unit 43. FIG. In the extended layer of the FGS encoding technique, as shown in FIG. 3A, DCT is performed on the residual image in units of blocks of 8 vertical images and 8 horizontal pixels to obtain DCT coefficients. Next, as shown in FIG. 5B, the DCT coefficients of each block are zigzag scanned to rearrange the DCT coefficients into a primary series. Further, as shown in (c) of FIG. Thereafter, as shown in FIG. 9D, the binary information symbols of each bit plane are encoded by binary zero-run length encoding processing (RUN, EOP) to generate a code word. Here, (x, 0) (x = 0, 1, 2,...) Code word indicates that the number of 0s up to 1 is x, and (x, 1) is the last 1 Indicates a code word (EOP).

上記の符号化処理手順により、復号された場合に品質に寄与する度合いの高い符号語から1パスで順次各符号語が拡張符号化ストリームに格納される。すなわち、同図3(d)では(1,1)(0,0)(0,0)(1,0)(0,1)(0,0)(1,0)(2,0)・・・の順である。   According to the above encoding processing procedure, each codeword is sequentially stored in the extended encoded stream in one pass from a codeword having a high degree of contribution to quality when decoded. That is, in FIG. 3D, (1, 1) (0, 0) (0, 0) (1, 0) (0, 1) (0, 0) (1, 0) (2, 0).・ ・ In order.

このように、復号された場合に品質に寄与する度合いが高いものから1パスの順で各符号語が符号化ストリームに格納される階層符号化技術では、復号される符号語の符号量Rと符号化歪みDを測定することができる。従って、符号語単位で符号量Rに対する符号化歪みDを知ることができる特徴がある。   In this way, in the hierarchical encoding technique in which each codeword is stored in the encoded stream in the order of one pass from the one that contributes to the quality when decoded, the code amount R of the codeword to be decoded and The coding distortion D can be measured. Therefore, the encoding distortion D with respect to the code amount R can be known in codeword units.

ここで、符号化歪みDは、復号処理をその符号後で打ち切った場合の復号画像と元の原画像との差異を示し、符号語がより多く復号されるにつれて符号化歪みDは減少する。例えば、FGS符号化技術の例では、客観的に画像品質を定義する場合は、符号化歪みDに、原画像との平均二乗誤差MSE(Mean Squared Error)を用いることができる。   Here, the coding distortion D indicates the difference between the decoded image and the original original image when the decoding process is terminated after the coding, and the coding distortion D decreases as more codewords are decoded. For example, in the example of the FGS encoding technique, when the image quality is objectively defined, a mean square error MSE (Mean Squared Error) with the original image can be used as the encoding distortion D.

本発明では、復号映像の品質を最大限に高める映像伝送を行うために、復号される符号語の符号量Rと符号化歪Dの関係であるレート歪み特性RDを、各オブジェクト映像Objについて測定する。   In the present invention, in order to perform video transmission that maximizes the quality of the decoded video, the rate distortion characteristic RD that is the relationship between the code amount R of the decoded codeword and the coding distortion D is measured for each object video Obj. To do.

すなわち、オブジェクト映像Objの符号化をj番目の符号語で打ち切った場合の総符号量をRとし、またその時の、復号オブジェクト画像と原オブジェクト画像との差異をDとしたとき、オブジェクト映像Objの階層符号化処理の際に、1つの符号語が作成される度に符号量Rと符号化歪Dを測定する。 That is, when the encoding of the object video Obj is terminated at the j-th codeword, the total code amount is R j, and when the difference between the decoded object image and the original object image is D j , the object video In the hierarchical encoding process of Obj, the code amount R j and the encoding distortion D j are measured every time one code word is created.

これを図4に示すように横軸を符号量Rとし、縦軸を符号化歪みDとするグラフにプロットする。これを各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mに対して行い、それぞれのレート歪み特性RDObj 1、RDObj 2、・・・、RDObj Mを得る。 This is plotted in a graph in which the horizontal axis is the code amount R and the vertical axis is the coding distortion D as shown in FIG. This is performed for each object video Obj 1, Obj 2,..., Obj M, and the respective rate distortion characteristics RD Obj 1 , RD Obj 2 ,.

このレート歪み特性RDObj 1、RDObj 2、・・・、RDObj Mのグラフは、符号量Rの増加に従って符号化歪みDが単調に減少する組み合わせを選びグラフにプロットする。符号化部12は、以上のようにして、各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mに対して基本符号化ストリームBObj 1、BObj 2、・・・、BObj Mおよび拡張符号化ストリームEObj 1、EObj 2、・・・、EObj Mを生成し、さらにレート歪み特性RDObj 1、RDObj 2、・・・、RDObj Mを生成する。 In the graph of the rate distortion characteristics RD Obj 1 , RD Obj 2 ,..., RD Obj M , a combination in which the coding distortion D monotonously decreases as the code amount R increases is selected and plotted on the graph. As described above, the encoding unit 12 performs basic encoding streams B Obj 1 , B Obj 2 ,..., B Obj M on each object video Obj 1, Obj 2 ,. E Obj 1 , E Obj 2 ,..., E Obj M are generated, and rate distortion characteristics RD Obj 1 , RD Obj 2 ,.

階層化部13
(オブジェクト・品質・時間)のそれぞれについての階層化の実現方法はそれぞれ次の通りである。
Hierarchy unit 13
The method of realizing the hierarchization for each of (object / quality / time) is as follows.

(1)オブジェクト
各オブジェクトで1つの階層を作成する。すなわち、オブジェクトについては、ちょうどオブジェクト映像の個数と同じ数だけ、階層化が可能である。
(1) Object Create one hierarchy for each object. That is, the object can be hierarchized by the same number as the number of object videos.

(2)品質
拡張符号化ストリームをさらに細分階層化することができる。そのために、
レート歪み特性RDObjを使用し、ある与えられた符号量を超えないようにかつ複数の復号オブジェクト映像を統合した復号映像の品質が最大となるように、オブジェクト間の符号量の配分を決定する。
(2) Quality The extended encoded stream can be further divided into hierarchies. for that reason,
The rate distortion characteristic RD Obj is used to determine the distribution of the code amount between the objects so as not to exceed a given code amount and to maximize the quality of the decoded video obtained by integrating a plurality of decoded object videos. .

各オブジェクトに割り当てられた符号量に基づいて、拡張符号化ストリームをカットする。以降、拡張符号化ストリームをK層に階層化するとして説明を進める。   The extended encoded stream is cut based on the code amount assigned to each object. Hereinafter, description will be given assuming that the extended encoded stream is hierarchized into the K layer.

(3)時間
時間に関しては3種類の階層が生成される。例えば、I、P、Bのフレームタイプ別にそれぞれ別階層とする。
(3) Time Three types of layers are generated for time. For example, different layers are used for I, P, and B frame types.

階層化部13は、前記したように、符号化データを(オブジェクト・品質・時間)に関して、それぞれ、(M・K・3)種類に階層化する。すなわち、符号化ユニットは、合計M×K×3種類に階層化された符号化データである。この際、品質に関する階層化には、レート歪み特性を用いる。   As described above, the hierarchizing unit 13 hierarchizes the encoded data into (M · K · 3) types with respect to (object / quality / time). That is, the encoding unit is encoded data hierarchized into a total of M × K × 3 types. At this time, rate distortion characteristics are used for hierarchization related to quality.

以下に、レート歪み特性を利用した品質に関する階層化について、詳細に説明する。
図5は、前記階層化部13の中のレート歪み特性を利用した品質に関する階層化部13aの構成例を示すブロック図である。階層化部13aは、符号量配分部と階層化部(以後、符号量配分・階層化部61と呼ぶ)からなり、該符号量配分・階層化部61には、符号化部12で生成された拡張符号化ストリームEObj(=EObj 1、EObj 2、・・・、EObj M)、レート歪み特性RDObj(=RDObj 1、RDObj 2、・・・、RDObj M)および拡張符号化ストリームをさらに品質に関して複数階層に階層化するための設定符号量(以下、K階層に細分階層化するための設定符号量)T(=T[1]、T[2]・・・、T[K])が入力される。
Hereinafter, the hierarchization regarding the quality using the rate distortion characteristic will be described in detail.
FIG. 5 is a block diagram showing a configuration example of the hierarchizing unit 13a regarding quality using rate distortion characteristics in the hierarchizing unit 13. As shown in FIG. The hierarchization unit 13a includes a code amount distribution unit and a hierarchization unit (hereinafter referred to as a code amount distribution / hierarchization unit 61). The code amount distribution / hierarchization unit 61 is generated by the encoding unit 12. Extended encoded streams E Obj (= E Obj 1 , E Obj 2 ,..., E Obj M ), rate distortion characteristics RD Obj (= RD Obj 1 , RD Obj 2 ,..., RD Obj M ) and Setting code amount for further layering the extended encoded stream into a plurality of hierarchies (hereinafter, setting code amount for subdividing the K layer into sub-layers) T (= T [1], T [2]... , T [K]).

符号量配分・階層化部61は、各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mに割り当てられる符号量の合計が、フレーム画面全体で拡張符号化ストリームに割り当てられる設定符号量T(=T[1]、T[2]・・・、T[K])を超さないように、レート歪み特性RDObj 1、RDObj 2、・・・、RDObj Mおよび拡張符号化ストリームEObj 1、EObj 2、・・・、EObj MをさらにK階層に細分階層化し、分割1番目の拡張符号化ストリームE[1](=E[1]Obj 1、E[1]Obj 2、・・・、E[1]Obj M)、分割2番目の拡張符号化ストリームE[2](=E[2]Obj 1、E[2]Obj 2、・・・、E[2]Obj M)、・・・、分割K番目の拡張符号化ストリームE[K](=E[K]Obj 1、E[K]Obj 2、・・・、E[K]ObjM)を出力する。 The code amount distribution / hierarchization unit 61 sets the total code amount assigned to each object video Obj 1, Obj 2,..., Obj M to the set code amount T ( = T [1], T [2]..., T [K]) rate distortion characteristics RD Obj 1 , RD Obj 2 ,. Obj 1 , E Obj 2 ,..., E Obj M are further subdivided into K hierarchies, and the divided first extended encoded stream E [1] (= E [1] Obj 1 , E [1] Obj 2 ,..., E [1] Obj M ), the second extended encoded stream E [2] (= E [2] Obj 1 , E [2] Obj 2 ,..., E [2] Obj M ),..., Divided Kth extension code Stream E [K] (= E [K] Obj 1 , E [K] Obj 2 ,..., E [K] ObjM ) is output.

これらK層に階層化された拡張符号化ストリームE[1]、E[2]、・・・、E[K]は、基本符号化ストリームB(=BObj 1、BObj 2、・・・、BObj M)と共に、送信部14へ出力される。 The extended encoded streams E [1], E [2],..., E [K] layered in the K layer are the basic encoded streams B (= B Obj 1 , B Obj 2,. , B Obj M ) and output to the transmitter 14.

符号量配分・階層化部61は、以下に詳細に説明されるように、映像受信者との間の複数伝送路19、すなわち伝送路1、伝送路2、・・・、伝送路Nを伝送可能な符号量の範囲内で、復号映像の品質を最大限に高める符号量配分を決定する。具体的には、レート歪み特性RD(=RDObj 1、RDObj 2、・・・、RDObj M)および拡張階層の設定符号量T(=T[1]、T[2]・・・、T[K])を用いて、例えば以下で示すアルゴリズムにより各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mへ割り当てる符号量を算出する。 As will be described in detail below, the code amount distribution / hierarchization unit 61 transmits a plurality of transmission paths 19 between the video receivers, that is, transmission paths 1, transmission paths 2,... A code amount distribution that maximizes the quality of decoded video is determined within a range of possible code amounts. Specifically, rate distortion characteristics RD (= RD Obj 1 , RD Obj 2 ,..., RD Obj M ) and enhancement layer set code amount T (= T [1], T [2]... T [K]) is used to calculate a code amount to be assigned to each object video Obj 1, Obj 2,..., Obj M, for example, by the algorithm shown below.

(処理1)復号オブジェクト映像Obj’ 1、Obj’ 2、・・・、Obj’ Mの品質を最大限に高めるためには、各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mのレート歪み特性RDObj(=RDObj 1、RDObj 2、・・・、RDObj M)を使用して、次の評価関数Fを最小化するRを下記の式(1)で決定する必要がある。 (Process 1) In order to maximize the quality of the decoded object video Obj ′ 1, Obj ′ 2,..., Obj ′ M, the rate of each object video Obj 1, Obj 2,. Using the distortion characteristic RD Obj (= RD Obj 1 , RD Obj 2 ,..., RD Obj M ), R that minimizes the next evaluation function F needs to be determined by the following equation (1). .

Figure 2006279550
Figure 2006279550

ここで、sObjはオブジェクト映像Objのs番目の符号語のインデックス番号を示すものである。すなわち、RObj[sObj]はs番目の符号語で打ち切って、そこまで採用した場合の符号量を、またDObj[sObj]は符号化歪みを意味する。 Here, s Obj indicates the index number of the sth code word of the object video Obj. That is, R Obj [s Obj ] means the amount of code when it is cut off at the sth code word and adopted so far, and D Obj [s Obj ] means coding distortion.

λは定数であり、ある定数λに対して、上記評価関数Fを最小にする符号量R(λ)(=RObj 1[sObj 1(λ)]、RObj 2[sObj 2(λ)]、・・・、RObj M[sObj M(λ)])と符号化歪みD(λ)(=DObj 1[sObj 1(λ)]、DObj 2[sObj 2(λ)]、・・・、DObj M[sObj M(λ)])の組み合わせが一意に決定される。 λ is a constant, and with respect to a certain constant λ, the code amount R (λ) (= R Obj 1 [s Obj 1 (λ)], R Obj 2 [s Obj 2 (λ )],..., R Obj M [s Obj M (λ)]) and encoding distortion D (λ) (= D Obj 1 [s Obj 1 (λ)], D Obj 2 [s Obj 2 (λ) )],..., D Obj M [s Obj M (λ)]) is uniquely determined.

定数λは、レート歪み特性曲線における接線の傾きdDObj[sObj(λ)]/dRObj[sObj(λ)]に相当する。ある値のλに対して、評価関数Fを最小にすることは、全てのオブジェクト映像Obj 1、Obj 2、・・・、Obj Mについての、レート歪み特性の曲線に対して、同じ傾きλを持つ接線を求めることと同値である。 The constant λ corresponds to the tangential slope dD Obj [s Obj (λ)] / dR Obj [s Obj (λ)] in the rate distortion characteristic curve. For a certain value of λ, minimizing the evaluation function F results in the same slope λ for the rate distortion characteristic curves for all object images Obj 1, Obj 2,..., Obj M. Equivalent to finding the tangent it has.

全てのオブジェクト映像Obj 1、Obj 2、・・・、Obj Mについての符号化歪み特性の曲線に対して、同じ傾きλを持つ接線を求めたとき、接点における符号語がsObj(λ)番目の符号語だったと仮定すると、そのときの符号量R(λ)(=RObj1[sObj 1(λ)]、RObj 2[sObj 2(λ)]、・・・、RObj M[sObj M(λ)])と符号化歪みD(λ)(=DObj 1[sObj 1(λ)]、DObj 2[sObj 2(λ)]、・・・、DObj M[sObj M(λ)])が評価関数Fを最小にする組み合わせとなる。 When tangent lines having the same slope λ are obtained with respect to the curves of the coding distortion characteristics for all object videos Obj 1, Obj 2,..., Obj M, the code word at the contact is s Obj (λ) -th. If the code amount is R (λ) (= R Obj1 [s Obj 1 (λ)], R Obj 2 [s Obj 2 (λ)],..., R Obj M [ s Obj M (λ)]) and coding distortion D (λ) (= D Obj 1 [s Obj 1 (λ)], D Obj 2 [s Obj 2 (λ)],..., D Obj M [ s Obj M (λ)]) is a combination that minimizes the evaluation function F.

このようにして、全てのオブジェクト映像Obj 1、Obj 2、・・・、Obj Mについて、ある値のλに対して評価関数Fを最小にする符号量R(λ)(=RObj1[sObj 1(λ)]、RObj 2[sObj 2(λ)]、・・・、RObj M[sObj M(λ)])と符号化歪みD(λ)(=DObj 1[sObj 1(λ)]、DObj 2[sObj 2(λ)]、・・・、DObj M[sObj M(λ)])の組み合わせが求められる。 In this way, for all the object videos Obj 1, Obj 2,..., Obj M, the code amount R (λ) (= R Obj1 [s Obj ) that minimizes the evaluation function F with respect to a certain value of λ. 1 (λ)], R Obj 2 [s Obj 2 (λ)],..., R Obj M [s Obj M (λ)]) and coding distortion D (λ) (= D Obj 1 [s Obj 1 (λ)], D Obj 2 [s Obj 2 (λ)],..., D Obj M [s Obj M (λ)]).

(処理2)λは複数個の候補が求まるため、次に各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mに割り当てられる符号量の合計が、フレーム画面全体で拡張符号化ストリームに割り当てられる設定符号量T(=T[1]、T[2]・・・、T[K])を超さないように、次に示す制約条件を課して、所望の設定符号量T(=T[1]、T[2]・・・、T[K])を超さない定数λ[1]、λ[2]、・・・、λ[K]の値を選び出す。   (Process 2) Since a plurality of candidates are obtained for λ, the total code amount allocated to each object video Obj 1, Obj 2,..., Obj M is allocated to the extended encoded stream in the entire frame screen. In order not to exceed the set code amount T (= T [1], T [2]..., T [K]), a desired set code amount T (= T [1], T [2]..., T [K]) are selected from constants λ [1], λ [2],.

各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mの分割1番目の拡張符号化ストリームE[1](=E[1]Obj 1、E[1]Obj 2、・・・、E[1]Obj M)へ割り当てられる符号量R(λ[1])(=RObj1[sObj 1(λ[1])]、RObj 2[sObj 2(λ[1])]、・・・、RObj M[sObj M(λ[1])])の総量をR[1]とすると、下記の式(2)を満たし、かつ拡張階層全体の符号量が設定符号量にできる限り近いように、定数λ[1]を決定する。 .., Obj M divided first extended encoded stream E [1] (= E [1] Obj 1 , E [1] Obj 2 ,..., E [ 1] Code amount R (λ [1]) assigned to Obj M ) (= R Obj1 [s Obj 1 (λ [1])], R Obj 2 [s Obj 2 (λ [1])], If the total amount of R Obj M [s Obj M (λ [1])]) is R [1], the following equation (2) is satisfied and the code amount of the entire enhancement layer is as much as the set code amount A constant λ [1] is determined so as to be close.

Figure 2006279550
Figure 2006279550

このとき、定数λに対応するs(λ)番目の符号語で拡張符号化ストリームを打ち切ると、復号オブジェクト映像Obj’ 1、Obj’ 2、・・・、Obj’ M全体の映像品質を最大にすることができる。   At this time, if the extended encoded stream is terminated by the s (λ) th codeword corresponding to the constant λ, the video quality of the entire decoded object video Obj ′ 1, Obj ′ 2,..., Obj ′ M is maximized. can do.

上記のアルゴリズムを図式化すると、図6および図7に記されているように表すことができる。   Schematizing the above algorithm can be represented as described in FIGS.

ステップS1は、前記レート歪み情報から前記λの候補点を求める。この処理は、前記処理1に相当する。ステップS2では、階層を表す置き数jを1とし、ステップS3では、前記制約条件を課して、設定符号量T[1]からそれに対応する接線の傾きλ[1]を決定する。ステップS4では、j<Kが成立するか否かの判断がなされ、jがKより小さければステップS5に進んでjに1が加算され、ステップS3で前記制約条件を課して、設定符号量T[2]からそれに対応する接線の傾きλ[2]を決定する。以上の処理がステップS4の判断が否定になるまで繰り返される。該ステップS4の判断が否定になった時には、前記制約条件を課して求められた接線の傾きλ[1]〜λ[K]が得られる。   In step S1, candidate points for λ are obtained from the rate distortion information. This process corresponds to process 1 described above. In step S2, the placement number j representing the hierarchy is set to 1, and in step S3, the constraint condition is imposed, and the corresponding tangent slope λ [1] is determined from the set code amount T [1]. In step S4, it is determined whether or not j <K is satisfied. If j is smaller than K, the process proceeds to step S5 and 1 is added to j. In step S3, the constraint condition is imposed, and the set code amount is set. The slope λ [2] of the corresponding tangent is determined from T [2]. The above process is repeated until the determination in step S4 is negative. When the determination in step S4 is negative, tangential slopes λ [1] to λ [K] obtained by imposing the constraint conditions are obtained.

ステップS6では、λ[1]、λ[2]、・・・、λ[K]に対応する符号化パスの終端位置SObj1(λ[1])、SObj2(λ[1])、・・・、SObjM(λ[1]、SObj1(λ[2])、SObj2(λ[2])、・・・、SObjM(λ[2]、・・・、SObj1(λ[K])、SObj2(λ[K])、・・・、SObjM(λ[K]で区切って、前記拡張符号化ストリームEObj 1、EObj 2、・・・、EObj Mを階層化する。前記ステップS2〜S6の処理は、前記処理2に相当する。 In step S6, the end positions S Obj1 (λ [1]) , S Obj2 (λ [1]) of the coding path corresponding to λ [1], λ [2] ,. S ObjM (λ [1] , S Obj1 (λ [2]) , S Obj2 (λ [2]) , ..., S ObjM (λ [2] , ..., S Obj1 (λ [ K]), S Obj2 (λ [K]), ···, separated by S ObjM (λ [K], the extended coded stream E Obj 1, E Obj 2, ···, E Obj M hierarchy The process of steps S2 to S6 corresponds to the process 2.

以上の処理により得られるオブジェクト映像Obj 1、Obj 2、・・・、Obj Mの拡張階層符号化ストリームを図式化すると、図8に示すようになる。すなわち、設定符号量T[1]に対して各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mの分割1番目の拡張符号化ストリームE[1](=E[1]Obj 1、E[1]Obj 2、・・・、E[1]Obj M)が割り当てられ、設定符号量T[2]に対して各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mの分割2番目の拡張符号化ストリームE[2](=E[2]Obj 1、E[2]Obj 2、・・・、E[2]Obj M)が割り当てられる。また、設定符号量T[K]に対して各オブジェクト映像Obj 1、Obj 2、・・・、Obj Mの分割K番目の拡張符号化ストリームE[K](=E[K]Obj 1、E[K]Obj 2、・・・、E[K]Obj M)が割り当てられる。なお、Bは、基本符号化ストリームを示す。 FIG. 8 shows a diagram of the extension layer encoded stream of the object videos Obj 1, Obj 2,..., Obj M obtained by the above processing. That is, the divided first encoded stream E [1] (= E [1] Obj 1 , E of each object video Obj 1, Obj 2,..., Obj M with respect to the set code amount T [1]. [1] Obj 2 ,..., E [1] Obj M ), and the divided second of each object video Obj 1, Obj 2,..., Obj M with respect to the set code amount T [2] Extended encoded streams E [2] (= E [2] Obj 1 , E [2] Obj 2 ,..., E [2] Obj M ) are allocated. Also, the divided K-th extended encoded stream E [K] (= E [K] Obj 1 , E of each object video Obj 1, Obj 2,..., Obj M with respect to the set code amount T [K]. [K] Obj 2 ,..., E [K] Obj M ). B indicates a basic encoded stream.

図9(a)、(b)は、オブジェクト映像が2つの場合の符号量配分処理の概念を示す説明図である。同図(a)に示すように、オブジェクト映像Obj 1、Obj 2についての符号化歪み特性RDObj 1、RDObj 2に対して、同じ傾きλを取る接線を求め、その接点における符号量RObj 1[sObj 1(λ)]およびRObj 2[sObj 1(λ)]を求める。定数λを変化させて、総符号量RObj 1[sObj 1(λ)]+RObj 2[sObj 2(λ)]が設定符号量T[1]より小さく、かつそれに近くなるようにし、そのときの符号量RObj 1[sObj 1(λ)]およびRObj 2[sObj 2(λ)]を求める。それが、同図(b)に示すように、sObj 1(λ[1])およびsObj 2(λ[1])だったとする。 FIGS. 9A and 9B are explanatory diagrams showing the concept of the code amount distribution process when there are two object videos. As shown in FIG. 5A, tangent lines having the same slope λ are obtained for the encoding distortion characteristics RD Obj 1 and RD Obj 2 for the object videos Obj 1 and Obj 2, and the code amount R Obj at the contact point is obtained. 1 [s Obj 1 (λ)] and R Obj 2 [s Obj 1 (λ)] are obtained. The constant λ is changed so that the total code amount R Obj 1 [s Obj 1 (λ)] + R Obj 2 [s Obj 2 (λ)] is smaller than and close to the set code amount T [1]. The code amounts R Obj 1 [s Obj 1 (λ)] and R Obj 2 [s Obj 2 (λ)] at that time are obtained. It is assumed that they are s Obj 1 (λ [1]) and s Obj 2 (λ [1]) as shown in FIG.

品質に関して拡張符号化ストリームを階層化し、符号化ユニットを作成する際に、ストリームカッター63(1)は、オブジェクト映像Obj 1の拡張符号化ストリームEObj 1をsObj 1(λ[1])番目の符号後で打ち切って、E[1]Obj 1を得る。また、ストリームカッター63(2)は、オブジェクト映像EObj 2の拡張符号化ストリームEObj 2をsObj 2(λ[1])番目の符号後で打ち切って、E[1]Obj 2を得る。このようにして、分割1番目の拡張符号化ストリームE[1](=E[1]Obj 1、E[1]Obj 2)が求まる。 When the extended encoded stream is hierarchized in terms of quality and an encoding unit is created, the stream cutter 63 (1) converts the extended encoded stream E Obj 1 of the object video Obj 1 to the s Obj 1 (λ [1]) th Is cut off after signing to obtain E [1] Obj 1 . Further, the stream cutter 63 (2) cuts the extended encoded stream E Obj 2 of the object video E Obj 2 after the s Obj 2 (λ [1])-th code to obtain E [1] Obj 2 . In this way, the first divided encoded stream E [1] (= E [1] Obj 1 , E [1] Obj 2 ) is obtained.

以上のことをまとめると、符号化ユニットすなわち階層化された符号化データは、図10に示したように、オブジェクトに関しては、自動車、道路、並木の3オブジェクトに、品質に関しては、基本階層と拡張階層に、かつ該拡張階層は設定符号量によりK階層に、また時間に関しては、I,PおよびBピクチャの3階層に分割されたデータから形成されることになる。   In summary, as shown in FIG. 10, the encoding unit, that is, the hierarchically encoded data, includes three objects for automobiles, roads, and tree-lined objects, and the basic hierarchy and extension for quality. The layer and the extension layer are formed from data divided into the K layer according to the set code amount and the time divided into three layers of I, P and B pictures.

次に、階層化部13は、上記の符号化ユニットに、人間の視覚特性を考慮した優先度を付与する。この優先度の付与について、図11を参照して説明する。   Next, the hierarchizing unit 13 gives priority to the encoding unit in consideration of human visual characteristics. This priority assignment will be described with reference to FIG.

図11はテニスの試合を記録したテスト映像Stefanを、(1)選手(2)ボール(3)背景観客の3つのオブジェクト映像に分割したものである。品質に関しては、拡張階層の階層化は行わずに単一階層K=1とし、基本と拡張の2階層のみとした。時間に関してはI・P・Bの3階層に分割した。   FIG. 11 shows a test video Stefan recorded with a tennis game divided into three object videos of (1) player (2) ball (3) background audience. Regarding the quality, the hierarchization of the extension hierarchy is not performed, the single hierarchy K = 1, and only the basic and extension two hierarchies. Time was divided into three levels of I, P, and B.

したがって、(オブジェクト・品質・時間)に関して、3×2×2=18個の符号化ユニットが作成される。人間の視覚特性を考慮して符号化ユニットに優先度をつけると、一例として図11の符号化ユニット(1)〜(18)のような優先度が付けられる。   Therefore, 3 × 2 × 2 = 18 coding units are created with respect to (object / quality / time). When priorities are given to the encoding units in consideration of human visual characteristics, priorities such as the encoding units (1) to (18) in FIG. 11 are given as an example.

この優先度は、互いに直交する3軸の中の上方向の軸を品質、横方向の軸を時間、奥行き方向の軸をオブジェクトとして表したものであり、該3軸の原点に近い階層ほど、視覚特性の観点から優先度が高くなる。該視覚特性の観点から、オブジェクトについては、選手>ボール>背景観客、時間に関しては、I>P>B、品質については、基本>拡張とすると、優先度が高い符号化ユニット(1)は(選手、基本階層、I)、(2)は(選手、基本階層、P)、(3)は(ボール、基本階層、I)、(4)は(選手、基本階層、B)、・・・・、(18)は(背景観客、拡張階層、B)となる。   This priority expresses the upper axis among three orthogonal axes as quality, the horizontal axis as time, and the depth axis as an object. High priority from the viewpoint of visual characteristics. From the viewpoint of the visual characteristics, if an object is a player> ball> background audience, a time is I> P> B, and a quality is basic> extended, the encoding unit (1) having a high priority is ( (Player, basic hierarchy, I), (2) (player, basic hierarchy, P), (3) (ball, basic hierarchy, I), (4) (player, basic hierarchy, B), ... (18) becomes (background audience, extended hierarchy, B).

送信部14
送信部14は、優先度の高い符号化ユニットから順番に、伝送路1、伝送路2、・・・、伝送路Nのそれぞれに符号化ユニットを振り分け、伝送路に送信する。この際、伝送路のインデックス番号は、利用ユーザ数が多い伝送路の順に昇順であるとする。
Transmitter 14
The transmission unit 14 assigns the encoding units to the transmission path 1, the transmission path 2,..., And the transmission path N in order from the encoding unit with the highest priority, and transmits them to the transmission path. At this time, the transmission path index numbers are assumed to be in ascending order in the order of transmission paths with the largest number of users.

また、MPEG−2 TSのシンタックスを利用し、時間をパケットヘッダに記述してパケット化してから送信する。伝送路19の帯域幅C、C、・・・、Cのそれぞれを越えないように、それぞれの伝送路を介して送信する符号化ユニットの組合せを優先度順に決定し、送信する。 In addition, using the syntax of MPEG-2 TS, the time is described in the packet header and packetized to be transmitted. Bandwidth C 1, C 2 of the transmission path 19, ..., so as not to exceed the respective C N, a combination of code units transmitted over a respective transmission path is determined in order of priority, and transmits.

図11のテスト映像Stefanにおいて、例えば単一の伝送路1のみを有し、符号化ユニット(1)しか受信できなかったユーザは、選手オブジェクトを低品質(基本階調のみ)でコマ送り(Iフレームしか得られないため)のように再生することになる。また、複数の伝送路を有し、符号化ユニット(1)〜(9)まで受信できたユーザは、選手・ボール・背景観客全てを含み、I・P・Bピクチャからなる滑らかなフレームレートで低品質(基本階調のみ)の映像を再生できる。
さらに、より多くの伝送路を有し、符号化ユニット(1)〜(18)まで受信できたユーザは、選手・ボール・背景観客全てを含みI・P・Bピクチャからなる滑らかなフレームレートで高品質(基本階調・拡張階層)の映像を再生できる。
In the test video Stefan shown in FIG. 11, for example, a user who has only a single transmission line 1 and can only receive the encoding unit (1) sends a player object frame-by-frame with a low quality (only basic gradation) (I Because only the frame can be obtained). In addition, a user who has a plurality of transmission paths and can receive the encoding units (1) to (9) includes all players, balls, and background audiences, and has a smooth frame rate composed of I, P, and B pictures. Low quality (basic gradation only) video can be played.
Furthermore, the user who has more transmission paths and can receive the encoding units (1) to (18) has a smooth frame rate including I / P / B pictures including all players, balls, and background audiences. High quality (basic gradation, extended hierarchy) video can be played.

受信部15
受信部15は、MPEG−2 TS形式のパケットを受信し、パケットヘッダに記述された時間情報を見て、符号化ユニットの同期を取る。また、パケット化されたデータを再合成し、符号化ユニットの形式に戻す。
Receiver 15
The receiving unit 15 receives an MPEG-2 TS format packet, looks at time information described in the packet header, and synchronizes the encoding unit. Also, the packetized data is recombined and returned to the encoding unit format.

統合部16
統合部16は、品質に関して複数に階層化された符号化ユニットを統合し、品質に関してして階層化されていない拡張符号化ストリームを得る。
Integration unit 16
The integration unit 16 integrates a plurality of encoding units that are hierarchized with respect to quality, and obtains an extended encoded stream that is not hierarchized with respect to quality.

復号部17
図12は復号部17の構成例を示すブロック図である。図12は、復号オブジェクト映像Obj’ 1、Obj’ 2、・・・、Obj’ Mのうちの1つを処理するための構成である。複数の復号オブジェクト映像Obj’ 1、Obj’ 2、・・・、Obj’ Mは、このような構成を複数設けて並列的に、あるいは1つの構成を時分割で使用して復号される。以下では図12の構成がオブジェクト映像Obj’を処理するものとして説明する。
Decoding unit 17
FIG. 12 is a block diagram illustrating a configuration example of the decoding unit 17. FIG. 12 shows a configuration for processing one of the decrypted object videos Obj ′ 1, Obj ′ 2,..., Obj ′ M. A plurality of decoding object videos Obj ′ 1, Obj ′ 2,..., Obj ′ M are decoded in parallel by providing a plurality of such configurations, or using one configuration in time division. In the following description, it is assumed that the configuration of FIG. 12 processes the object video Obj ′.

基本符号化ストリームB’は、VLD(可変長復号)部81で可変長復号され、量子化済みDCT係数が出力される。同時に動きベクトルMVが出力される。量子化済みDCT係数は、逆量子化部82で逆量子化され、逆DCT部83で誤差画像に逆変換される。加算器84は、誤差画像と動き補償予測部85からの予測画像とが加算され、基本階層の復号オブジェクト画像を出力する。この基本階層の復号オブジェクト画像は、加算器90に出力されると共に、フレームメモリ86に蓄積される。フレームメモリ86に蓄積された復号画像は、動き補償予測部85に与えられる。   The basic encoded stream B ′ is subjected to variable length decoding by a VLD (variable length decoding) unit 81, and quantized DCT coefficients are output. At the same time, a motion vector MV is output. The quantized DCT coefficient is inversely quantized by the inverse quantization unit 82 and inversely converted into an error image by the inverse DCT unit 83. The adder 84 adds the error image and the prediction image from the motion compensation prediction unit 85, and outputs a base layer decoded object image. The base layer decoded object image is output to the adder 90 and stored in the frame memory 86. The decoded image stored in the frame memory 86 is given to the motion compensation prediction unit 85.

拡張符号化ストリームE’は、可変長復号部87で可変長復号され、ビットプレーン復号部88で残差画像のDCT係数に復号される。この残差画像のDCT係数は、逆DCT部89で残差画像に逆変換される。加算器90は、この残差画像と基本階層の復号オブジェクト画像とを加算し、復号オブジェクト画像Obj’Imgを出力する。復号オブジェクト画像Obj’Imgはフレーム1枚ずつ順次出力され、復号オブジェクト映像が得られる。 The extension encoded stream E ′ is variable-length decoded by the variable-length decoding unit 87 and decoded by the bit-plane decoding unit 88 into DCT coefficients of the residual image. The DCT coefficient of this residual image is inversely converted into a residual image by the inverse DCT unit 89. The adder 90 adds the decoded object image of the residual image and the base layer, and outputs the decoded object images Obj 'Img. The decoded object image Obj ′ Img is sequentially output frame by frame to obtain a decoded object video.

オブジェクト統合部18
複数の復号オブジェクト映像Obj 1、Obj 2、・・・Obj Mについて、オブジェクト以外の部分が例えば輝度レベル「0」と定義されていた場合、それ以外の輝度レベルを持つ領域だけを統合して、復号映像を得ることができる。
Object integration unit 18
For a plurality of decoded object videos Obj 1, Obj 2,... Obj M, when a part other than the object is defined as a brightness level “0”, for example, only areas having other brightness levels are integrated. Decoded video can be obtained.

以上の説明から明らかなように、本発明によれば、より多くの伝送路をもつユーザは、より高い品質の映像を視聴することができるようになる。   As is apparent from the above description, according to the present invention, a user having a larger number of transmission paths can view a higher quality video.

本発明に係る映像伝送装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the video transmission apparatus which concerns on this invention. 図1の符号化部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the encoding part of FIG. FGS符号化技術の拡張階層の符号化処理手順の説明図である。It is explanatory drawing of the encoding process procedure of the extended hierarchy of FGS encoding technique. レート歪み特性の説明図である。It is explanatory drawing of a rate distortion characteristic. 図1の階層化部の品質に関する階層化処理の構成例を示すブロック図である。It is a block diagram which shows the structural example of the hierarchization process regarding the quality of the hierarchization part of FIG. 符号量配分の処理を示すフローチャートである。It is a flowchart which shows the code amount distribution process. 階層化の処理を示すフローチャートである。It is a flowchart which shows the process of hierarchization. 品質に関する階層化処理の説明図である。It is explanatory drawing of the hierarchization process regarding quality. オブジェクト映像間の符号量配分処理の概念を示す説明図である。It is explanatory drawing which shows the concept of the code amount allocation process between object videos. 符号化ユニットの説明図である。It is explanatory drawing of an encoding unit. 符号化ユニットに、人間の視覚特性を考慮した優先度を付与する処理例の説明図である。It is explanatory drawing of the process example which provides the priority which considered the human visual characteristic to the encoding unit. 図1の復号部(MPEG−4ベースのFGS符号化技術を利用)の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a decoding unit (using MPEG-4 based FGS encoding technology) in FIG. 1.

符号の説明Explanation of symbols

11・・・オブジェクト化部、12・・・符号化部、13・・・階層化部、14・・・送信部、15・・・受信部、16・・・統合部、17・・・復号部、18・・・オブジェクト統合部、19・・・伝送路、43・・・ビットプレーン符号化部、61・・・符号量配分・階層化部。   DESCRIPTION OF SYMBOLS 11 ... Objectification part, 12 ... Encoding part, 13 ... Hierarchization part, 14 ... Transmission part, 15 ... Reception part, 16 ... Integration part, 17 ... Decoding , 18 ... Object integration part, 19 ... Transmission path, 43 ... Bit plane encoding part, 61 ... Code amount distribution / hierarchization part.

Claims (7)

入力映像内から有意なオブジェクトを抽出し、該入力映像を複数のオブジェクトに分割するオブジェクト化部と、
前記オブジェクト化部により分割された各オブジェクトに対して、基本符号化ストリームと拡張符号化ストリームとレート歪み特性とを生成する符号化部と、
前記各オブジェクトに対して、オブジェクト、品質、および時間に関して階層化された符号化データ(以下、符号化ユニットと呼ぶ)を作成する階層化部と、
優先度の付けられた符号化ユニットを、該優先度に基づいて複数の伝送路に振り分けて送信する送信部とを備えたことを特徴とする映像伝送装置。
An objectification unit that extracts a significant object from the input video and divides the input video into a plurality of objects;
An encoding unit that generates a basic encoded stream, an extended encoded stream, and a rate distortion characteristic for each object divided by the objectifying unit;
For each object, a hierarchization unit for creating encoded data (hereinafter referred to as an encoding unit) hierarchized with respect to the object, quality, and time;
A video transmission apparatus comprising: a transmission unit that distributes and transmits a coding unit with a priority to a plurality of transmission paths based on the priority.
請求項1に記載の映像伝送装置において、
前記オブジェクト化部は、前記有意なオブジェクト以外の映像部分を輝度レベルで0とすることを特徴とする映像伝送装置。
The video transmission apparatus according to claim 1,
The object converting section sets a video portion other than the significant object to 0 in luminance level.
請求項1又は2に記載の映像伝送装置において、
前記階層化部は、前記品質に関する階層化について、前記レート歪み特性を品質に関する階層化のための設定符号量に関して最適にするようにオブジェクト間で符号量を配分し、各オブジェクトに割り当てることを特徴とする映像伝送装置。
The video transmission device according to claim 1 or 2,
The hierarchization unit allocates a code amount among objects so as to optimize the rate distortion characteristic with respect to a set code amount for hierarchization related to quality for the hierarchization related to the quality, and assigns the code to each object. A video transmission device.
請求項1ないし3のいずれかに記載の映像伝送装置において、
前記品質に関する階層化は、前記拡張符号化ストリームに対して行うことを特徴とする映像伝送装置。
The video transmission apparatus according to any one of claims 1 to 3,
The video transmission apparatus according to claim 1, wherein the hierarchization relating to the quality is performed on the extended encoded stream.
請求項1ないし4のいずれかに記載の映像伝送装置において、
前記送信部は、視覚特性を考慮した優先度の付けられた符号化ユニットを、該優先度に基づいて複数の伝送路に振り分けて送信することを特徴とする映像伝送装置。
The video transmission apparatus according to any one of claims 1 to 4,
The video transmission apparatus according to claim 1, wherein the transmission unit distributes and transmits encoding units with priorities in consideration of visual characteristics to a plurality of transmission paths based on the priorities.
請求項1ないし5のいずれかの映像伝送装置により送信された符号化ユニットを受信し、時間的にずれがなく復号できるように該符号化ユニットの同期をとる受信部と、
前記符号化ユニットを統合する統合部と、
該統合された符号化データを復号し、復号オブジェクト映像を得る復号部と、
該復号部で復号された複数の復号オブジェクト映像を統合し、1つの復号映像を得るオブジェクト統合部とを具備したことを特徴とする受信再生装置。
A receiving unit that receives the encoding unit transmitted by the video transmission device according to any one of claims 1 to 5 and synchronizes the encoding unit so that it can be decoded without time lag,
An integration unit for integrating the encoding units;
A decoding unit for decoding the integrated encoded data and obtaining a decoded object video;
A receiving and reproducing apparatus comprising: an object integration unit that integrates a plurality of decoded object videos decoded by the decoding unit to obtain one decoded video.
請求項6に記載の受信再生装置において、
前記統合部は、品質に関して複数に階層化されたオブジェクトの拡張符号化ストリームを1つの拡張符号化ストリームに統合することを特徴とする受信再生装置。
The reception / playback apparatus according to claim 6,
The reception / playback apparatus, wherein the integration unit integrates an extended encoded stream of an object layered into a plurality of layers with respect to quality into one extended encoded stream.
JP2005095674A 2005-03-29 2005-03-29 Video transmission device and video transmission / reception playback device Expired - Fee Related JP4510678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005095674A JP4510678B2 (en) 2005-03-29 2005-03-29 Video transmission device and video transmission / reception playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005095674A JP4510678B2 (en) 2005-03-29 2005-03-29 Video transmission device and video transmission / reception playback device

Publications (2)

Publication Number Publication Date
JP2006279550A true JP2006279550A (en) 2006-10-12
JP4510678B2 JP4510678B2 (en) 2010-07-28

Family

ID=37213822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005095674A Expired - Fee Related JP4510678B2 (en) 2005-03-29 2005-03-29 Video transmission device and video transmission / reception playback device

Country Status (1)

Country Link
JP (1) JP4510678B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010103746A1 (en) * 2009-03-12 2010-09-16 Canon Kabushiki Kaisha Communication apparatus and control method therefor
JP2011527546A (en) * 2008-07-10 2011-10-27 ラドヴィジョン リミテッド System, method and medium for providing selectable video using scalable video coding
JP2012095053A (en) * 2010-10-26 2012-05-17 Toshiba Corp Stream transmission system, transmitter, receiver, stream transmission method, and program
JP2013197998A (en) * 2012-03-21 2013-09-30 Toshiba Corp Server terminal, screen transfer system, and screen transfer method
JP2013219763A (en) * 2012-03-15 2013-10-24 Toshiba Corp Rate optimization for scalable video transmission
US8953694B2 (en) 2009-03-12 2015-02-10 Canon Kabushiki Kaisha Communication apparatus and control method therefor
JP2015073274A (en) * 2013-10-03 2015-04-16 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Apparatus and method for compact bit-plane data compression
JP2015177440A (en) * 2014-03-17 2015-10-05 富士通株式会社 Moving image transmission system, moving image encoder, moving image decoder, computer program for coding moving image, and computer program for decoding moving image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62272632A (en) * 1986-05-20 1987-11-26 Fujitsu Ltd Division and transmission equipment for television signal
JP2001094980A (en) * 1999-09-21 2001-04-06 Sharp Corp Data processor
WO2004032517A1 (en) * 2002-10-04 2004-04-15 Koninklijke Philips Electronics N.V. Method and system for improving transmission efficiency using multiple-description layered encoding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62272632A (en) * 1986-05-20 1987-11-26 Fujitsu Ltd Division and transmission equipment for television signal
JP2001094980A (en) * 1999-09-21 2001-04-06 Sharp Corp Data processor
WO2004032517A1 (en) * 2002-10-04 2004-04-15 Koninklijke Philips Electronics N.V. Method and system for improving transmission efficiency using multiple-description layered encoding

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527546A (en) * 2008-07-10 2011-10-27 ラドヴィジョン リミテッド System, method and medium for providing selectable video using scalable video coding
WO2010103746A1 (en) * 2009-03-12 2010-09-16 Canon Kabushiki Kaisha Communication apparatus and control method therefor
CN102349295A (en) * 2009-03-12 2012-02-08 佳能株式会社 Communication apparatus and control method therefor
CN102349295B (en) * 2009-03-12 2014-04-23 佳能株式会社 Communication apparatus and control method therefor
US8953694B2 (en) 2009-03-12 2015-02-10 Canon Kabushiki Kaisha Communication apparatus and control method therefor
JP2012095053A (en) * 2010-10-26 2012-05-17 Toshiba Corp Stream transmission system, transmitter, receiver, stream transmission method, and program
JP2013219763A (en) * 2012-03-15 2013-10-24 Toshiba Corp Rate optimization for scalable video transmission
JP2013197998A (en) * 2012-03-21 2013-09-30 Toshiba Corp Server terminal, screen transfer system, and screen transfer method
JP2015073274A (en) * 2013-10-03 2015-04-16 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Apparatus and method for compact bit-plane data compression
JP2015177440A (en) * 2014-03-17 2015-10-05 富士通株式会社 Moving image transmission system, moving image encoder, moving image decoder, computer program for coding moving image, and computer program for decoding moving image

Also Published As

Publication number Publication date
JP4510678B2 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
JP4510678B2 (en) Video transmission device and video transmission / reception playback device
US7558325B2 (en) System and process for broadcast and communication with very low bit-rate bi-level or sketch video
AU731906B2 (en) Image signal multiplexing apparatus and methods, image signal demultiplexing apparatus and methods, and transmission media
KR100197385B1 (en) Motion video compression system with buffer empty/fill look-ahead bit allocation
KR100417932B1 (en) Image encoder, image encoding method, image decoder, image decoding method, and distribution media
US20050041739A1 (en) System and process for broadcast and communication with very low bit-rate bi-level or sketch video
US20120057788A1 (en) Image processing apparatus and method
JP4708263B2 (en) Image decoding apparatus and image decoding method
KR100952185B1 (en) System and method for drift-free fractional multiple description channel coding of video using forward error correction codes
WO2010035505A1 (en) Method for encoding moving picture and moving picture encoding device
WO2002005541A2 (en) Method and apparatus for improved efficiency in transmission of fine granular scalable selective enhanced images
EP1531628A2 (en) Scalable video coding
US20050244068A1 (en) Encoding method, decoding method, encoding device, and decoding device
JP2006295449A (en) Rate converting method and rate converter
US20110317066A1 (en) Interactive System and Method for Transmitting Key Images Selected from a Video Stream Over a Low Bandwidth Network
WO2007007923A1 (en) Apparatus for encoding and decoding multi-view image
JP2010118795A (en) System for encoding parallel-distribution information source, and method of encoding/decoding parallel-distribution information source
van der Vleuten et al. Low-complexity scalable DCT image compression
JP4175565B2 (en) Image transmission device
Meessen et al. WCAM: smart encoding for wireless surveillance
KR100802180B1 (en) Method for controlling bit rate of MPEG-4 video signal according to dynamic network variation
US7471723B2 (en) Error concealment and error resilience
Yüksel Partial encryption of video for communication and storage
Hou et al. Region of Interest Coding for JPEG2000
Nguyen Rate control based on human visual perception characteristics and its application in encoding time-lapse video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100430

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees