JP2007259149A - Encoding method - Google Patents

Encoding method Download PDF

Info

Publication number
JP2007259149A
JP2007259149A JP2006081678A JP2006081678A JP2007259149A JP 2007259149 A JP2007259149 A JP 2007259149A JP 2006081678 A JP2006081678 A JP 2006081678A JP 2006081678 A JP2006081678 A JP 2006081678A JP 2007259149 A JP2007259149 A JP 2007259149A
Authority
JP
Japan
Prior art keywords
unit
roi
region
frame
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006081678A
Other languages
Japanese (ja)
Other versions
JP4703449B2 (en
Inventor
Yoshihiro Matsuo
義裕 松尾
Shigeyuki Okada
茂之 岡田
Shinichiro Okada
伸一郎 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006081678A priority Critical patent/JP4703449B2/en
Publication of JP2007259149A publication Critical patent/JP2007259149A/en
Application granted granted Critical
Publication of JP4703449B2 publication Critical patent/JP4703449B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem of deterioration of encoding efficiency when a macro-block of reference place through movement prediction is shifted out of a ROI region. <P>SOLUTION: A ROI region is traced by a ROI tracing unit 64, and positional information of ROI region in an encoding objective frame is held in a ROI information holding unit 67. In a movement research unit 66, an objective macro-block of the encoding objective frame is subjected to movement research, and the reference macro-block is specified at the reference frame. In a ROI inside and outside decision unit 68, the position information of ROI region of the reference frame is acquired from the ROI information holding unit 67. It is determined whether the reference macro-block detected by the movement research unit 66 is located in the ROI region of the reference frame or not. If at least part of the reference macro-block is located outside the ROI region of the reference frame, pixels outside the ROI region of the reference frame out of pixels in the reference macro-block are filled up by a padding unit 70 using pixel data of the reference macro-block in the ROI region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像を符号化する符号化方法、特に動画像を領域毎に符号化する符号化方法に関する。   The present invention relates to an encoding method for encoding an image, and more particularly to an encoding method for encoding a moving image for each region.

ブロードバンドネットワークが急速に発展しており、高品質な動画像を利用したサービスに期待が集まっている。また、DVDなど大容量の記録媒体が利用されており、高画質の画像を楽しむユーザ層が広がっている。動画像を通信回線で伝送したり、記録媒体に蓄積するために不可欠な技術として圧縮符号化がある。動画像圧縮符号化技術の国際標準として、MPEG4の規格やH.264/AVC規格がある。また、1つのストリームで、符号量に応じて、異なる画質(たとえば高画質と低画質)、異なる解像度(たとえば高解像度と低解像度)、異なるフレームレート(たとえば高フレームレートと低フレームレート)の画像の圧縮および伸長を実現することのできる、H.264/AVCの拡張として規格化が進められているSVC(Scalable Video Coding)のような次世代画像圧縮技術がある。   Broadband networks are rapidly developing, and there are high expectations for services that use high-quality moving images. In addition, a large-capacity recording medium such as a DVD is used, and a user group who enjoys high-quality images is expanding. There is compression coding as an indispensable technique for transmitting moving images via a communication line or storing them in a recording medium. As an international standard for moving image compression coding technology, the MPEG4 standard and H.264 standard. There is a H.264 / AVC standard. Also, in one stream, images with different image quality (for example, high and low image quality), different resolution (for example, high and low resolution), and different frame rates (for example, high and low frame rates) depending on the code amount H. can be compressed and decompressed. There is a next-generation image compression technique such as SVC (Scalable Video Coding), which is being standardized as an extension of H.264 / AVC.

次世代画像圧縮技術であるSVCでは、動画像を複数の異なる解像度、フレームレート、画質で再生することができるように、空間スケーラビリティ、時間スケーラビリティ、SNRスケーラビリティなどの各種スケーラビリティをもたせて動画像を符号化する。これらのスケーラビリティを任意に組み合わせて符号化することも可能であり、SVCのスケーラビリティ機能は柔軟性に富んでいる。   SVC, the next-generation image compression technology, encodes moving images with various scalability such as spatial scalability, temporal scalability, and SNR scalability so that moving images can be played at multiple different resolutions, frame rates, and image quality. Turn into. Coding can be performed by arbitrarily combining these scalability, and the scalability function of SVC is very flexible.

画像の注目領域(Region of Interest;ROI)を他の領域とは異なる画質で符号化する技術としてROI符号化がある。また、SVCにおいては、インタラクティブROI(Interactive Region of Interest;IROI)符号化が要求仕様(Requirements)の1つに挙げられている。SVCのインタラクティブROI符号化は、動画像の再生時にユーザが画像を見ながら画面上で注目領域の位置やサイズを逐次指定可能であり、注目領域を異なる品質で再生することを可能にするものである。SVCでは動画像を各種のスケーラビリティをもたせて符号化するため、再生時にユーザが指定した注目領域を他の領域とは異なる品質で復号することが可能である。   ROI coding is a technique for coding a region of interest (ROI) of an image with a different image quality from other regions. In SVC, interactive ROI (Interactive Region of Interest; IROI) coding is listed as one of the requirements. The SVC interactive ROI encoding allows the user to successively specify the position and size of the attention area on the screen while viewing the image, and enables the attention area to be reproduced with different quality. is there. In SVC, since a moving image is encoded with various scalability, it is possible to decode a region of interest designated by the user at the time of reproduction with a quality different from that of other regions.

動画像の圧縮符号化では、動き補償が行われる。特許文献1には、前フレームの重要領域の範囲内で、符号化対象のフレームの分割領域毎に相関性が高い画素集合を探索し、各分割領域のデータと、探索した画素集合のデータとの差分を取るフレーム間予測手段を設けた動画像符号化装置が開示されている。
特開2006−14086号公報
In compression encoding of a moving image, motion compensation is performed. In Patent Document 1, a pixel set having high correlation is searched for each divided region of the encoding target frame within the important region of the previous frame, and data of each divided region, data of the searched pixel set, and There is disclosed a moving picture coding apparatus provided with inter-frame prediction means for taking the difference between the two.
JP 2006-14086 A

注目領域を符号化する際、注目領域内の画素データをバッファに格納し、注目領域内でマクロブロック単位で動きベクトルを検出することになる。仮に動きベクトルの参照先が注目領域から外れてしまうと、バッファには注目領域内の画素データしか保持されていないため、参照先の画素データが得られない。動きベクトルの探索範囲を注目領域内に限定することもできるが、動き探索の精度が落ちるため符号効率が悪化し、画質の低下を招く。   When encoding a region of interest, pixel data in the region of interest is stored in a buffer, and a motion vector is detected in units of macroblocks in the region of interest. If the reference destination of the motion vector deviates from the attention area, only the pixel data in the attention area is held in the buffer, and the reference destination pixel data cannot be obtained. Although the motion vector search range can be limited to the region of interest, the accuracy of the motion search is reduced, so that the coding efficiency is deteriorated and the image quality is lowered.

本発明はこうした状況に鑑みてなされたもので、その目的は、動き補償により動画像を符号化する際、画質を向上させることのできる符号化技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide an encoding technique capable of improving the image quality when encoding a moving image by motion compensation.

上記課題を解決するために、本発明のある態様の符号化方法は、動画像を構成するピクチャ上に独立に符号化される領域を設け、符号化対象ピクチャにおける前記領域内の符号化対象ブロックを動き探索した際の参照先ブロックが参照ピクチャにおいて前記領域内にあるか否かを判定し、前記参照先ブロックの少なくとも一部が前記参照ピクチャにおいて前記領域外にある場合、前記領域内にある前記参照先ブロックの画素データを用いて前記領域外にある前記参照先ブロックの画素を生成した上で、動き予測を行う。   In order to solve the above-described problem, an encoding method according to an aspect of the present invention provides a region to be encoded independently on a picture constituting a moving image, and an encoding target block in the region in the encoding target picture. It is determined whether or not the reference block when the motion search is performed is in the area in the reference picture, and if at least a part of the reference block is outside the area in the reference picture, the block is in the area Motion prediction is performed after the pixels of the reference block outside the region are generated using the pixel data of the reference block.

ここでピクチャは符号化の単位であり、その概念にはフレーム、フィールド、VOP(Video Object Plane)などを含む。   Here, a picture is a unit of coding, and its concept includes a frame, a field, a VOP (Video Object Plane), and the like.

この態様によると、動画像上に異なる画質で符号化される領域を設けて符号化する際、動き探索による参照先が領域の外部に外れた場合でも、参照先の画素を領域内の画素データを用いて生成して参照画像を生成することができるため、動き補償予測により符号化された動画像の画質が向上する。   According to this aspect, when encoding is performed by providing a region to be encoded with different image quality on the moving image, even if the reference destination by the motion search is outside the region, the reference destination pixel is converted into pixel data within the region. Since the reference image can be generated by using the image, the image quality of the moving image encoded by the motion compensation prediction is improved.

前記独立に符号化される領域は、他の領域とは異なる品質で符号化されてもよい。異なる品質で符号化するとは、空間解像度、フレームレート、画質レベル、SNRレベルなどを異ならせて符号化することを含む。   The independently encoded region may be encoded with a quality different from other regions. Encoding with different quality includes encoding with different spatial resolution, frame rate, image quality level, SNR level and the like.

前記独立に符号化される領域のピクチャ間での移動を追跡し、追跡された前記参照ピクチャにおける当該領域内に前記参照先ブロックがあるか否かを判定し、追跡された前記参照ピクチャにおける当該領域の位置情報を前記動画像の符号化データに含めてもよい。前記領域のピクチャ間での移動の追跡は、動き探索により行われてもよく、領域内にあるべき特定のオブジェクトを抽出することにより行われてもよい。動画像上に設定された領域そのものが移動する場合に、領域を追跡して動き補償を行うことができる。また、追跡された領域の位置情報が符号化データに含まれるため、復号側で参照先ブロックが追跡された領域から外れるかどうかの判定を容易に行うことができる。   Track movement between pictures of the independently encoded region, determine whether the reference block is in the region in the tracked reference picture, and track the reference block in the tracked reference picture The position information of the area may be included in the encoded data of the moving image. Tracking movement of the region between pictures may be performed by motion search or by extracting a specific object that should be in the region. When the region itself set on the moving image moves, the region can be tracked for motion compensation. Further, since the position information of the tracked area is included in the encoded data, it is possible to easily determine whether or not the reference block is out of the tracked area on the decoding side.

前記参照先ブロックの全体が前記参照ピクチャにおいて前記独立に符号化される領域外にある場合、前記参照先ブロックに最も近い、前記参照ピクチャにおける前記独立に符号化される領域内の画素データを用いて前記参照先ブロックの画素を生成してもよい。あるいは、前記参照先ブロックの全体が前記参照ピクチャにおいて前記領域外にある場合、前記参照先ブロックに最も近い、前記参照ピクチャにおける前記領域内の画素と前記参照先ブロックの少なくとも一部が重複するように前記参照先ブロックを移動させ、動き探索の参照先が移動後の参照先ブロックを指すように変更してもよい。このように移動させた後の参照先ブロックについては、参照先ブロックの少なくとも一部は前記参照ピクチャにおいて前記領域と重複するため、前記領域内にある前記参照先ブロックの画素データを用いて前記領域外にある前記参照先ブロックの画素を生成することができる。   When the entire reference destination block is outside the independently encoded region in the reference picture, pixel data in the independently encoded region in the reference picture that is closest to the reference destination block is used. Thus, the pixels of the reference block may be generated. Alternatively, when the entire reference destination block is outside the area in the reference picture, the pixels in the area in the reference picture closest to the reference destination block overlap with at least a part of the reference destination block. The reference block may be moved so that the reference destination of the motion search indicates the reference block after the movement. With respect to the reference block after being moved in this way, at least part of the reference block overlaps the area in the reference picture, so that the area using the pixel data of the reference block in the area Pixels of the reference block outside can be generated.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、動き補償を用いた動画像の符号化および復号において、動画像の画質を高めることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the encoding and decoding of a moving image using motion compensation, the image quality of a moving image can be improved.

実施の形態1
図1は、実施の形態1に係る符号化装置100の構成図である。これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
Embodiment 1
FIG. 1 is a configuration diagram of an encoding apparatus 100 according to Embodiment 1. These configurations can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer, and in software, it is realized by a program having an image encoding function loaded in the memory. Here, functional blocks realized by the cooperation are depicted. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

本実施の形態の符号化装置100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)によって標準化されたMPEG(Moving Picture Experts Group)シリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって標準化されたH.26xシリーズの規格(H.261、H.262およびH.263)、もしくは両方の標準化機関によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。   The encoding apparatus 100 according to the present embodiment includes an MPEG (Moving Picture Experts Group) series standard (MPEG-1, MPEG, standardized by ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission)). -2 and MPEG-4), standardized by ITU-T (International Telecommunication Union-Telecommunication Standardization Sector), which is an international standard organization for telecommunications. 26x series standards (H.261, H.262 and H.263), or H.264, the latest video compression coding standard standardized jointly by both standards organizations. H.264 / AVC (official recommendation names in both organizations are MPEG-4 Part 10: Advanced Video Coding and H.264 respectively).

MPEGシリーズの規格では、フレーム内符号化を行うフレームをI(Intra)フレーム、過去のフレームを参照フレームとして順方向のフレーム間予測符号化を行うフレームをP(Predictive)フレーム、過去と未来のフレームを参照フレームとして双方向のフレーム間予測符号化を行うフレームをBフレームという。   In the MPEG series standards, I (Intra) frames are used for intra-frame coding, P (Predictive) frames are used for inter-frame predictive coding with a past frame as a reference frame, and past and future frames. A frame that performs bidirectional inter-frame predictive coding using a frame as a reference frame is called a B frame.

一方、H.264/AVCでは、参照フレームとして利用できるフレームは、時間の先後を問わず、過去の2枚のフレームを参照フレームとしてもよく、未来の2枚のフレームを参照フレームとしてもよい。また、参照フレームとして利用できるフレームの枚数も問わず、3枚以上のフレームを参照フレームとして用いることもできる。したがって、MPEG−1/2/4では、Bフレームは双方向予測(Bi-directional prediction)フレームのことを指していたが、H.264/AVCでは、Bフレームは、参照フレームの時間の先後は問わないため、双予測(Bi-predictive prediction)フレームのことを指すことに留意する。   On the other hand, H. In H.264 / AVC, a frame that can be used as a reference frame may be a past two frames as a reference frame or a future two frames as a reference frame regardless of the time. Further, three or more frames can be used as reference frames regardless of the number of frames that can be used as reference frames. Therefore, in MPEG-1 / 2/4, the B frame refers to a Bi-directional prediction frame. Note that in H.264 / AVC, the B frame refers to a bi-predictive prediction frame, since the time of the reference frame does not matter.

なお、実施の形態では、符号化の単位としてフレームを例に挙げて説明するが、符号化の単位はフィールドであってもよい。また、符号化の単位はMPEG−4におけるVOPであってもよい。   In the embodiment, a frame is used as an example of the encoding unit, but the encoding unit may be a field. The unit of encoding may be a VOP in MPEG-4.

符号化装置100は、フレーム単位で動画像の入力を受け取り、動画像を符号化し、符号化ストリームを出力する。   The encoding apparatus 100 receives an input of a moving image in units of frames, encodes the moving image, and outputs an encoded stream.

ブロック生成部10は、入力された動画像のフレームをマクロブロックに分割する。フレームの左上から右下方向の順にマクロブロックが形成される。ブロック生成部10は生成したマクロブロックを差分器12と動き補償予測処理部60に供給する。   The block generation unit 10 divides the input moving image frame into macro blocks. Macroblocks are formed in order from the upper left to the lower right of the frame. The block generation unit 10 supplies the generated macroblock to the differentiator 12 and the motion compensation prediction processing unit 60.

差分器12は、ブロック生成部10から供給されるフレームがIフレームであれば、そのままDCT部20に出力するが、PフレームまたはBフレームであれば、動き補償予測処理部60から供給される予測フレームとの差分を計算してDCT部20に供給する。   If the frame supplied from the block generation unit 10 is an I frame, the difference unit 12 outputs the frame to the DCT unit 20 as it is. However, if the frame is a P frame or a B frame, the difference unit 12 predicts from the motion compensation prediction processing unit 60. The difference from the frame is calculated and supplied to the DCT unit 20.

ROI初期設定部62は、動画像上にROI(Region of Interest)領域を初期設定する。ROI領域は、ユーザが画像上の特定の領域を指定することによって選択されてもよく、画像の中心領域などあらかじめ定まった領域が選択されてもよい。また、人物や文字が映っている領域などの重要領域がROI領域として自動的に抽出されてもよい。   The ROI initial setting unit 62 initializes an ROI (Region of Interest) region on the moving image. The ROI area may be selected by the user specifying a specific area on the image, or a predetermined area such as the center area of the image may be selected. In addition, an important area such as an area in which a person or a character is shown may be automatically extracted as the ROI area.

ROI領域を特徴づけるパラメータには、ROI領域の左上隅の座標値、ROI領域の幅および高さ、他の領域に対するROI領域の相対的な画質レベル、ROI領域の形状などがある。   The parameters characterizing the ROI area include the coordinate value of the upper left corner of the ROI area, the width and height of the ROI area, the relative image quality level of the ROI area with respect to other areas, the shape of the ROI area, and the like.

符号化装置100は、ROI領域を他の領域とは異なる品質で符号化する。たとえば、ROI領域を他の領域とは異なる空間解像度、フレームレート、画質レベル、SNRレベル、あるいはこれらの組み合わせで符号化する。   The encoding apparatus 100 encodes the ROI region with a quality different from that of other regions. For example, the ROI region is encoded with a spatial resolution, a frame rate, an image quality level, an SNR level, or a combination thereof different from other regions.

たとえば、ROI領域を他の領域よりも高画質で符号化する場合、ROI領域については、量子化の際に、異なる量子化テーブルを用いて、適用される量子化ステップを小さくしたり、量子化により切り捨てる下位ビット数を減らすなどにより、有効ビット数を多めに確保することで他の領域よりも高画質で符号化する。また、ROI領域を他の領域よりも高い解像度で符号化してもよい。   For example, when the ROI region is encoded with higher image quality than other regions, the quantization step applied to the ROI region may be reduced by using a different quantization table during quantization. Thus, by encoding a larger number of effective bits, for example, by reducing the number of lower bits that are discarded, encoding is performed with higher image quality than other areas. Further, the ROI area may be encoded with a higher resolution than other areas.

ROI領域は、必ずしも高画質で再生することだけを目的として設定されるとは限られないことに留意する。たとえば、プライバシーを保護する目的では、人物の顔が写っている注目領域を低画質で再生することが必要となる。そこで、プライバシー保護の必要のある領域をROI領域に指定し、あらかじめ他の領域よりは画質を落として符号化することもできる。   Note that the ROI area is not necessarily set only for reproduction with high image quality. For example, for the purpose of protecting privacy, it is necessary to reproduce a region of interest in which a person's face is captured with low image quality. Therefore, it is possible to designate an area requiring privacy protection as the ROI area and encode it with a lower image quality than other areas in advance.

ROI初期設定部62は、動画像に対してROI領域を設定し直してもよい。ここでは、ROI領域の再設定も初期設定に含める。ROI初期設定部62は、初期設定されたROI領域の位置情報を動き補償予測処理部60に与える。   The ROI initial setting unit 62 may reset the ROI area for the moving image. Here, the resetting of the ROI area is also included in the initial setting. The ROI initial setting unit 62 gives the position information of the initially set ROI region to the motion compensation prediction processing unit 60.

動き補償予測処理部60は、フレームバッファ80に格納されている過去または未来のフレームを参照フレームとして利用し、ブロック生成部10から入力されたPフレームまたはBフレームのマクロブロック毎に動き補償を行い、動きベクトルと予測フレームを生成する。動き補償予測処理部60は、生成した動きベクトルを可変長符号化部90に供給し、予測フレームを差分器12と加算器14に供給する。   The motion compensation prediction processing unit 60 uses the past or future frame stored in the frame buffer 80 as a reference frame, and performs motion compensation for each macroblock of the P frame or B frame input from the block generation unit 10. Generate motion vectors and prediction frames. The motion compensated prediction processing unit 60 supplies the generated motion vector to the variable length encoding unit 90 and supplies the prediction frame to the differentiator 12 and the adder 14.

動き補償予測処理部60は、ROI初期設定部62により初期設定されたROI領域を追跡し、ROI領域内の動き探索を行う。動き補償予測処理部60は、符号化対象フレームのROI領域内のマクロブロックについて、動きベクトルにより参照されるマクロブロックがROI領域から外れた場合、後述の例外処理を行う。動き補償予測処理部60は、符号化対象フレームのROI領域の位置情報を可変長符号化部90に与える。   The motion compensation prediction processing unit 60 tracks the ROI region initially set by the ROI initial setting unit 62, and performs a motion search within the ROI region. The motion compensation prediction processing unit 60 performs an exception process to be described later when a macroblock referred to by a motion vector is out of the ROI region for the macroblock in the ROI region of the encoding target frame. The motion compensation prediction processing unit 60 provides the variable length encoding unit 90 with the position information of the ROI region of the encoding target frame.

差分器12は、ブロック生成部10から出力される現在の符号化対象フレームと、動き補償予測処理部60から出力される予測フレームとの差分を求め、DCT部20に出力する。DCT部20は、差分器12から与えられた差分フレームを離散コサイン変換(DCT)し、DCT係数を量子化部30に与える。   The subtractor 12 obtains a difference between the current encoding target frame output from the block generation unit 10 and the prediction frame output from the motion compensation prediction processing unit 60 and outputs the difference to the DCT unit 20. The DCT unit 20 performs a discrete cosine transform (DCT) on the difference frame given from the differentiator 12 and gives a DCT coefficient to the quantization unit 30.

量子化部30は、DCT係数を量子化し、可変長符号化部90に与える。可変長符号化部90は、動き補償予測処理部60から与えられた動きベクトルとともに差分フレームの量子化されたDCT係数を可変長符号化し、符号化ストリームを生成する。可変長符号化部90は、符号化ストリームを生成する際、符号化されたフレームを時間順序に並べ替える処理を行う。   The quantization unit 30 quantizes the DCT coefficient and provides it to the variable length coding unit 90. The variable length coding unit 90 performs variable length coding on the quantized DCT coefficient of the difference frame together with the motion vector supplied from the motion compensated prediction processing unit 60 to generate a coded stream. The variable length encoding unit 90 performs processing of rearranging the encoded frames in time order when generating the encoded stream.

また、可変長符号化部90は、動き補償予測処理部60から与えられたROI領域の位置情報も適宜符号化して符号化ストリームに含める。ROI領域の位置情報は、符号化ストリームのヘッダ部に含めてもよい。符号化ストリームには、ROI領域の位置情報以外の各種パラメータも格納される。   The variable length coding unit 90 also appropriately encodes the position information of the ROI region given from the motion compensation prediction processing unit 60 and includes it in the coded stream. The position information of the ROI area may be included in the header portion of the encoded stream. Various parameters other than the position information of the ROI area are also stored in the encoded stream.

量子化部30は、フレームの量子化されたDCT係数を逆量子化部40に供給する。逆量子化部40は、与えられた量子化データを逆量子化し、逆DCT部50に与え、逆DCT部50は、与えられた逆量子化データを逆離散コサイン変換する。これにより、符号化されたフレームが復元される。復元されたフレームは加算器14に入力される。   The quantization unit 30 supplies the quantized DCT coefficient of the frame to the inverse quantization unit 40. The inverse quantization unit 40 inversely quantizes the supplied quantized data and supplies the quantized data to the inverse DCT unit 50. The inverse DCT unit 50 performs inverse discrete cosine transform on the supplied inverse quantized data. Thereby, the encoded frame is restored. The restored frame is input to the adder 14.

加算器14は、逆DCT部50から供給されるフレームがIフレームであれば、そのままフレームバッファ80に格納する。加算器14は、逆DCT部50から供給されるフレームがPフレームまたはBフレームであれば、それは差分フレームであるため、逆DCT部50から供給された差分フレームと動き補償予測処理部60から供給される予測フレームとを加算することにより、元のフレームを再構築し、フレームバッファ80に格納する。   If the frame supplied from the inverse DCT unit 50 is an I frame, the adder 14 stores it in the frame buffer 80 as it is. If the frame supplied from the inverse DCT unit 50 is a P frame or a B frame, the adder 14 is the difference frame supplied from the inverse DCT unit 50 and supplied from the motion compensation prediction processing unit 60. By adding the predicted frames, the original frame is reconstructed and stored in the frame buffer 80.

フレームバッファ80に格納された再構築フレームは、動き補償予測処理部60による動き補償の参照フレームとして利用される。   The reconstructed frame stored in the frame buffer 80 is used as a reference frame for motion compensation by the motion compensation prediction processing unit 60.

PフレームもしくはBフレームの符号化処理の場合は、上述のように動き補償予測処理部60が動作するが、Iフレームの符号化処理の場合は、動き補償予測処理部60は動作せず、ここでは図示しないが、フレーム内予測が行われる。   In the case of P frame or B frame encoding processing, the motion compensation prediction processing unit 60 operates as described above. However, in the case of I frame encoding processing, the motion compensation prediction processing unit 60 does not operate, and here Then, although not shown, intra-frame prediction is performed.

図2は、動き補償予測処理部60の構成図である。   FIG. 2 is a configuration diagram of the motion compensation prediction processing unit 60.

ROI追跡部64は、ROI初期設定部62により初期設定されたROI領域の位置情報と動き探索部66により検出される動きベクトル情報をもとにして、ROI領域を追跡する。具体的には、ROI領域内のオブジェクトなどの動きを検出し、ROI領域の初期位置からの移動量と移動方向を求め、符号化対象フレームにおけるROI領域の位置を決定する。   The ROI tracking unit 64 tracks the ROI region based on the ROI region position information initialized by the ROI initial setting unit 62 and the motion vector information detected by the motion search unit 66. Specifically, the movement of an object or the like in the ROI area is detected, the movement amount and movement direction from the initial position of the ROI area are obtained, and the position of the ROI area in the encoding target frame is determined.

ROI追跡部64は、符号化対象フレームのROI領域の位置情報(「ROI位置情報」という)を符号化データに含めるために可変長符号化部90に与えるとともに、ROI情報保持部67に保持する。ROI情報保持部67に保持された符号化対象フレームのROI位置情報は、動き補償の際、参照フレームのROI位置情報として利用される。   The ROI tracking unit 64 provides the ROI area position information (referred to as “ROI position information”) of the encoding target frame to the variable length encoding unit 90 for inclusion in the encoded data, and holds it in the ROI information holding unit 67. . The ROI position information of the encoding target frame held in the ROI information holding unit 67 is used as the ROI position information of the reference frame at the time of motion compensation.

ROI追跡部64は、ROI初期設定部62によりROI領域が再設定されるまでは、ROI情報保持部67に保持された直近のROI位置情報をもとにして、それ以降のROI領域の自動追跡を行う。   Until the ROI area is reset by the ROI initial setting section 62, the ROI tracking section 64 automatically tracks the subsequent ROI area based on the latest ROI position information held in the ROI information holding section 67. I do.

動き探索部66は、ブロック生成部10から与えられた符号化対象フレームのマクロブロック(「対象マクロブロック」という)に対して、フレームバッファ80に格納された再構築フレームを参照フレームとして、参照フレーム内をマクロブロック単位で探索し、対象マクロブロックとの差分が最も小さいマクロブロックを参照マクロブロックとして選択する。これにより、対象マクロブロックから参照マクロブロックへの動きを示す動きベクトルが定まる。動き探索部66は、対象マクロブロックの動きベクトルを可変長符号化部90に与える。   The motion search unit 66 uses the reconstructed frame stored in the frame buffer 80 as a reference frame for the macroblock (referred to as “target macroblock”) of the encoding target frame given from the block generation unit 10, The inside is searched in units of macroblocks, and the macroblock having the smallest difference from the target macroblock is selected as the reference macroblock. Thereby, a motion vector indicating the motion from the target macroblock to the reference macroblock is determined. The motion search unit 66 gives the motion vector of the target macroblock to the variable length coding unit 90.

動き探索部66は、符号化対象フレームのROI領域以外の通常領域の対象マクロブロックについては、参照マクロブロックの画素データをそのまま動き予測部72に供給するだけであるが、符号化対象フレームのROI領域内の対象マクロブロックに対しては、参照マクロブロックがROI領域内にない場合には、参照マクロブロックに対して例外処理を施してから、例外処理後の参照マクロブロックを動き予測部72に供給する。   The motion search unit 66 simply supplies the pixel data of the reference macroblock to the motion prediction unit 72 as it is for the target macroblock in the normal region other than the ROI region of the encoding target frame, but the ROI of the encoding target frame. For the target macroblock in the area, if the reference macroblock is not in the ROI area, exception processing is performed on the reference macroblock, and the reference macroblock after the exception processing is sent to the motion prediction unit 72. Supply.

動き探索部66は、ROI領域内の対象マクロブロックについては、その対象マクロブロックに対応する参照マクロブロックの位置情報をROI内外判定部68に与える。ROI内外判定部68は、ROI情報保持部67から参照フレームのROI領域の位置情報を取得し、動き探索部66により検出された参照マクロブロックが参照フレームのROI領域内にあるかどうかを判定する。参照マクロブロックの少なくとも一部が参照フレームのROI領域の外側にある場合、ROI内外判定部68は、例外処理の一例として、パディング部70にパディング処理を実行するよう指示する。   For the target macroblock in the ROI region, the motion search unit 66 gives the position information of the reference macroblock corresponding to the target macroblock to the ROI inside / outside determination unit 68. The ROI inside / outside determination unit 68 acquires the position information of the ROI region of the reference frame from the ROI information holding unit 67 and determines whether the reference macroblock detected by the motion search unit 66 is within the ROI region of the reference frame. . When at least a part of the reference macroblock is outside the ROI area of the reference frame, the ROI inside / outside determination unit 68 instructs the padding unit 70 to execute the padding process as an example of the exception process.

パディング部70は、参照マクロブロック内の画素の内、参照フレームのROI領域の外側にある画素については、ROI領域内にある参照マクロブロックの画素データを用いて補填するパディング処理を行う。これにより動き探索によって検出された参照マクロブロックの少なくとも一部がROI領域から外れた場合であっても、参照マクロブロックの画素データを生成することができる。パディング部70は、パディング処理された参照マクロブロックの画素データを動き予測部72に与える。   The padding unit 70 performs a padding process to compensate pixels outside the ROI area of the reference frame among the pixels in the reference macroblock using the pixel data of the reference macroblock in the ROI area. Thereby, even when at least part of the reference macroblock detected by the motion search is out of the ROI region, the pixel data of the reference macroblock can be generated. The padding unit 70 gives the pixel data of the reference macroblock subjected to the padding process to the motion prediction unit 72.

動き予測部72は、動き探索部66から与えられる参照マクロブロックの画素データの他、パディング部70から与えられるパディング処理後の参照マクロブロックの画素データを適宜用いて、動き補償された予測フレームを生成し、差分器12および加算器14に与える。   The motion prediction unit 72 appropriately uses the pixel data of the reference macroblock after the padding process given from the padding unit 70 in addition to the pixel data of the reference macroblock given from the motion search unit 66 to appropriately generate a motion-compensated prediction frame. It is generated and given to the differentiator 12 and the adder 14.

図3(a)、(b)は、符号化対象フレームの対象マクロブロックと参照フレームの参照マクロブロックの関係を説明する図である。   FIGS. 3A and 3B are diagrams illustrating the relationship between the target macroblock of the encoding target frame and the reference macroblock of the reference frame.

図3(a)には、符号化対象フレーム200のROI領域210が図示されており、図3(b)には、参照フレーム202のROI領域212が図示されている。注目しているオブジェクト230、232が移動するため、それに伴って、ROI領域210、212も2つのフレーム間で移動する。ROI領域210、212の追跡は、ROI追跡部64によりなされる。   3A illustrates the ROI area 210 of the encoding target frame 200, and FIG. 3B illustrates the ROI area 212 of the reference frame 202. Since the focused objects 230 and 232 move, the ROI regions 210 and 212 also move between the two frames. The ROI areas 210 and 212 are tracked by the ROI tracking unit 64.

動き探索部66により検出された動きベクトルにより、符号化対象フレーム200のROI領域210内の対象マクロブロック220が、参照フレーム202の参照マクロブロック222を参照していたとする。図3(b)に示されるように、この参照マクロブロック222の一部は、参照フレーム202のROI領域212の外側にある。   It is assumed that the target macroblock 220 in the ROI area 210 of the encoding target frame 200 refers to the reference macroblock 222 of the reference frame 202 based on the motion vector detected by the motion search unit 66. As shown in FIG. 3B, a part of this reference macroblock 222 is outside the ROI area 212 of the reference frame 202.

この場合、参照フレーム202のROI領域212の外側では、参照フレーム202はROI符号化されていないため、画質の低い画素データしか存在しない。ROI領域212から外れた参照マクロブロック222の画素に対して、仮に、ROI領域212外部のROI符号化されていない画素データを利用して画素値を決めてしまうと、ROI符号化される対象マクロブロック220との間で整合性が取れず、一般には予測誤差が大きくなり、符号化効率が悪化する。   In this case, outside the ROI area 212 of the reference frame 202, since the reference frame 202 is not ROI-encoded, only pixel data with low image quality exists. If a pixel value is determined using pixel data that is not ROI encoded outside the ROI area 212 for the pixel of the reference macroblock 222 that is out of the ROI area 212, the target macro to be ROI encoded Consistency with the block 220 cannot be obtained, and generally, a prediction error becomes large and coding efficiency deteriorates.

そこで、パディング部70により、ROI領域212から外れた参照マクロブロック222の画素については、ROI領域212内部にある参照マクロブロック222の画素データを利用して画素値を補填するパディング処理が行われる。   Therefore, the padding unit 70 performs padding processing for pixel values of the reference macroblock 222 outside the ROI area 212 using pixel data of the reference macroblock 222 inside the ROI area 212 to compensate for the pixel value.

図4(a)〜(c)は、パディング処理の例を説明する図である。図4(a)は、参照マクロブロック222がROI領域212の右端の境界をまたぐ場合を示す。参照マクロブロック222の右半分(斜線で示す)は、ROI領域212の外側にあり、参照マクロブロック222の左半分は、ROI領域212の内側にある。   4A to 4C are diagrams illustrating an example of padding processing. FIG. 4A shows a case where the reference macro block 222 straddles the right end boundary of the ROI region 212. The right half (indicated by diagonal lines) of the reference macroblock 222 is outside the ROI area 212, and the left half of the reference macroblock 222 is inside the ROI area 212.

この場合、参照マクロブロック222の右半分については、ROI領域212の画素データが存在しないため、パディング部70は、ROI領域212内部にある参照マクロブロック222の画素であって、最も外側にある画素のデータをROI領域212外部にある参照マクロブロック222の画素にそのまま複製する。同図に示すように、ROI領域212の右端の画素列a〜gがROI領域212外部にある参照マクロブロック222の画素列に水平右方向にパディングされ、参照マクロブロック222の右半分の画素が補填される。   In this case, since there is no pixel data of the ROI area 212 for the right half of the reference macroblock 222, the padding unit 70 is the pixel of the reference macroblock 222 within the ROI area 212 and the outermost pixel. Are directly copied to the pixels of the reference macroblock 222 outside the ROI area 212. As shown in the figure, the rightmost pixel columns a to g of the ROI region 212 are horizontally padded to the pixel column of the reference macroblock 222 outside the ROI region 212, and the right half pixel of the reference macroblock 222 is To be compensated.

図4(b)は、参照マクロブロック222がROI領域212の上端の境界をまたぐ場合を示し、参照マクロブロック222の上半分は、ROI領域212の外側にあり、参照マクロブロック222の下半分は、ROI領域212の内側にある。この場合、パディング部70は、ROI領域212の上端の画素列a〜gをROI領域212外部にある参照マクロブロック222の画素列に垂直上方向にパディングすることにより、参照マクロブロック222の上半分の画素を補填する。   FIG. 4B shows a case where the reference macroblock 222 crosses the upper boundary of the ROI area 212. The upper half of the reference macroblock 222 is outside the ROI area 212, and the lower half of the reference macroblock 222 is , Inside the ROI region 212. In this case, the padding unit 70 pads the upper half of the reference macroblock 222 by padding the pixel columns a to g at the upper end of the ROI region 212 vertically upward with the pixel columns of the reference macroblock 222 outside the ROI region 212. To fill in the pixels.

図4(c)は、参照マクロブロック222がROI領域212の右上隅の境界をまたぐ場合を示す。この場合、パディング部70は、ROI領域212の上端の画素列a〜dを垂直上方向にパディングし、ROI領域212の右端の画素列d〜gを水平右方向にパディングする。さらに、パディング部70は、ROI領域212の右上隅の画素dを斜め右上方向にパディングする。これにより、ROI領域212からはみ出した参照マクロブロック222の部分の画素がすべて補填される。   FIG. 4C shows a case where the reference macroblock 222 straddles the upper right corner of the ROI area 212. In this case, the padding unit 70 pads the pixel columns a to d at the upper end of the ROI region 212 in the vertical upward direction, and pads the pixel columns d to g at the right end of the ROI region 212 in the horizontal right direction. Further, the padding unit 70 pads the pixel d at the upper right corner of the ROI region 212 in the diagonal upper right direction. As a result, all the pixels in the portion of the reference macroblock 222 that protrudes from the ROI area 212 are compensated.

図5(a)、(b)は、参照マクロブロック222がROI領域212から完全に外れる場合のパディング処理を説明する図である。   FIGS. 5A and 5B are diagrams illustrating padding processing when the reference macroblock 222 is completely removed from the ROI area 212. FIG.

図5(a)のように、参照マクロブロック222全体がROI領域212の右端よりも右側にある場合、パディング部70は、参照マクロブロック222と水平方向の位置が同じROI領域212の右端の画素列a〜gをそのまま参照マクロブロック222の各画素列に複製することにより、参照マクロブロック222のすべての画素を補填する。   As shown in FIG. 5A, when the entire reference macroblock 222 is on the right side of the right end of the ROI area 212, the padding unit 70 determines that the rightmost pixel of the ROI area 212 has the same horizontal position as the reference macroblock 222. By duplicating the columns a to g as they are in the pixel columns of the reference macroblock 222, all the pixels of the reference macroblock 222 are compensated.

別の方法として、参照マクロブロック222全体がROI領域212から外れた場合、パディング部70は、図5(b)に示すように、参照マクロブロック222をROI領域212の最も近い辺に1画素列だけ重複するように移動させる。その上で、パディング部70は、移動後の参照マクロブロック224に対して、図4(a)で説明したように、ROI領域212の右端の画素列a〜gを水平右方向にパディングして、参照マクロブロック224の各画素列を補填する。このとき、動きベクトルの参照先は移動後の参照マクロブロックを指すように変更される。   As another method, when the entire reference macroblock 222 is out of the ROI area 212, the padding unit 70 moves the reference macroblock 222 to the nearest side of the ROI area 212 by one pixel row as shown in FIG. Just move to overlap. Then, the padding unit 70 pads the pixel macros a to g at the right end of the ROI area 212 in the horizontal right direction with respect to the moved reference macroblock 224 as described in FIG. Then, each pixel column of the reference macro block 224 is compensated. At this time, the reference destination of the motion vector is changed to indicate the reference macroblock after the movement.

図6は、動き補償予測処理部60による動き補償予測の手順を説明するフローチャートである。   FIG. 6 is a flowchart for explaining the procedure of motion compensation prediction by the motion compensation prediction processing unit 60.

動き探索部66は、動画像の符号化対象フレームと参照フレームとの間でマクロブロック単位で動きベクトルを検出する(S10)。ROI追跡部64は、動きベクトル情報を利用して動画像の各フレームにおいてROI領域を自動追跡する(S12)。   The motion search unit 66 detects a motion vector for each macroblock between the encoding target frame of the moving image and the reference frame (S10). The ROI tracking unit 64 automatically tracks the ROI region in each frame of the moving image using the motion vector information (S12).

ROI内外判定部68は、符号化対象フレームのROI領域内の対象マクロブロックについて、動きベクトルにより参照される参照マクロブロックが参照フレームのROI領域内にあるかどうかを判定する(S14)。   The ROI inside / outside determination unit 68 determines whether or not the reference macroblock referenced by the motion vector is in the ROI region of the reference frame for the target macroblock in the ROI region of the encoding target frame (S14).

参照マクロブロックがROI領域内にない場合(S14のN)、パディング部70は、パディング処理によりROI領域外の参照マクロブロックの画素を補填し(S16)、ステップS18に進む。参照マクロブロックがROI領域内にある場合(S14のY)、パディング処理をすることなく、ステップS18に進む。動き予測部72は、必要に応じてパディング処理が施された参照マクロブロックを用いて予測フレームを生成する(S18)。   If the reference macroblock is not in the ROI area (N in S14), the padding unit 70 compensates the pixels of the reference macroblock outside the ROI area by the padding process (S16), and proceeds to step S18. If the reference macroblock is in the ROI area (Y in S14), the process proceeds to step S18 without performing the padding process. The motion prediction unit 72 generates a prediction frame using a reference macroblock that has been subjected to padding processing as necessary (S18).

図7は、実施の形態1に係る復号装置300の構成図である。これらの機能ブロックもハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現することができる。   FIG. 7 is a configuration diagram of decoding apparatus 300 according to Embodiment 1. These functional blocks can also be realized in various forms by hardware only, software only, or a combination thereof.

復号装置300は、符号化ストリームの入力を受け取り、符号化ストリームを復号して出力画像を生成する。   The decoding apparatus 300 receives an input of the encoded stream, decodes the encoded stream, and generates an output image.

可変長復号部310は、入力された符号化ストリームを可変長復号し、復号された画像データを逆量子化部320に供給し、動きベクトル情報を動き補償処理部360に供給する。   The variable length decoding unit 310 performs variable length decoding on the input encoded stream, supplies the decoded image data to the inverse quantization unit 320, and supplies motion vector information to the motion compensation processing unit 360.

逆量子化部320は、可変長復号部310により復号された画像データを逆量子化し、逆DCT部330に供給する。逆量子化部320により逆量子化された画像データはDCT係数である。逆DCT部330は、逆量子化部320により逆量子化されたDCT係数を逆離散コサイン変換(IDCT)することにより、元の画像データを復元する。逆DCT部330により復元された画像データは、加算器312に供給される。   The inverse quantization unit 320 inversely quantizes the image data decoded by the variable length decoding unit 310 and supplies the image data to the inverse DCT unit 330. The image data inversely quantized by the inverse quantization unit 320 is a DCT coefficient. The inverse DCT unit 330 restores the original image data by performing inverse discrete cosine transform (IDCT) on the DCT coefficients inversely quantized by the inverse quantization unit 320. The image data restored by the inverse DCT unit 330 is supplied to the adder 312.

加算器312は、逆DCT部330から供給された画像データが、Iフレームである場合、そのIフレームの画像データをそのまま出力するとともに、PフレームやBフレームの予測フレームを生成するための参照フレームとして、フレームバッファ380に格納する。   When the image data supplied from the inverse DCT unit 330 is an I frame, the adder 312 outputs the image data of the I frame as it is and also generates a reference frame for generating a predicted frame of a P frame or a B frame. Is stored in the frame buffer 380.

加算器312は、逆DCT部330から供給された画像データが、Pフレームである場合、その画像データは差分フレームであるから、逆DCT部330から供給された差分フレームと動き補償処理部360から供給される予測フレームを加算することにより、元の画像データを復元し、出力する。   When the image data supplied from the inverse DCT unit 330 is a P frame, the adder 312 receives the difference frame supplied from the inverse DCT unit 330 and the motion compensation processing unit 360 because the image data is a difference frame. By adding the supplied prediction frames, the original image data is restored and output.

動き補償処理部360は、可変長復号部310から供給される動きベクトル情報と、フレームバッファ380に格納された参照フレームを用いて、PフレームまたはBフレームの予測フレームを生成し、加算器312に供給する。   The motion compensation processing unit 360 generates a predicted frame of P frame or B frame using the motion vector information supplied from the variable length decoding unit 310 and the reference frame stored in the frame buffer 380, and sends it to the adder 312. Supply.

動き補償処理部360は、可変長復号部310から各フレームのROI領域の位置情報を取得し、復号対象フレームのROI領域内のマクロブロックについて、動きベクトルにより参照されるマクロブロックがROI領域から外れた場合、符号化装置100の動き補償予測処理部60と同様の例外処理を行う。   The motion compensation processing unit 360 acquires the position information of the ROI area of each frame from the variable length decoding unit 310, and the macroblock referenced by the motion vector is out of the ROI area for the macroblock in the ROI area of the decoding target frame. In such a case, exception processing similar to that performed by the motion compensation prediction processing unit 60 of the encoding device 100 is performed.

図8は、動き補償処理部360の構成図である。   FIG. 8 is a configuration diagram of the motion compensation processing unit 360.

ROI取得部364は、可変長復号部310から復号対象フレームのROI領域の位置情報を取得し、ROI情報保持部367に保持する。ROI情報保持部367に保持された復号対象フレームのROI位置情報は、動き補償の際、参照フレームのROI位置情報として利用される。   The ROI acquisition unit 364 acquires the position information of the ROI area of the decoding target frame from the variable length decoding unit 310 and stores it in the ROI information holding unit 367. The ROI position information of the decoding target frame held in the ROI information holding unit 367 is used as the ROI position information of the reference frame in motion compensation.

動き特定部366は、可変長復号部310から復号対象フレームの動きベクトルを取得し、復号対象フレームの対象マクロブロックに対して、動きベクトルが参照する参照マクロブロックを特定する。   The motion specifying unit 366 acquires the motion vector of the decoding target frame from the variable length decoding unit 310, and specifies the reference macroblock that the motion vector refers to for the target macroblock of the decoding target frame.

動き特定部366は、復号対象フレームのROI領域以外の通常領域の対象マクロブロックについては、参照マクロブロックの画素データをそのまま動き補償部372に供給するだけであるが、復号対象フレームのROI領域内の対象マクロブロックに対しては、参照マクロブロックがROI領域内にない場合には、参照マクロブロックに対して例外処理を施してから、例外処理後の参照マクロブロックを動き補償部372に供給する。   For the target macroblock in the normal region other than the ROI region of the decoding target frame, the motion identification unit 366 only supplies the pixel data of the reference macroblock to the motion compensation unit 372 as it is, but within the ROI region of the decoding target frame. For the target macroblock, if the reference macroblock is not in the ROI area, exception processing is performed on the reference macroblock, and then the reference macroblock after the exception processing is supplied to the motion compensation unit 372. .

動き特定部366は、ROI領域内の対象マクロブロックについては、その対象マクロブロックに対応する参照マクロブロックの位置情報をROI内外判定部368に与える。ROI内外判定部368は、ROI情報保持部367から参照フレームのROI領域の位置情報を取得し、動き特定部366により特定された参照マクロブロックが参照フレームのROI領域内にあるかどうかを判定する。参照マクロブロックの少なくとも一部が参照フレームのROI領域の外側にある場合、ROI内外判定部368は、例外処理の一例として、パディング部370にパディング処理を実行するよう指示する。   For the target macroblock in the ROI area, the motion identification unit 366 gives the position information of the reference macroblock corresponding to the target macroblock to the ROI inside / outside determination unit 368. The ROI inside / outside determination unit 368 acquires the position information of the ROI region of the reference frame from the ROI information holding unit 367 and determines whether the reference macroblock specified by the motion specifying unit 366 is within the ROI region of the reference frame. . When at least a part of the reference macroblock is outside the ROI area of the reference frame, the ROI inside / outside determination unit 368 instructs the padding unit 370 to execute the padding process as an example of exception processing.

パディング部370は、参照マクロブロック内の画素の内、参照フレームのROI領域の外側にある画素については、ROI領域内の画素データを用いて補填するパディング処理を行う。これにより動きベクトルによって特定された参照マクロブロックの少なくとも一部がROI領域から外れた場合であっても、参照マクロブロックの画素データを生成することができる。パディング部370は、パディング処理された参照マクロブロックの画素データを動き補償部372に与える。   The padding unit 370 performs a padding process for compensating for pixels outside the ROI area of the reference frame among the pixels in the reference macroblock using the pixel data in the ROI area. Thereby, even if at least a part of the reference macroblock specified by the motion vector is out of the ROI region, the pixel data of the reference macroblock can be generated. The padding unit 370 gives the pixel data of the reference macroblock subjected to the padding process to the motion compensation unit 372.

パディング部370によるパディング処理は、符号化装置100のパディング部70によるパディング処理と同じである。   The padding process performed by the padding unit 370 is the same as the padding process performed by the padding unit 70 of the encoding device 100.

動き補償部372は、動き特定部366から与えられる参照マクロブロックの画素データもしくは、パディング部370から与えられるパディング処理後の参照マクロブロックの画素データを用いて、動き補償された予測フレームを生成し、加算器312に与える。   The motion compensation unit 372 generates a motion-compensated prediction frame using the pixel data of the reference macroblock given from the motion identifying unit 366 or the pixel data of the reference macroblock after the padding process given from the padding unit 370. To the adder 312.

本実施の形態によれば、ROI領域を指定し、ROI領域を他の領域とは異なる画質で符号化および復号するROI符号化および復号処理において、ROI領域内のマクロブロックについて、動き予測による参照先のマクロブロックがROI領域から外れるようなことがあっても、ROI領域内の画素データを用いてROI領域から外れたマクロブロックの画素を補填することができる。   According to the present embodiment, in ROI encoding and decoding processing that specifies an ROI region and encodes and decodes the ROI region with different image quality from other regions, the macroblock in the ROI region is referred to by motion prediction. Even if the previous macroblock is out of the ROI region, the pixel of the macroblock out of the ROI region can be compensated using the pixel data in the ROI region.

これにより、参照先のマクロブロックがROI領域から外れる場合にも、より正確な予測フレームを生成することが可能となり、動き補償予測による符号化効率の悪化を防ぐとともに、ROI符号化および復号における動画の画質を維持することができる。特に、ROI領域が時間とともに移動する場合、参照先のマクロブロックがROI領域を外れることが多くなるため、本実施の形態で説明したパディング処理の効果が大きくなる。   This makes it possible to generate a more accurate prediction frame even when the reference macroblock is out of the ROI region, and prevents deterioration in encoding efficiency due to motion compensation prediction, as well as moving images in ROI encoding and decoding. Image quality can be maintained. In particular, when the ROI area moves with time, the reference macroblock often deviates from the ROI area, so the effect of the padding process described in this embodiment is increased.

実施の形態2
図9は、実施の形態2に係る符号化装置100の構成図である。実施の形態1と共通する構成については同一符号を付し、説明を適宜省略する。
Embodiment 2
FIG. 9 is a configuration diagram of encoding apparatus 100 according to Embodiment 2. The components common to the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate.

実施の形態1の符号化装置100では、ROI領域からはみ出た参照マクロブロックについては、ROI領域内の画素値で補填するパディング処理が行われた。実施の形態2の符号化装置100では、ROI領域内の画素値によるパディング処理の他に、ROI領域内の画素値でパディングする代わりに、参照マクロブロックの位置にある非ROI領域の画素値で代用する画素代用処理を実行可能であり、符号化効率の面で有利な処理を選択することができる。   In the encoding apparatus 100 according to the first embodiment, the reference macroblock that protrudes from the ROI region is subjected to padding processing that is compensated with the pixel value in the ROI region. In the encoding apparatus 100 according to the second embodiment, in addition to the padding process using the pixel values in the ROI area, the pixel values in the non-ROI area at the position of the reference macroblock are used instead of padding with the pixel values in the ROI area. Substitute pixel substitution processing can be executed, and processing that is advantageous in terms of coding efficiency can be selected.

動き補償予測処理部60は、パディング処理により生成された参照マクロブロックによる予測フレームと、画素代用処理により生成された参照マクロブロックによる予測フレームの両方を生成し、各予測フレームを差分器12と加算器14に供給する。本実施の形態の符号化装置100のDCT部20、量子化部30および可変長符号化部90は、これら2種類の予測フレームをそれぞれ処理し、各予測フレームによる差分符号化データを生成する。   The motion compensation prediction processing unit 60 generates both a prediction frame based on the reference macroblock generated by the padding process and a prediction frame based on the reference macroblock generated by the pixel substitution process, and adds each prediction frame to the differentiator 12. Is supplied to the container 14. The DCT unit 20, the quantization unit 30, and the variable length coding unit 90 of the encoding apparatus 100 according to the present embodiment process these two types of prediction frames, respectively, and generate differentially encoded data based on each prediction frame.

符号量判定部92は、2種類の予測フレームのそれぞれを用いて差分符号化された符号化フレームの符号量を可変長符号化部90から取得し、符号量が少ない方を選択し、符号量が少なくなる方の予測フレームを識別するフラグを可変長符号化部90に与える。可変長符号化部90は、この識別フラグで識別される方の予測フレームによる符号化フレームを採用し、他方の符号化フレームは破棄する。可変長符号化部90は、各符号化フレームにおいていずれの種類の予測フレームを採用したかを示す識別フラグの情報を符号化ストリームに含める。   The code amount determination unit 92 acquires the code amount of the encoded frame differentially encoded using each of the two types of prediction frames from the variable length encoding unit 90, selects the one with the smaller code amount, The variable length coding unit 90 is provided with a flag for identifying a predicted frame with a smaller number of frames. The variable length coding unit 90 employs a coded frame based on the prediction frame identified by the identification flag, and discards the other coded frame. The variable length coding unit 90 includes information on an identification flag indicating which type of prediction frame is adopted in each coded frame in the coded stream.

上記の説明では、符号化対象フレーム単位でパディング処理または画素代用処理のいずれかを選択したが、符号化対象フレーム内のマクロブロック毎にパディング処理または画素代用処理のいずれかを選択してもよく、その場合、マクロブロック毎に識別フラグの情報が設けられ、符号化ストリーム内に符号化される。また、複数の符号化対象フレームを含むグループ単位でパディング処理または画素代用処理のいずれかを選択してもよい。   In the above description, either padding processing or pixel substitution processing is selected for each encoding target frame. However, either padding processing or pixel substitution processing may be selected for each macroblock in the encoding target frame. In this case, information of an identification flag is provided for each macroblock and encoded in the encoded stream. Further, either padding processing or pixel substitution processing may be selected for each group including a plurality of encoding target frames.

図10は、動き補償予測処理部60の構成図である。本実施の形態の動き補償予測処理部60では、パディング部70とは別に代用画素取得部74が設けられる点が、実施の形態1の動き補償予測処理部60とは異なる。   FIG. 10 is a configuration diagram of the motion compensation prediction processing unit 60. The motion compensation prediction processing unit 60 according to the present embodiment is different from the motion compensation prediction processing unit 60 according to the first embodiment in that a substitute pixel acquisition unit 74 is provided in addition to the padding unit 70.

ROI内外判定部68が参照マクロブロックの少なくとも一部が参照フレームのROI領域外にあると判定した場合、パディング部70は、実施の形態1と同様にパディング処理によりROI領域外の参照マクロブロックの画素を補填して参照マクロブロックを生成し、動き予測部72に与える。このパディング処理と並行して、代用画素取得部74は、ROI領域外の参照マクロブロックの画素について、同一位置もしくはその近傍にある非ROI領域の画素値をそのまま利用して参照マクロブロックを生成し、動き予測部72に与える。   When the ROI inside / outside determination unit 68 determines that at least a part of the reference macroblock is outside the ROI region of the reference frame, the padding unit 70 performs the padding processing of the reference macroblock outside the ROI region as in the first embodiment. A reference macroblock is generated by supplementing the pixels, and is provided to the motion prediction unit 72. In parallel with this padding process, the substitute pixel acquisition unit 74 generates a reference macroblock by using the pixel value of the non-ROI area at the same position or in the vicinity of the pixel of the reference macroblock outside the ROI area. To the motion prediction unit 72.

動き予測部72は、実施の形態1と同様に、動き探索部66から与えられる参照マクロブロックの画素データの他、パディング部70から与えられるパディング処理後の参照マクロブロックの画素データを適宜用いて、動き補償された予測フレームを生成する。それとともに、動き予測部72は、動き探索部66から与えられる参照マクロブロックの画素データの他、代用画素取得部74から与えられる非ROI領域の画素による代用処理後の参照マクロブロックの画素データを適宜用いて、動き補償された予測フレームを生成する。動き予測部72は、これら2種類の予測フレームを差分器12および加算器14に与える。   Similar to the first embodiment, the motion prediction unit 72 appropriately uses the pixel data of the reference macroblock after the padding process given from the padding unit 70 in addition to the pixel data of the reference macroblock given from the motion search unit 66. Generate a motion-compensated prediction frame. At the same time, in addition to the pixel data of the reference macroblock given from the motion search unit 66, the motion prediction unit 72 receives the pixel data of the reference macroblock after substitution processing by the pixels in the non-ROI region given from the substitution pixel acquisition unit 74. A motion-compensated prediction frame is generated as appropriate. The motion prediction unit 72 gives these two types of prediction frames to the differentiator 12 and the adder 14.

図11は、実施の形態2に係る復号装置300の構成図である。実施の形態1と共通する構成については同一符号を付し、説明を適宜省略する。   FIG. 11 is a configuration diagram of the decoding apparatus 300 according to the second embodiment. The components common to the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate.

本実施の形態の復号装置300は、切替フラグ取得部390をもつ。切替フラグ取得部390は、参照マクロブロックがROI領域から外れる場合に、符号化においてパディング処理または画素代用処理のいずれを採用したかを示す識別するフラグを取得し、動き補償処理部360に与える。この識別フラグは、フレーム単位、マクロブロック単位、複数のフレームを含むグループ単位のいずれであってもよい。   Decoding apparatus 300 according to the present embodiment has switching flag acquisition section 390. The switching flag acquisition unit 390 acquires an identification flag indicating whether padding processing or pixel substitution processing is employed in encoding when the reference macroblock is out of the ROI region, and provides the flag to the motion compensation processing unit 360. This identification flag may be any of a frame unit, a macroblock unit, and a group unit including a plurality of frames.

動き補償処理部360は、切替フラグ取得部390が取得した識別フラグにより、ROI領域からはみ出る参照マクロブロックについては、パディング処理または画素代用処理のいずれに切り替えて参照マクロブロックを生成し、参照マクロブロックを用いて予測フレームを生成して出力する。   Based on the identification flag acquired by the switching flag acquisition unit 390, the motion compensation processing unit 360 generates a reference macroblock by switching to a padding process or a pixel substitution process for a reference macroblock that protrudes from the ROI region. Is used to generate and output a prediction frame.

図12は、動き補償処理部360の構成図である。本実施の形態の動き補償処理部360では、パディング部370とは別に代用画素取得部374と切替部376が設けられる点が、実施の形態1の動き補償処理部360とは異なる。   FIG. 12 is a configuration diagram of the motion compensation processing unit 360. The motion compensation processing unit 360 of the present embodiment is different from the motion compensation processing unit 360 of the first embodiment in that a substitute pixel acquisition unit 374 and a switching unit 376 are provided in addition to the padding unit 370.

切替部376は、切替フラグ取得部390から得た識別フラグを参照して、パディング部370と代用画素取得部374のどちらかを選択して、選択した方のみが動作するように切替制御する。   The switching unit 376 refers to the identification flag obtained from the switching flag acquisition unit 390, selects either the padding unit 370 or the substitute pixel acquisition unit 374, and performs switching control so that only the selected one operates.

切替部376によりパディング部370に切り替えられた場合、パディング部370は、ROI領域外の参照マクロブロックの画素については、ROI領域内の画素データを用いて補填するパディング処理を行い、パディング処理後の参照マクロブロックの画素データを動き補償部372に与える。切替部376により代用画素取得部374に切り替えられた場合、代用画素取得部374は、ROI領域外の参照マクロブロックの画素について、同一位置もしくはその近傍にある非ROI領域の画素値をそのまま利用する画素代用処理を行い、画素代用処理後の参照マクロブロックの画素データを動き補償部372に与える。   When switching to the padding unit 370 is performed by the switching unit 376, the padding unit 370 performs padding processing to compensate for the pixel of the reference macroblock outside the ROI region using the pixel data in the ROI region. The pixel data of the reference macroblock is given to the motion compensation unit 372. When the switching unit 376 switches to the substitute pixel acquisition unit 374, the substitute pixel acquisition unit 374 uses the pixel values of the non-ROI region at the same position or in the vicinity thereof for the reference macroblock pixels outside the ROI region. Pixel substitution processing is performed, and pixel data of the reference macroblock after pixel substitution processing is given to the motion compensation unit 372.

切替部376の作用により、本実施の形態の符号化装置100においてパディング処理がなされた参照マクロブロックについては、符号化装置100と同様にパディング処理された参照マクロブロックが動き補償に利用される。また、本実施の形態の符号化装置100において画素代用処理がなされた参照マクロブロックについては、同様に画素代用処理された参照マクロブロックが動き補償に利用される。   Due to the action of the switching unit 376, for the reference macroblock that has been subjected to the padding process in the encoding apparatus 100 of the present embodiment, the reference macroblock that has been subjected to the padding process as in the encoding apparatus 100 is used for motion compensation. In addition, for the reference macroblock that has been subjected to the pixel substitution process in the encoding apparatus 100 of the present embodiment, the reference macroblock that has been similarly subjected to the pixel substitution process is used for motion compensation.

本実施の形態によれば、ROI符号化において、ROI領域内のマクロブロックについて、動き予測による参照先のマクロブロックがROI領域から外れる場合、ROI領域内の画素データを用いてパディング処理した場合と、パディング処理によらずに非ROI領域の画素データで代用した場合とを比較して、符号効率の良い方を選択することができる。   According to the present embodiment, in ROI encoding, with respect to macroblocks in the ROI region, when the reference macroblock by motion prediction is out of the ROI region, padding processing is performed using pixel data in the ROI region, and Compared with the case where the pixel data in the non-ROI region is used instead of the padding process, the one with the better code efficiency can be selected.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

上記の説明では、動画像上にROI領域を設けて動き探索を行う際、動き探索の参照先のマクロブロックがROI領域を外れたときの例外処理を説明したが、本発明は、ROI領域という領域分割に限らず、他の要因で領域を分割して領域単位で動き探索を行う場合にも適用することができる。たとえば、動画像を構成するピクチャ内をスライスに分け、スライス単位で画質を異ならせて符号化する場合、動き探索の参照先がスライスの領域を外れたときに同様の例外処理を行ってもよい。   In the above description, exception processing is described when a motion search reference macroblock deviates from the ROI region when a motion search is performed by providing an ROI region on a moving image. However, the present invention is called an ROI region. The present invention is not limited to area division, and can also be applied to a case where an area is divided for other factors and motion search is performed in units of areas. For example, when a picture constituting a moving image is divided into slices and encoded with different image quality in units of slices, the same exception processing may be performed when the motion search reference destination is outside the slice region. .

また、例外処理の一例として、パディング処理を説明したが、これ以外の例外処理を用いてもよい。たとえば、参照先のマクロブロックが参照フレームのROI領域から外れているが、当該参照フレーム以外の他のフレームのROI領域内にある場合は、当該他のフレームのROI領域内の対応する位置の画素で参照先のマクロブロックの画素を補填してもよい。   Further, although the padding process has been described as an example of the exception process, exception processes other than this may be used. For example, if the macroblock of the reference destination is out of the ROI area of the reference frame, but is in the ROI area of another frame other than the reference frame, the pixel at the corresponding position in the ROI area of the other frame In this case, the pixel of the reference macroblock may be supplemented.

実施の形態で述べたROI符号化と動き探索の際の例外処理は、SVCにおけるスケーラブル階層符号化にも同様に適用することができる。スケーラブル階層符号化とは、スケーラビリティをもたせて画像を階層的に符号化することであり、たとえば空間解像度、フレームレートおよび画質レベルなどの動画像の再生品質を異ならせて符号化し、複数の再生品質レベルの符号化データを生成することを含み、このようにしてスケーラブル階層符号化された動画像は、任意の再生品質レベルを選択して復号することができるというスケーラビリティをもつ。SVCではROI領域にスケーラビリティをもたせて階層的に符号化できるため、ROI領域の再生品質を多段階に異ならせて復号することができる。   The exception processing at the time of ROI encoding and motion search described in the embodiment can be similarly applied to scalable hierarchical encoding in SVC. Scalable hierarchical coding is the coding of images hierarchically with scalability. For example, encoding with different playback quality of moving images such as spatial resolution, frame rate and image quality level, and multiple playback qualities. In other words, a moving image that is scalable hierarchically encoded in this manner includes a generation of encoded data of a level, and has scalability that an arbitrary reproduction quality level can be selected and decoded. In SVC, the ROI area can be hierarchically encoded with scalability, so that the reproduction quality of the ROI area can be varied in multiple stages for decoding.

実施の形態1に係る符号化装置の構成図である。1 is a configuration diagram of an encoding apparatus according to Embodiment 1. FIG. 図1の動き補償予測処理部の構成図である。It is a block diagram of the motion compensation prediction process part of FIG. 符号化対象フレームの対象マクロブロックと参照フレームの参照マクロブロックの関係を説明する図である。It is a figure explaining the relationship between the object macroblock of an encoding object frame, and the reference macroblock of a reference frame. パディング処理の例を説明する図である。It is a figure explaining the example of a padding process. 参照マクロブロックがROI領域から完全に外れる場合のパディング処理を説明する図である。It is a figure explaining the padding process in case a reference macroblock completely remove | deviates from a ROI area | region. 図2の動き補償予測処理部による動き補償予測の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the motion compensation prediction by the motion compensation prediction process part of FIG. 実施の形態1に係る復号装置の構成図である。1 is a configuration diagram of a decoding device according to Embodiment 1. FIG. 図7の動き補償処理部の構成図である。It is a block diagram of the motion compensation process part of FIG. 実施の形態2に係る符号化装置の構成図である。FIG. 6 is a configuration diagram of an encoding apparatus according to Embodiment 2. 図9の動き補償予測処理部の構成図である。It is a block diagram of the motion compensation prediction process part of FIG. 実施の形態2に係る復号装置の構成図である。6 is a configuration diagram of a decoding apparatus according to Embodiment 2. FIG. 図11の動き補償処理部の構成図である。It is a block diagram of the motion compensation process part of FIG.

符号の説明Explanation of symbols

10 ブロック生成部、 20 DCT部、 30 量子化部、 40 逆量子化部、 50 逆DCT部、 60 動き補償予測処理部、 62 ROI初期設定部、 64 ROI追跡部、 66 動き探索部、 67 ROI情報保持部、 68 ROI内外判定部、 70 パディング部、 72 動き予測部、 74 代用画素取得部、 80 フレームバッファ、 90 可変長符号化部、 92 符号量判定部、 100 符号化装置、 300 復号装置、 310 可変長復号部、 320 逆量子化部、 330 逆DCT部、 360 動き補償処理部、 364 ROI取得部、 366 動き特定部、 367 ROI情報保持部、 368 ROI内外判定部、 370 パディング部、 372 動き補償部、 374 代用画素取得部、 376 切替部、 380 フレームバッファ、 390 切替フラグ取得部。   10 block generation unit, 20 DCT unit, 30 quantization unit, 40 inverse quantization unit, 50 inverse DCT unit, 60 motion compensation prediction processing unit, 62 ROI initial setting unit, 64 ROI tracking unit, 66 motion search unit, 67 ROI Information holding unit, 68 ROI inside / outside determination unit, 70 padding unit, 72 motion prediction unit, 74 substitute pixel acquisition unit, 80 frame buffer, 90 variable length encoding unit, 92 code amount determination unit, 100 encoding device, 300 decoding device 310 variable length decoding unit, 320 inverse quantization unit, 330 inverse DCT unit, 360 motion compensation processing unit, 364 ROI acquisition unit, 366 motion identification unit, 367 ROI information holding unit, 368 ROI inside / outside determination unit, 370 padding unit, 372 motion compensation unit, 374 substitute pixel acquisition unit, 376 off Department, 380 frame buffer, 390 switching flag obtaining unit.

Claims (6)

動画像を構成するピクチャ上に独立に符号化される領域を設け、符号化対象ピクチャにおける前記領域内の符号化対象ブロックを動き探索した際の参照先ブロックが参照ピクチャにおいて前記領域内にあるか否かを判定し、前記参照先ブロックの少なくとも一部が前記参照ピクチャにおいて前記領域外にある場合、前記領域内にある前記参照先ブロックの画素データを用いて前記領域外にある前記参照先ブロックの画素を生成した上で、動き予測を行うことを特徴とする符号化方法。   Whether an independently encoded region is provided on a picture constituting a moving image, and whether a reference block in the reference picture when the motion search is performed on the encoding target block in the region in the encoding target picture is in the region in the reference picture And if at least a part of the reference block is outside the region in the reference picture, the reference block outside the region using the pixel data of the reference block in the region A coding method characterized by performing motion prediction after generating the pixels. 前記独立に符号化される領域は、他の領域とは異なる品質で符号化されることを特徴とする請求項1に記載の符号化方法。   The encoding method according to claim 1, wherein the independently encoded regions are encoded with a quality different from other regions. 前記独立に符号化される領域のピクチャ間での移動を追跡し、追跡された前記参照ピクチャにおける当該領域内に前記参照先ブロックがあるか否かを判定し、追跡された前記参照ピクチャにおける当該領域の位置情報を前記動画像の符号化データに含めることを特徴とする請求項1または2に記載の符号化方法。   Track movement between pictures of the independently encoded region, determine whether the reference block is in the region in the tracked reference picture, and determine whether the reference block in the tracked reference picture The encoding method according to claim 1 or 2, wherein position information of a region is included in encoded data of the moving image. 前記参照先ブロックの全体が前記参照ピクチャにおいて前記独立に符号化される領域外にある場合、前記参照先ブロックに最も近い、前記参照ピクチャにおける前記独立に符号化される領域内の画素データを用いて前記参照先ブロックの画素を生成することを特徴とする請求項1から3のいずれかに記載の符号化方法。   If the entire reference block is outside the independently encoded region in the reference picture, the pixel data in the independently encoded region in the reference picture that is closest to the reference block is used. 4. The encoding method according to claim 1, wherein a pixel of the reference block is generated. 前記参照先ブロックの少なくとも一部が前記参照ピクチャにおいて前記独立に符号化される領域外にある場合に、前記参照ピクチャにおける当該領域内にある前記参照先ブロックの画素データを用いて当該領域外にある前記参照先ブロックの画素を生成することにより生成される第1の参照先ブロックと、当該領域外にある前記参照先ブロックの画素を前記参照ピクチャにおける当該領域外の対応する位置にある画素で代用することにより生成される第2の参照先ブロックのどちらか一方を選択して動き予測を行い、選択された参照先ブロックを識別する情報を前記動画像の符号化データに含めることを特徴とする請求項1から4のいずれかに記載の符号化方法。   When at least a part of the reference block is outside the independently encoded region in the reference picture, the pixel data of the reference block outside the region is used in the reference picture. A first reference block generated by generating a pixel of the reference block and a pixel of the reference block outside the area are pixels at a corresponding position outside the area in the reference picture. Selecting one of the second reference destination blocks generated by substituting to perform motion prediction, and including information for identifying the selected reference destination block in the encoded data of the moving image The encoding method according to any one of claims 1 to 4. 前記第1の参照先ブロックによる動き予測符号化の符号量と、前記第2の参照先ブロックによる動き予測符号化の符号量とを比較し、符号量がより少なくなる方の参照先ブロックを選択することを特徴とする請求項5に記載の符号化方法。   The code amount of motion prediction encoding by the first reference block is compared with the code amount of motion prediction encoding by the second reference block, and the reference block with the smaller code amount is selected. The encoding method according to claim 5, wherein:
JP2006081678A 2006-03-23 2006-03-23 Encoding method Expired - Fee Related JP4703449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006081678A JP4703449B2 (en) 2006-03-23 2006-03-23 Encoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006081678A JP4703449B2 (en) 2006-03-23 2006-03-23 Encoding method

Publications (2)

Publication Number Publication Date
JP2007259149A true JP2007259149A (en) 2007-10-04
JP4703449B2 JP4703449B2 (en) 2011-06-15

Family

ID=38632912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006081678A Expired - Fee Related JP4703449B2 (en) 2006-03-23 2006-03-23 Encoding method

Country Status (1)

Country Link
JP (1) JP4703449B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004711A1 (en) * 2008-07-11 2010-01-14 Sanyo Electric Co., Ltd. Image processing apparatus and image pickup apparatus using the image processing apparatus
CN102045570A (en) * 2011-01-13 2011-05-04 北京中星微电子有限公司 Picture coding method and device
JP2011517226A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for enhancing the sharpness of an object in a digital picture
JP2011517228A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for improving visibility of objects in digital images
WO2013001730A1 (en) * 2011-06-30 2013-01-03 三菱電機株式会社 Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method
JP2013126232A (en) * 2011-12-16 2013-06-24 Fujitsu Ltd Encoder, decoder, encoding method, decoding method, encoding program and decoding program
CN103702118A (en) * 2014-01-02 2014-04-02 华为技术有限公司 Image processing method and equipment
WO2016098280A1 (en) * 2014-12-16 2016-06-23 日本電気株式会社 Video encoding apparatus, video decoding apparatus and video delivery system
JP2016519517A (en) * 2013-04-08 2016-06-30 ソニー株式会社 Scalability of attention area in SHVC
WO2016158001A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Information processing device, information processing method, program, and recording medium
WO2018225593A1 (en) * 2017-06-05 2018-12-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method and decoding method
JP2019513320A (en) * 2016-03-24 2019-05-23 ノキア テクノロジーズ オーユー Video encoding / decoding apparatus, method and computer program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104581168B (en) * 2015-01-09 2017-08-25 中国科学院声学研究所 A kind of SVC transmission of video dispatching methods predicted based on video quality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262290A (en) * 2000-12-25 2002-09-13 Canon Inc Image processing method and image processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262290A (en) * 2000-12-25 2002-09-13 Canon Inc Image processing method and image processor

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011517226A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for enhancing the sharpness of an object in a digital picture
JP2011517228A (en) * 2008-04-11 2011-05-26 トムソン ライセンシング System and method for improving visibility of objects in digital images
WO2010004711A1 (en) * 2008-07-11 2010-01-14 Sanyo Electric Co., Ltd. Image processing apparatus and image pickup apparatus using the image processing apparatus
CN102090063A (en) * 2008-07-11 2011-06-08 三洋电机株式会社 Image processing apparatus and image pickup apparatus using the image processing apparatus
JP2011527841A (en) * 2008-07-11 2011-11-04 三洋電機株式会社 Image processing apparatus and imaging apparatus using the same
CN102045570A (en) * 2011-01-13 2011-05-04 北京中星微电子有限公司 Picture coding method and device
CN102045570B (en) * 2011-01-13 2016-12-07 北京中星微电子有限公司 A kind of method for encoding images and device
US9503718B2 (en) 2011-06-30 2016-11-22 Mitsubishi Electric Corporation Image coding device, image decoding device, image coding method, and image decoding method
WO2013001730A1 (en) * 2011-06-30 2013-01-03 三菱電機株式会社 Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method
JP2013126232A (en) * 2011-12-16 2013-06-24 Fujitsu Ltd Encoder, decoder, encoding method, decoding method, encoding program and decoding program
KR101972284B1 (en) 2013-04-08 2019-04-24 소니 주식회사 Region of interest scalability with shvc
JP2016519517A (en) * 2013-04-08 2016-06-30 ソニー株式会社 Scalability of attention area in SHVC
KR101852669B1 (en) * 2013-04-08 2018-04-26 소니 주식회사 Region of interest scalability with shvc
KR20180045050A (en) * 2013-04-08 2018-05-03 소니 주식회사 Region of interest scalability with shvc
US10390024B2 (en) 2013-04-08 2019-08-20 Sony Corporation Region of interest scalability with SHVC
CN103702118A (en) * 2014-01-02 2014-04-02 华为技术有限公司 Image processing method and equipment
WO2016098280A1 (en) * 2014-12-16 2016-06-23 日本電気株式会社 Video encoding apparatus, video decoding apparatus and video delivery system
US10531040B2 (en) 2015-03-30 2020-01-07 Sony Corporation Information processing device and information processing method to improve image quality on a large screen
WO2016158001A1 (en) * 2015-03-30 2016-10-06 ソニー株式会社 Information processing device, information processing method, program, and recording medium
JP2019513320A (en) * 2016-03-24 2019-05-23 ノキア テクノロジーズ オーユー Video encoding / decoding apparatus, method and computer program
US10863182B2 (en) 2016-03-24 2020-12-08 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding of a monoscopic picture
WO2018225593A1 (en) * 2017-06-05 2018-12-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Coding device, decoding device, coding method and decoding method
US11166020B2 (en) 2017-06-05 2021-11-02 Panasonic Intellectual Property Corporation Of America Encoder that determines an interpolation method for interpolating a pixel located outside of a referable region including a block in a reconstructed image
US11671593B2 (en) 2017-06-05 2023-06-06 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method

Also Published As

Publication number Publication date
JP4703449B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
JP4703449B2 (en) Encoding method
EP3672249B1 (en) Inter frame prediction method and device for video images
KR100886191B1 (en) Method for decoding an image block
JP5061179B2 (en) Illumination change compensation motion prediction encoding and decoding method and apparatus
US20070047649A1 (en) Method for coding with motion compensated prediction
JP2006279573A (en) Encoder and encoding method, and decoder and decoding method
JP4401336B2 (en) Encoding method
US7961788B2 (en) Method and apparatus for video encoding and decoding, and recording medium having recorded thereon a program for implementing the method
JP5090158B2 (en) VIDEO INFORMATION RECORDING DEVICE, VIDEO INFORMATION RECORDING METHOD, VIDEO INFORMATION RECORDING PROGRAM, AND RECORDING MEDIUM CONTAINING VIDEO INFORMATION RECORDING PROGRAM
PT1449383E (en) Global motion compensation for video pictures
KR20140085515A (en) Efficient storage of motion information for high efficiency video coding
JP2007081720A (en) Coding method
JP2008011455A (en) Coding method
JP2007174568A (en) Encoding method
JP2007104231A (en) Transcoder, recording apparatus, transcode method
JP2007266749A (en) Encoding method
JP2007235314A (en) Coding method
JP2007036888A (en) Coding method
JP4660408B2 (en) Encoding method
JP2011250400A (en) Moving picture encoding apparatus and moving picture encoding method
JP2010193401A (en) Image encoding method and apparatus
JP2007036889A (en) Coding method
JP2007228560A (en) Moving picture coding method and moving picture coding device
JP4209134B2 (en) Method and apparatus for upsampling a compressed bitstream
JP2006246277A (en) Re-encoding apparatus, re-encoding method, and re-encoding program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110308

R151 Written notification of patent or utility model registration

Ref document number: 4703449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees