WO2011121731A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2011121731A1
WO2011121731A1 PCT/JP2010/055712 JP2010055712W WO2011121731A1 WO 2011121731 A1 WO2011121731 A1 WO 2011121731A1 JP 2010055712 W JP2010055712 W JP 2010055712W WO 2011121731 A1 WO2011121731 A1 WO 2011121731A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target block
processing target
unit
motion vector
Prior art date
Application number
PCT/JP2010/055712
Other languages
English (en)
French (fr)
Inventor
三好 秀誠
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2012507956A priority Critical patent/JP5522252B2/ja
Priority to KR1020127025639A priority patent/KR101380460B1/ko
Priority to CN201080065869.4A priority patent/CN102823247B/zh
Priority to PCT/JP2010/055712 priority patent/WO2011121731A1/ja
Publication of WO2011121731A1 publication Critical patent/WO2011121731A1/ja
Priority to US13/612,063 priority patent/US9036918B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Definitions

  • the present invention relates to an image processing apparatus and an image processing method.
  • first encoded information obtained by encoding image information using inter prediction is used, and a motion vector of the first encoded information is used.
  • a technique for transcoding two encoded information for example, when the motion vector of the first encoded information cannot be reused, the prediction mode of the block to be encoded is changed from inter prediction to intra prediction (intra-screen prediction) based on the prediction mode of surrounding blocks. )
  • the prediction mode of the encoding target macroblock is selected from the same prediction modes as those of the adjacent encoded macroblock and the macroblock in the immediately preceding image corresponding to the non-encoded adjacent macroblock.
  • the prediction mode of the encoding target macroblock is selected from the same prediction modes as those of the adjacent encoded macroblock and the macroblock in the immediately preceding image corresponding to the non-encoded adjacent macroblock.
  • there is technology to do Further, there is a technique for estimating a motion vector for a frame or field to be interpolated using a motion vector between frames or between fields, and generating a pixel of the
  • a system that encodes a moving image using inter prediction the following processing is performed in a device that transmits moving image data.
  • Motion vector data representing the motion from the past reference image to the encoding target image is generated.
  • a predicted image of the encoding target image is generated from the reference image using the motion vector data.
  • Difference data between the predicted image and the actual encoding target image is generated.
  • the difference data and motion vector data are encoded and transmitted.
  • the decoding target image is reproduced using the received motion vector data and difference data.
  • the encoding and decoding processes at this time are performed in units of blocks obtained by dividing an original image of one frame into a plurality of blocks (macroblocks).
  • One of the moving image display methods is an interlace method in which an image of one frame is divided into a field composed of odd-numbered scanning lines and a field composed of even-numbered scanning lines, and these fields are displayed alternately.
  • the interlace method there are a plurality of reference image candidates for an encoding target image, and an appropriate reference image is selected from them. Each reference image candidate is assigned an index number.
  • a field positioned spatially on the upper side may be referred to as a top field
  • a field positioned spatially on the lower side may be referred to as a bottom field.
  • FIG. 9 is a diagram for explaining how index numbers are assigned to reference image candidates.
  • the index number refIdxL0 is assigned to the reference image candidate 2 set to the latest same field type, that is, the top field Pt1. 0 is attached.
  • An index number of 1 is assigned to the reference image candidate 3 which is the latest different field type for the image 1 of the encoding target block, that is, Pb1 of the bottom field.
  • Ptn and Pbn indicate images of the top field and the bottom field, respectively.
  • the Ptn image and the Pbn image are images included in the same frame.
  • parity The case where fields are spatially on the same side above and below, such as top field and top field, is called the same parity, and the case where fields are spatially on different sides above and below, such as top field and bottom field, is different.
  • parity Sometimes called parity.
  • the index number 2 is assigned to the reference image candidate 4 which is the next closest Pt2 in the same parity.
  • the index number 3 is assigned to the reference image candidate 5 which is the next closest Pb2 in the different parity. In this way, starting from the image with the same parity, the index numbers are alternately assigned to the image with the same parity and the image with the different parity, in the order closer to the encoding target block. The same applies when the image of the encoding target block is a bottom field image.
  • the reference index is 0 on the decoding side. I know that there is. Therefore, since the reference index can be omitted for encoding, the encoding efficiency is improved as compared with the case where the reference index is also encoded.
  • ITU-T H.264 which is one of the standards for moving picture coding systems.
  • macroblocks called P8 ⁇ 8ref0 and P_SKIP are prepared for encoding with the reference index omitted.
  • P8 ⁇ 8ref0 and P_SKIP are prepared for encoding with the reference index omitted.
  • P8 ⁇ 8ref0 and P_SKIP are selected as many P8 ⁇ 8ref0 and P_SKIP as possible.
  • ITU-T is an abbreviation for International Telecommunication Union Telecommunication Standardization Sector (International Telecommunication Union Telecommunication Standardization Sector).
  • ISO International Organization for Standardization.
  • IEC stands for International Electrotechnical Commission (International Electrotechnical Commission).
  • MPEG-4 is an abbreviation for Moving Picture Experts Group phase 4.
  • AVC is an abbreviation for Advanced Video Coding.
  • the image of the block to be encoded is often different from the latest image of the same parity in both the top field and the bottom field.
  • this is an IBBP structure in which a GOP (Group Of Pictures) structure is an I picture (not shown in the figure) or two B pictures are sandwiched between a P picture and a P picture. In such a case, it becomes remarkable.
  • motion compensation prediction an image of the same picture type as the image to be encoded is used as a reference image.
  • the P picture image in the latest bottom field with respect to this Pb0 is the image 12 designated as Pb1. Since this Pb1 is 6 field hours away from the Pb0 image, there is a risk that the pattern will change greatly during the transition from Pb1 to Pb0.
  • the image 13 of the P picture in the most recent top field designated Pt0 is only one field time away from Pb0. Therefore, the change in the picture when the time is one field time is small compared to the case where the distance is six field times.
  • the closest different parity image is more recent than the closest same parity image. The time away from the image is short.
  • the reference index is 1, P8 ⁇ 8ref0 and P_SKIP described above are not selected.
  • the above-described problem is not limited to a stationary scene and a moving scene, but also applies to a stationary area (stationary area) and a moving area (moving area) in the screen. That is, as shown in FIG. 11, in the still region 21, the latest image of the same parity tends to be selected as the reference image, and in the moving region 22, the image of the latest different parity is selected as the reference image. It is in. Therefore, in the moving area 22, the above-described P8 ⁇ 8ref0 and P_SKIP are not selected. As described above, in the conventional encoding technique, it is difficult to select a macroblock type that can be encoded with the reference index omitted, so that the encoding efficiency is deteriorated.
  • This image processing apparatus and image processing method is intended to improve the efficiency of encoding in image processing of moving images.
  • the image processing apparatus divides one frame into a plurality of fields displayed at different timings.
  • the image processing apparatus divides each field image into a plurality of blocks.
  • the image processing apparatus performs motion compensation prediction based on a reference image selected from a plurality of past reference image candidates for each block and a motion vector for the reference image.
  • the image processing apparatus includes an intra mode determination unit, a motion vector determination unit, and a reference index determination unit.
  • the intra mode determination unit determines whether the encoding modes of a plurality of adjacent blocks adjacent to the processing target block are all intra encoding modes.
  • the motion vector determination unit determines whether the block to be processed belongs to a still region or a motion region when the intra mode determination unit determines that at least one of the adjacent blocks is not in the intra coding mode.
  • the determination is performed based on the motion vector of the adjacent block determined not to be in the intra encoding mode and the reference index indicating the reference image of the adjacent block determined to be not in the intra encoding mode.
  • the reference index determination unit when the intra mode determination unit determines that all adjacent blocks are in the intra coding mode, an index attached to the temporally closest image of a field different from the field to which the processing target block belongs Select a number.
  • the reference index determination unit selects an index number assigned to the closest temporal image of the same field as the field to which the processing target block belongs.
  • the reference index determination unit temporally determines a reference index indicating a reference image of an adjacent block that is determined not to be in the intra coding mode by the intra mode determination unit when it is determined by the motion vector determination unit to belong to the moving region. Select the index number of the reference image closest to. The reference index determination unit determines the selected index number as a reference index indicating a reference image of the processing target block.
  • FIG. 1 is a block diagram illustrating an image processing apparatus according to a first embodiment.
  • 3 is a flowchart illustrating an image processing method according to the first embodiment.
  • FIG. 3 is a block diagram illustrating a hardware configuration of an encoding apparatus according to a second embodiment. It is a block diagram which shows the functional structure of the encoding apparatus concerning Example 2.
  • FIG. FIG. 6 is a block diagram illustrating an image processing apparatus according to a second embodiment. It is a figure explaining the relationship between an encoding object macroblock, an adjacent macroblock, and a reference image.
  • 10 is a flowchart illustrating an image processing method according to the second embodiment.
  • FIG. 10 is a block diagram illustrating a functional configuration of a decoding apparatus according to a third embodiment.
  • An image processing apparatus and an image processing method are provided on the basis of a coding mode of an image of an adjacent block adjacent to a processing target block, a reference index indicating a reference image of the adjacent block, and a motion vector of the adjacent block with respect to the reference image.
  • the reference index indicating the reference image is determined.
  • one frame is divided into a plurality of fields displayed at different timings, for example, a top field and a bottom field.
  • Each field image is divided into a plurality of blocks and processed.
  • the image processing apparatus performs motion compensation prediction based on a reference image selected from a plurality of past reference image candidates for each block and a motion vector for the reference image.
  • FIG. 1 is a block diagram of an image processing apparatus according to the first embodiment.
  • the image processing apparatus includes an intra mode determination unit 31, a motion vector determination unit 32, and a reference index determination unit 33.
  • the intra mode determination unit 31, the motion vector determination unit 32, and the reference index determination unit 33 are realized, for example, when the processor executes a program that causes the processor to execute an image processing method described later. Alternatively, it may be realized by hardware.
  • the intra mode determination unit 31 determines whether or not the encoding modes of a plurality of adjacent blocks adjacent to the processing target block are all intra encoding modes.
  • the motion vector determination unit 32 determines whether the processing target block belongs to a still region or a moving region when the intra mode determination unit 31 determines that at least one of the adjacent blocks is not in the intra coding mode. . This determination is performed based on the motion vector of the adjacent block determined not to be in the intra encoding mode and the reference index indicating the reference image of the adjacent block determined to be not in the intra encoding mode.
  • the reference index determination unit 33 selects the index number assigned to the image of the nearest different parity with respect to the processing target block To do.
  • the reference index determination unit 33 selects the index number assigned to the image with the latest parity for the processing target block.
  • the reference index determination unit 33 includes a reference index indicating a reference image of an adjacent block that is determined not to be in the intra coding mode by the intra mode determination unit 31. Select the index number of the latest reference image.
  • the reference index determination unit 33 determines the selected index number as a reference index indicating the reference image of the processing target block.
  • FIG. 2 is a flowchart of the image processing method according to the first embodiment.
  • the intra mode determination unit 31 sets all the encoding modes of a plurality of adjacent blocks adjacent to the processing target block to the intra coding mode. It is determined whether or not (step S1).
  • the reference index determination unit 33 attaches the latest different parity image as a reference index indicating the reference image of the processing target block. The index number thus selected is selected (step S2). Then, a series of processing for one processing target block ends.
  • the motion vector determination unit 32 determines whether the processing target block belongs to a still area or a moving area. (Step S3). This determination is performed based on the motion vector of the adjacent block determined not to be in the intra encoding mode and the reference index indicating the reference image of the adjacent block determined to be not in the intra encoding mode.
  • the reference index determination unit 33 uses the index attached to the latest image of the same parity as the reference index indicating the reference image of the processing target block. A number is selected (step S4). Then, a series of processing for one processing target block ends.
  • the reference index determining unit 33 determines that the reference index indicating the reference image of the processing target block is not the intra coding mode.
  • the index number assigned to the reference image is selected (step S5).
  • the index number assigned to the latest reference image is selected from the reference images of the corresponding plurality of adjacent blocks. Then, a series of processing for one processing target block ends. The above processing is performed for all the processing target blocks.
  • the reference index of the processing target block is determined based on the encoding mode of the adjacent block, the motion vector of the adjacent block, and the reference index indicating the reference image of the adjacent block. Therefore, by determining the reference index of the processing target block in the same manner at the time of decoding, the same reference index is determined for the same processing target block on the encoding side and the decoding side. Accordingly, the decoding side can perform decoding without notifying the reference side from the encoding side to the decoding side. That is, encoding can be performed by omitting the reference index. In addition, even when the reference index is not 0, an appropriate reference index is determined according to the adjacent block. Therefore, when the reference index is 0, the reference index is used in more blocks than when the reference index can be omitted. It is possible to encode by omitting. Therefore, the encoding efficiency can be improved.
  • the image processing apparatus and the image processing method according to the first embodiment are applied to a moving image encoding apparatus and an encoding method.
  • a moving picture encoding method to which the second embodiment can be applied for example, ITU-T H.264. H.264 / ISO / IEC MPEG-4 AVC and ISO / IEC MPEG-2 / MPEG-4.
  • MPEG-2 is an abbreviation for Moving Picture Experts Group phase 2.
  • FIG. 3 is a block diagram of a hardware configuration of the encoding apparatus according to the second embodiment.
  • the encoding device includes, for example, a CPU (Central Processing Unit) 41, an image processing processor 42, a RAM (Random Access Memory) 43, an HDD (Hard Disk Drive, a hard disk drive). ) 44, a ROM (Read Only Memory) 45, an input device 46, a monitor 47, a medium reading device 48, and a network interface 49. Each component is connected to the bus 50.
  • the HDD 44 stores an image processing program and moving image data in a built-in hard disk.
  • the image processing program is a program for image processing of moving image data, and is read from a removable recording medium by the medium reading device 48 and installed in the hard disk, for example.
  • the moving image data is, for example, data read from a removable recording medium by the medium reading device 48, data received from a network via the network interface 49, or data received from a television broadcast.
  • the RAM 43 is used as a work area for the CPU 41.
  • the RAM 43 stores moving image data read from the HDD 44.
  • the RAM 43 stores the result of image processing by the image processor 42.
  • the image processing processor 42 reads an image processing program from the HDD 44 and executes an image processing process, and performs processing such as encoding and decoding on the moving image data read from the RAM 43.
  • the CPU 41 controls the overall operation of the encoding device.
  • the encoding apparatus according to the second embodiment is realized when the image processor 42 executes an image processing process.
  • the ROM 45 stores a program such as a boot program.
  • the input device 46 includes, for example, a keyboard, a touch panel type input pad, a pointing device such as a mouse, and switches and buttons of operation devices such as a remote controller.
  • the monitor 47 is a device that displays moving images and data such as a CRT (Cathode Ray Tube, CRT) display and a TFT (Thin Film Transistor, thin film transistor) liquid crystal display.
  • the medium reading device 48 controls reading of data including moving image data from a removable recording medium such as a DVD (Digital Versatile Disk, digital versatile disk) or a memory card.
  • the network interface 49 is connected to a network such as the Internet through a communication line, and controls transmission / reception of data including moving image data to / from other devices connected to the network.
  • the network interface 49 includes a modem, a LAN (Local Area Network) network adapter, and the like.
  • the encoding device is a device that receives a television broadcast, the encoding device includes an interface (not shown) connected to the antenna line.
  • FIG. 4 is a block diagram of a functional configuration of the encoding apparatus according to the second embodiment.
  • the encoding device includes a prediction error generation unit 61, an orthogonal transform unit 62, a quantization unit 63, and an entropy encoding unit 64 as an encoding unit.
  • the original image data input to the encoding device is divided into, for example, 16 ⁇ 16 pixel macroblock data for each field to be encoded.
  • the encoding process is performed on a macroblock basis. Therefore, in the second embodiment, the encoding target block and the adjacent block in the first embodiment are the encoding target macroblock and the adjacent macroblock, respectively.
  • the prediction error generation unit 61 receives the current encoding target macroblock data.
  • the prediction error generation unit 61 generates a prediction error signal by obtaining, for example, a difference between the current encoding target macroblock data and motion compensated reference image data provided from the prediction image selection unit 72 described later.
  • the motion-compensated reference image is generated by performing motion compensation on a past reference image in an inter predicted image generation unit 70 described later.
  • the orthogonal transform unit 62 performs an orthogonal transform process on the output signal of the prediction error generation unit 61 to generate a signal separated into frequency components in the horizontal direction and the vertical direction.
  • the quantization unit 63 performs quantization processing on the output signal of the orthogonal transform unit 62 and encodes it, thereby reducing the code amount of the prediction error signal.
  • the entropy encoding unit 64 encodes the output signal and motion vector of the quantization unit 63 by assigning a variable-length code according to the appearance frequency of the symbol, and outputs the encoded bit stream.
  • the motion vector is given from a motion vector calculation unit 71 described later.
  • the encoding apparatus also includes an inverse quantization unit 65, an inverse orthogonal transform unit 66, a decoded image generation unit 67, and a decoded image storage unit 68.
  • the inverse quantization unit 65 performs an inverse quantization process on the output signal of the quantization unit 63.
  • the inverse orthogonal transform unit 66 performs an inverse orthogonal transform process on the output signal of the inverse quantization unit 65.
  • the decoding process is performed by the inverse quantization unit 65 and the inverse orthogonal transform unit 66, thereby obtaining a signal having the same level as the prediction error signal before encoding. That is, the prediction error signal before encoding is almost reproduced.
  • the decoded image generation unit 67 adds the reproduced prediction error signal to the motion compensated reference image data provided from the prediction image selection unit 72 described later, for example, thereby predicting the current encoding target macroblock. Play the data to be played.
  • the decoded image storage unit 68 stores predicted data of the reproduced encoding target macroblock.
  • the macroblock data stored in the decoded image storage unit 68 is used as a reference image when the subsequent encoding process is performed.
  • the encoding device also includes an intra predicted image generation unit 69, an inter predicted image generation unit 70 as a predicted image generation unit, a motion vector calculation unit 71, and a predicted image selection unit 72.
  • the intra predicted image generation unit 69 generates a predicted image using already encoded pixels located around the encoding target macroblock in the same field as the encoding target macroblock.
  • the inter prediction image generation unit 70 performs motion compensation of the reference image data obtained from the decoded image storage unit 68 with a motion vector, thereby generating motion-compensated reference image data.
  • the reference image data is read from the decoded image storage unit 68 based on a reference index determined by a reference index determination method to be described later.
  • the motion vector calculation unit 71 obtains a motion vector indicating a spatial deviation between the current encoding target macroblock data and the reference image data obtained from the decoded image storage unit 68.
  • the predicted image selection unit 72 selects either the output data of the intra predicted image generation unit 69 or the output data of the inter predicted image generation unit 70.
  • the decoded image storage unit 68 includes, for example, a frame memory, and is realized by the RAM 43 in the hardware configuration shown in FIG. 3, for example.
  • the other components of the encoding apparatus other than the decoded image storage unit 68 are realized by the image processor 42 reading out an image processing program from the HDD 44 and executing an image processing process in the hardware configuration shown in FIG. Is done.
  • FIG. 5 is a block diagram of the image processing apparatus according to the second embodiment.
  • the image processing apparatus includes an encoding mode storage unit 81, a motion vector storage unit 82, and a reference index storage unit 83 in addition to the configuration of the image processing apparatus according to the first embodiment.
  • This image processing apparatus is included in, for example, the motion vector calculation unit 71, the inter prediction image generation unit 70, or both.
  • the encoding mode storage unit 81, the motion vector storage unit 82, and the reference index storage unit 83 are realized by the RAM 43 in the hardware configuration shown in FIG. 3, for example.
  • the encoding mode storage unit 81 stores the encoding mode of an already encoded adjacent macroblock adjacent to the encoding target macroblock. Examples of the encoding mode include an intra encoding mode and an inter encoding mode. When the prediction image of the adjacent macroblock is generated by intra prediction, the intra coding mode is stored in the coding mode storage unit 81. When the prediction image of the adjacent macroblock is generated by inter prediction, the inter coding mode is stored in the coding mode storage unit 81.
  • the motion vector storage unit 82 stores the motion vector of the adjacent macroblock in the inter coding mode.
  • the motion vector storage unit 82 may store the vertical component of the motion vector of the adjacent macroblock, or may store both the vertical component and the horizontal component.
  • the reference index storage unit 83 stores a reference index indicating a reference image of an adjacent macroblock in the inter coding mode.
  • a reference index indicating a reference image of an adjacent macroblock in the inter coding mode for example, when there are three adjacent macroblocks A, B, and C (see FIG. 6), a reference image is present in each of the adjacent macroblocks A, B, and C. Exists.
  • the reference index storage unit 83 may store a reference index indicating that the reference image is temporally closest to the corresponding adjacent macroblock among the three reference indexes indicating the three reference images. .
  • the intra mode determination unit 31 recognizes an adjacent macroblock of the encoding target macroblock based on the encoding target macroblock number. Based on the encoding mode stored in the encoding mode storage unit 81, the intra mode determination unit 31 determines whether all the encoding modes of adjacent blocks are the intra encoding mode.
  • the motion vector determination unit 32 belongs to either the still region or the motion region. Determine whether.
  • a criterion for determination for example, whether or not both of the following conditions (1) and (2) are satisfied with respect to adjacent macroblocks in all inter coding modes can be cited.
  • the reference index indicating the reference image is 0.
  • the motion vector is small enough to be regarded as 0 or 0.
  • the motion vector determination unit 32 determines that the processing target macroblock belongs to the still area. Otherwise, the motion vector determination unit 32 determines that the processing target macroblock belongs to the motion area. At this time, the motion vector may be determined based on the vertical component or both the vertical component and the horizontal component.
  • information such as a coding mode, a motion vector, and a reference index may not exist for all adjacent macroblocks at the boundary portion of the screen or the boundary portion of the divided slices.
  • the motion vector determination unit 32 may determine that the processing target macroblock belongs to a still area.
  • the reference index determination unit 33 is as described in the first embodiment.
  • FIG. 6 is a diagram for explaining the relationship among the encoding target macroblock, the adjacent macroblock, and the reference image.
  • the encoded left macroblock A92 located on the left side the encoded upper macroblock B93 located on the upper side, and the encoding located on the upper right side
  • the completed upper right macroblock C94 is set as an adjacent macroblock.
  • the adjacent macroblocks are not limited to these three A, B, and C, but may be encoded peripheral macroblocks.
  • the reference index indicating the reference image 95 to be obtained for the encoding target macroblock 91 is refIdxL0.
  • the reference index indicating the reference image A96 is refIdxL0A, and the motion vector is mvL0A.
  • the horizontal direction component and the vertical direction component of the motion vector mvL0A are mvL0A_x and mvL0A_y, respectively.
  • the reference index indicating the reference image B97 is refIdxL0B, and the motion vector is mvL0B.
  • the horizontal direction component and the vertical direction component of the motion vector mvL0B are mvL0B_x and mvL0B_y, respectively.
  • the reference index indicating the reference image C98 is refIdxL0C
  • the motion vector is mvL0C.
  • the horizontal direction component and the vertical direction component of the motion vector mvL0C are mvL0C_x and mvL0C_y, respectively.
  • FIG. 6 an image processing method according to the second embodiment (how to determine a reference index) will be described using FIG. 6 as an example with reference to these reference indexes and motion vectors. Further, it is assumed that the index numbers are attached according to the attachment method shown in FIG.
  • FIG. 7 is a flowchart of the image processing method according to the second embodiment. As shown in FIG. 7, when image processing on one processing target block is started, first, the motion vector determination unit 32 performs at least one of the left macroblock A92, the upper macroblock B93, and the upper right macroblock C94. It is determined whether or not there is information as an adjacent macroblock. That is, it is determined whether or not at least one adjacent macroblock is available (step S11).
  • the motion vector determination unit 32 determines that the encoding target macroblock 91 belongs to a still area. Based on the determination result, the reference index determination unit 33 determines refIdxL0 to be 0 (step S15). As a result, an image having the same parity as that of the encoding target macroblock 91 is selected as the reference image 95 to be obtained by the encoding target macroblock 91. Then, a series of processes for one encoding target macroblock 91 is completed. As an example of the case where there is no adjacent macroblock that can be used, for example, the case where the encoding target macroblock 91 is located at the boundary portion of the screen or the boundary portion of the divided slice can be cited.
  • the intra mode determination unit 31 determines whether the available adjacent macroblock is in the intra coding mode. The If there are a plurality of adjacent macroblocks that can be used, it is determined whether or not all the available adjacent macroblocks are in the intra coding mode (step S12).
  • the reference index determination unit 33 determines refIdxL0 to be 1 (step S13). As a result, as the reference image 95 to be obtained for the encoding target macroblock 91, an image of a different parity closest to the encoding target macroblock 91 is selected. Then, a series of processes for one encoding target macroblock 91 is completed.
  • the prediction efficiency is improved by selecting the latest image of different parity.
  • the motion vector determination unit 32 When it is determined that at least one of the available adjacent macroblocks is not the intra coding mode, that is, the inter coding mode (step S12: No), the motion vector determination unit 32 performs the encoding target macroblock 91. Is determined to belong to either the stationary region or the moving region (step S14). Specifically, for example, the left macroblock A92, the upper macroblock B93, and the upper right macroblock C94 are three adjacent macroblocks in the inter coding mode that can be used. In this case, when the following conditions (3), (4), and (5) are satisfied, the area is determined to be a still area (step S14).
  • step S14 in FIG. 7 * represents A, B, or C. Further, in the notation of step S14 in FIG. 7, the horizontal direction component (x component) of the motion vector is omitted.
  • the following determination may be made using the absolute value of the horizontal component and the absolute value of the vertical component. . Even if threshold values THx and THy are set in advance for the horizontal direction component and the vertical direction component of the motion vector, respectively, and the following conditions (6) and (7) are satisfied, the motion vector is considered to be substantially zero: Good. Alternatively, when the threshold value TH is set in advance for the sum of the absolute value of the horizontal component and the vertical component of the motion vector and the following condition (8) is satisfied, the motion vector is substantially zero. May be considered. In the following description of the conditions (6), (7) and (8), * represents A, B or C.
  • the top field and the bottom field are spatially on different sides. Therefore, in the conditions (3) to (8) described above, the lateral component (x component) of the motion vector may be omitted from the determination criterion.
  • the reference index determination unit 33 determines refIdxL0 to be 0 (step S15). As a result, an image having the same parity as that of the encoding target macroblock 91 is selected as the reference image 95 to be obtained by the encoding target macroblock 91. Then, a series of processes for one encoding target macroblock 91 is completed.
  • the encoding target macroblock 91 belongs to the still area, there is almost no change in the pattern with the latest image of the same parity. Therefore, the prediction efficiency is improved by selecting the latest image having the same parity.
  • the refIdxL0 is determined by the reference index determination unit 33 as follows for the adjacent macroblock determined to be usable in step S11 and determined to be in the inter coding mode in step S12. .
  • refIdxL0 is determined according to the following (9) to (12) (step S16).
  • a series of processes for one encoding target macroblock 91 is completed.
  • the above processing is performed for all the encoding target macroblocks 91.
  • the prediction becomes more difficult as the time interval between the encoding target macroblock 91 and the reference image increases. Therefore, regardless of whether the parity is the same or different, prediction efficiency is improved by selecting the latest image.
  • the reference index of the encoding target macroblock 91 is determined based on the encoding mode, the motion vector, and the reference index of the adjacent macroblock that has already been encoded of the encoding target macroblock 91. Is decided. Also in the decoding apparatus, when the bit stream of the image data output from the encoding apparatus is decoded, if the reference index of the macroblock to be decoded is determined in the same manner as the encoding apparatus, It is not necessary to notify the decoding device of the reference index. Therefore, as in the first embodiment, the encoding apparatus can perform encoding by omitting the reference index with a larger number of macroblocks, so that the encoding efficiency can be improved.
  • the image processing apparatus and the image processing method according to the first embodiment are applied to a moving picture decoding apparatus and a decoding method.
  • a moving picture decoding method to which the third embodiment can be applied for example, ITU-T H.264. H.264 / ISO / IEC MPEG-4 AVC and ISO / IEC MPEG-2 / MPEG-4.
  • the hardware configuration of the decoding apparatus according to the third embodiment is the same as the configuration shown in FIG.
  • FIG. 8 is a block diagram of a functional configuration of a decoding apparatus to which the image processing apparatus according to the third embodiment is applied.
  • the decoding apparatus includes an entropy decoding unit 101 as a decoding unit, an inverse quantization unit 102, an inverse orthogonal transform unit 103, a motion compensated image generation unit 104, a predicted value generation unit 105, and a decoded image generation unit 106. And a decoded image storage unit 107.
  • the decoding process is performed in units of macroblocks of 16 ⁇ 16 pixels, for example, for each field to be decoded.
  • the decoding device decodes the encoded information encoded by the encoding device according to the second embodiment and reproduces an image.
  • the entropy decoding unit 101 decodes the encoded information of the input stream to generate difference information and a motion vector.
  • the inverse quantization unit 102 performs an inverse quantization process on the difference information generated by the entropy decoding unit 101.
  • the inverse orthogonal transform unit 103 performs an inverse orthogonal transform process on the output signal of the inverse quantization unit 102.
  • the entropy decoding unit 101, the inverse quantization unit 102, and the inverse orthogonal transform unit 103 for example, each of the entropy encoding unit 64, the quantization unit 63, and the orthogonal transform unit 62 (see FIG. 4) of the encoding apparatus according to the second embodiment.
  • the prediction error signal is reproduced from the input stream by performing the inverse process corresponding to.
  • the motion compensated image generation unit 104 includes, for example, an image processing apparatus configured as shown in FIG.
  • the image processing apparatus having the configuration illustrated in FIG. 5 decodes the decoding target macroblock based on the encoding mode, the motion vector, and the reference index of the adjacent macroblock adjacent to the decoding target macroblock. Determine the reference index.
  • the motion compensated image generation unit 104 reads a reference image corresponding to the determined reference index from the decoded image storage unit 107, and generates a motion compensated image signal based on the reference image and the motion vector notified from the input stream. .
  • the prediction value generation unit 105 generates a prediction signal representing the prediction value of the decoded image based on the motion compensation image signal generated by the motion compensation image generation unit 104.
  • the motion compensation image generation unit 104 and the prediction value generation unit 105 generate a prediction signal in the same manner as the motion vector calculation unit 71 and the inter prediction image generation unit 70 (see FIG. 4) of the encoding apparatus according to the second embodiment, for example. .
  • the decoded image generation unit 106 generates a decoded image by adding, for example, the prediction signal generated by the prediction value generation unit 105 and the reproduced prediction error signal.
  • the decoded image storage unit 107 stores reproduced decoded image data.
  • the decoded image data stored in the decoded image storage unit 107 is used as a reference image when the subsequent decoding process is performed.
  • the decoded image storage unit 107 includes, for example, a frame memory, and is realized by the RAM 43 in the hardware configuration illustrated in FIG. 3, for example.
  • the other components of the decoding device other than the decoded image storage unit 107 are realized, for example, in the hardware configuration illustrated in FIG. 3 by the image processor 42 reading out an image processing program from the HDD 44 and executing an image processing process.
  • the Since the method of determining the reference index in the image processing method according to the third embodiment is the same as that of the second embodiment, the description thereof is omitted.
  • the reference index of the decoding target macroblock is determined based on the encoding mode, the motion vector, and the reference index of the macroblock adjacent to the decoding target macroblock. Also in the encoding apparatus, if the reference index of the macroblock to be encoded is determined in the same manner, the reference index need not be notified from the encoding apparatus to the decoding apparatus. Therefore, by using this decoding apparatus and the encoding apparatus that determines the reference index of the encoding target macroblock in the same manner as this decoding apparatus, the encoding efficiency can be improved as in the first embodiment. .
  • Intra mode determination unit 32 Motion vector determination unit 33 Reference index determination unit 61 Prediction error generation unit 62 Orthogonal transformation unit 63 Quantization unit 64 Coding unit 65, 102 Inverse quantization unit 66, 103 Inverse orthogonal transformation unit 67, 106 Decoding Image generation unit 70 Prediction image generation unit 101 Decoding unit 104 Motion compensation image generation unit 105 Prediction value generation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 隣接ブロックの符号化モードを判定し、イントラ符号化モードでない隣接ブロックの動きベクトルおよびこの隣接ブロックの参照画像を示す参照インデックスに基づいて、処理対象ブロックが静止領域および動領域のいずれに属するかを判定する。判定の結果に基づいて、処理対象ブロックの参照画像を示す参照インデックスを決定する。隣接ブロックが全てイントラ符号化モードである場合、処理対象ブロックが属するフィールドと異なるフィールドの直近の画像に付されたインデックス番号を選択する。処理対象ブロックが静止領域に属する場合、処理対象ブロックが属するフィールドと同じフィールドの直近の画像に付されたインデックス番号を選択する。処理対象ブロックが動領域に属する場合、隣接ブロックの参照画像を示す参照インデックスの中で時間的に最も近い参照画像のインデックス番号を選択する。

Description

画像処理装置および画像処理方法
 この発明は、画像処理装置および画像処理方法に関する。
 動画像の画像処理技術の一つに、画像情報をインター予測(画面間予測)を使用して符号化した第1符号化情報を、この第1符号化情報の動きベクトルを使用して、第2符号化情報にトランスコードする技術がある。このような技術において、例えば第1符号化情報の動きベクトルを再利用できない場合に、符号化対象ブロックの予測モードを、周辺のブロックの予測モードに基づいて、インター予測からイントラ予測(画面内予測)に変更して第2符号化情報を生成する技術がある。また、符号化対象マクロブロックの予測モードを、隣接する符号化済みマクロブロック、および符号化されていない隣接マクロブロックに対応する直前の画像内のマクロブロックのそれぞれと同一の予測モードの中から選択する技術がある。また、フレーム間やフィールド間の動きベクトルを用いて、補間されるフレームやフィールドに対する動きベクトルを推定し、この動きベクトルを用いて、補間されるフレームやフィールドの画素を生成する技術がある。
 インター予測を使用して動画像を符号化するシステムにおいて、動画像データを送信する側の装置では、次のような処理が行われる。過去の参照画像から符号化対象画像への動きを表す動きベクトルデータが生成される。その動きベクトルデータを用いて参照画像から符号化対象画像の予測画像が生成される。その予測画像と実際の符号化対象画像との差分データが生成される。そして、その差分データおよび動きベクトルデータが符号化されて送信される。受信側の装置では、受信した動きベクトルデータおよび差分データを用いて復号対象画像が再生される。このときの符号化および復号の処理は、一フレームの原画像を複数のブロック(マクロブロック)に分割し、このブロック単位で行われる。
 動画像の表示方式の一つに、一フレームの画像を、奇数番目の走査線からなるフィールドと偶数番目の走査線からなるフィールドとに分割し、それらのフィールドを交互に表示するインターレース方式がある。インターレース方式では、符号化対象画像に対して複数の参照画像の候補が存在し、その中から適当な参照画像が選択される。複数の参照画像の候補には、それぞれインデックス番号が付される。一フレームの画像において、空間的に上側に位置するフィールドをトップフィールドと呼び、空間的に下側に位置するフィールドをボトムフィールドと呼ぶことがある。
 図9は、参照画像の候補に対するインデックス番号の付し方を説明する図である。例えば図9に示すように、Pt0とした符号化対象ブロックの画像1がトップフィールドの画像である場合、直近の同じフィールドタイプ、すなわちトップフィールドのPt1とした参照画像の候補2にインデックス番号refIdxL0として0が付される。符号化対象ブロックの画像1に対して直近の異なるフィールドタイプ、すなわちボトムフィールドのPb1とした参照画像の候補3に1のインデックス番号が付される。PtnおよびPbnは、それぞれトップフィールドおよびボトムフィールドの画像であることを示す。また、Ptnの画像およびPbnの画像は、同じフレームに含まれる画像である。
 トップフィールドとトップフィールドというようにフィールド同士が空間的に上下の同じ側にある場合を同パリティと呼び、トップフィールドとボトムフィールドというようにフィールド同士が空間的に上下の異なる側にある場合を異パリティと呼ぶことがある。2のインデックス番号は、同パリティにおいて次に直近のPt2とした参照画像の候補4に付される。3のインデックス番号は、異パリティにおいて次に直近のPb2とした参照画像の候補5に付される。このように、符号化対象ブロックに近い順に、同パリティの画像から始まって、同パリティの画像と異パリティの画像とに対して交互にインデックス番号が付される。符号化対象ブロックの画像がボトムフィールドの画像である場合も同様である。
 インターレース方式でインター予測を使用して動画像を符号化する場合、例えば図9に示すように、符号化対象ブロックPt0に対して参照画像の候補がPt1、Pb1、Pt2およびPb2のように複数存在することがある。実際に符号化する際には、複数の参照画像の候補の中から適当な一つが選択される。従って、差分データおよび動きベクトルデータと一緒に、選択された参照画像を示す参照インデックスも符号化される。これに対して、直近の同パリティの画像を参照画像とするように予めアルゴリズムで決まっていることがある。符号化する側のアルゴリズムおよび復号する側のアルゴリズムがこのようなアルゴリズムである場合には、符号化する側から復号する側へ参照インデックスを通知しなくても、復号する側で参照インデックスが0であることが暗黙的にわかる。従って、参照インデックスを省略して符号化することができるので、参照インデックスも符号化する場合に比べて、符号化の効率が良くなる。
 動画像符号化方式の規格の一つであるITU-T H.264/ISO/IEC MPEG-4AVCには、このように参照インデックスを省略して符号化する、P8×8ref0やP_SKIPと呼ばれるマクロブロックが用意されている。動画像を符号化する際には、動画像データの圧縮率が高くなるので、P8×8ref0やP_SKIPができるだけ多く選択されるのが望ましい。なお、ITU-Tは、International Telecommunication Union Telecommunication Standardization Sector(国際電気通信連合電気通信標準化部門)の略である。ISOは、International Organization for Standardization(国際標準化機構)の略である。IECは、International Electrotechnical Commission(国際電気標準会議)の略である。MPEG-4は、Moving Picture Experts Group phase 4の略である。AVCは、Advanced Video Codingの略である。
特開2006-295734号公報 特開2009-55542号公報 特開2003-163894号公報
 しかしながら、従来のインターレース方式における符号化技術では、以下に説明するように、参照インデックスを省略して符号化することができるマクロブロックタイプが選択され難い。そのため、符号化の効率が悪いという問題点がある。静止しているシーンのときには、トップフィールドおよびボトムフィールドのいずれにおいても、符号化対象ブロックの画像が直近の同パリティの画像と同じであることが多い。従って、参照画像として直近の同パリティの画像が選択される傾向にある。直近の同パリティの画像が選択される場合には、参照インデックスが0であるので、上述したP8×8ref0やP_SKIPが選択され易くなる。
 それに対して動きのあるシーンのときには、トップフィールドおよびボトムフィールドのいずれにおいても、符号化対象ブロックの画像が直近の同パリティの画像と異なってしまうことが多い。このことは、図10に示すように、GOP(Group Of Pictures)構造がIピクチャ(図には現れていない)もしくはPピクチャとPピクチャとの間に2枚のBピクチャを挟むIBBP構造であるような場合に、顕著となる。動き補償予測では、符号化対象の画像と同じピクチャタイプの画像が参照画像として用いられる。
 従って、符号化対象ブロックの画像11がボトムフィールドにおけるPピクチャの画像Pb0である場合、このPb0に対して直近のボトムフィールドにおけるPピクチャの画像は、Pb1とした画像12である。このPb1はPb0の画像から6フィールド時間離れているため、Pb1からPb0へ移行する間に絵柄が大きく変化してしまうおそれがある。
 一方、Pt0とした直近のトップフィールドにおけるPピクチャの画像13はPb0から1フィールド時間しか離れていない。従って、1フィールド時間離れている場合の絵柄の変化は、上述した6フィールド時間離れている場合と比べて小さい。このボトムフィールドの画像の例ほどではないが、符号化対象ブロックの画像がトップフィールドの画像である場合も、直近の異パリティの画像の方が直近の同パリティの画像よりも、符号化対象ブロックの画像から離れている時間が短い。このように、動きのあるシーンのときには、参照画像として直近の異パリティの画像を選択した方が予測精度が良くなる可能性が高いので、直近の異パリティの画像が選択される傾向にある。この場合には、参照インデックスが1であるので、上述したP8×8ref0やP_SKIPは選択されない。
 なお、上述した問題は、静止しているシーンと動きのあるシーンに限らず、画面内の静止している領域(静止領域)と動きのある領域(動領域)についても同様である。すなわち、図11に示すように、静止領域21では、参照画像として直近の同パリティの画像が選択される傾向にあり、動領域22では、参照画像として直近の異パリティの画像が選択される傾向にある。従って、動領域22では、上述したP8×8ref0やP_SKIPが選択されない。このように、従来の符号化技術では、参照インデックスを省略して符号化することができるマクロブロックタイプが選択され難いため、符号化の効率が悪くなってしまう。
 この画像処理装置および画像処理方法は、動画像の画像処理において符号化の効率を良くすることを目的とする。
 画像処理装置は、一フレームを異なるタイミングで表示される複数のフィールドに分ける。画像処理装置は、各フィールドの画像をそれぞれ複数のブロックに分割する。画像処理装置は、ブロックごとに過去の複数の参照画像の候補から選択した参照画像およびこの参照画像に対する動きベクトルに基づいて動き補償予測を行う。画像処理装置は、イントラモード判定部、動きベクトル判定部および参照インデックス決定部を備えている。イントラモード判定部は、処理対象ブロックに隣接する複数の隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かを判定する。動きベクトル判定部は、イントラモード判定部により隣接ブロックのうちの少なくとも一つがイントラ符号化モードでないと判定された場合に、処理対象ブロックが静止領域および動領域のいずれに属するかを判定する。その判定は、イントラ符号化モードでないと判定された隣接ブロックの動きベクトルおよびイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスに基づいて行われる。参照インデックス決定部は、イントラモード判定部により全ての隣接ブロックがイントラ符号化モードであると判定された場合に、処理対象ブロックが属するフィールドと異なるフィールドの時間的に最も近い画像に付されたインデックス番号を選択する。参照インデックス決定部は、動きベクトル判定部により静止領域に属すると判定された場合に、処理対象ブロックが属するフィールドと同じフィールドの時間的に最も近い画像に付されたインデックス番号を選択する。参照インデックス決定部は、動きベクトル判定部により動領域に属すると判定された場合に、イントラモード判定部によりイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスの中で時間的に最も近い参照画像のインデックス番号を選択する。参照インデックス決定部は、選択したインデックス番号を処理対象ブロックの参照画像を示す参照インデックスに決定する。
 開示の画像処理装置および画像処理方法によれば、動画像の画像処理において符号化の効率を良くすることができるという効果を奏する。
実施例1にかかる画像処理装置を示すブロック図である。 実施例1にかかる画像処理方法を示すフローチャートである。 実施例2にかかる符号化装置のハードウェア構成を示すブロック図である。 実施例2にかかる符号化装置の機能的構成を示すブロック図である。 実施例2にかかる画像処理装置を示すブロック図である。 符号化対象マクロブロック、隣接マクロブロックおよび参照画像の関係を説明する図である。 実施例2にかかる画像処理方法を示すフローチャートである。 実施例3にかかる復号装置の機能的構成を示すブロック図である。 参照画像の候補に対するインデックス番号の付し方を説明する図である。 IBBP構造における参照画像の選択例を説明する図である。 静止領域および動領域に対する参照画像の選択例を説明する図である。
 以下に、この発明にかかる画像処理装置および画像処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。画像処理装置および画像処理方法は、処理対象ブロックに隣接する隣接ブロックの画像の符号化モード、隣接ブロックの参照画像を示す参照インデックスおよびこの参照画像に対する隣接ブロックの動きベクトルに基づいて、処理対象ブロックの参照画像を示す参照インデックスを決定するものである。この実施の形態では、一フレームは、異なるタイミングで表示される複数のフィールド、例えばトップフィールドとボトムフィールドとに分けられる。各フィールドの画像は、それぞれ複数のブロックに分割されて処理される。画像処理装置は、ブロックごとに過去の複数の参照画像の候補から選択した参照画像およびこの参照画像に対する動きベクトルに基づいて動き補償予測を行う。
(実施例1)
・画像処理装置の説明
 図1は、実施例1にかかる画像処理装置を示すブロック図である。図1に示すように、画像処理装置は、イントラモード判定部31、動きベクトル判定部32および参照インデックス決定部33を備えている。これらイントラモード判定部31、動きベクトル判定部32および参照インデックス決定部33は、例えば後述する画像処理方法をプロセッサに実行させるプログラムをプロセッサが実行することによって実現される。あるいは、ハードウェアで実現してもよい。イントラモード判定部31は、処理対象ブロックに隣接する複数の隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かを判定する。
 動きベクトル判定部32は、イントラモード判定部31により隣接ブロックのうちの少なくとも一つがイントラ符号化モードでないと判定された場合に、処理対象ブロックが静止領域および動領域のいずれに属するかを判定する。この判定は、イントラ符号化モードでないと判定された隣接ブロックの動きベクトルおよびイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスに基づいて行われる。
 参照インデックス決定部33は、イントラモード判定部31により全ての隣接ブロックがイントラ符号化モードであると判定された場合、処理対象ブロックに対して直近の異パリティの画像に付されたインデックス番号を選択する。参照インデックス決定部33は、動きベクトル判定部32により静止領域に属すると判定された場合、処理対象ブロックに対して直近の同パリティの画像に付されたインデックス番号を選択する。参照インデックス決定部33は、動きベクトル判定部32により動領域に属すると判定された場合、イントラモード判定部31によりイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスの中で直近の参照画像のインデックス番号を選択する。参照インデックス決定部33は、選択したインデックス番号を処理対象ブロックの参照画像を示す参照インデックスに決定する。
・画像処理方法の説明
 図2は、実施例1にかかる画像処理方法を示すフローチャートである。図2に示すように、一つの処理対象ブロックに対する画像処理が開始されると、まず、イントラモード判定部31により、処理対象ブロックに隣接する複数の隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かが判定される(ステップS1)。全ての隣接ブロックがイントラ符号化モードであると判定された場合(ステップS1:Yes)、参照インデックス決定部33により、処理対象ブロックの参照画像を示す参照インデックスとして、直近の異パリティの画像に付されたインデックス番号が選択される(ステップS2)。そして、一つの処理対象ブロックに対する一連の処理が終了する。
 隣接ブロックのうちの少なくとも一つがイントラ符号化モードでないと判定された場合(ステップS1:No)、動きベクトル判定部32により、処理対象ブロックが静止領域および動領域のいずれに属するかが判定される(ステップS3)。この判定は、イントラ符号化モードでないと判定された隣接ブロックの動きベクトルおよびイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスに基づいて行われる。
 処理対象ブロックが静止領域に属すると判定された場合(ステップS3:Yes)、参照インデックス決定部33により、処理対象ブロックの参照画像を示す参照インデックスとして、直近の同パリティの画像に付されたインデックス番号が選択される(ステップS4)。そして、一つの処理対象ブロックに対する一連の処理が終了する。
 処理対象ブロックが動領域に属すると判定された場合(ステップS3:No)、参照インデックス決定部33により、処理対象ブロックの参照画像を示す参照インデックスとして、イントラ符号化モードでないと判定された隣接ブロックの参照画像に付されたインデックス番号が選択される(ステップS5)。イントラ符号化モードでないと判定された隣接ブロックが複数存在する場合には、該当する複数の隣接ブロックの参照画像のうち直近の参照画像に付されたインデックス番号が選択される。そして、一つの処理対象ブロックに対する一連の処理が終了する。以上の処理が全ての処理対象ブロックに対して行われる。
 実施例1によれば、符号化する際に隣接ブロックの符号化モード、隣接ブロックの動きベクトルおよび隣接ブロックの参照画像を示す参照インデックスに基づいて、処理対象ブロックの参照インデックスが決まる。従って、復号する際にも同じようにして処理対象ブロックの参照インデックスを決めることによって、符号化する側と復号する側とで、同じ処理対象ブロックに対して同じ参照インデックスが決まることになる。それによって、符号化する側から復号する側に参照インデックスを通知しなくても、復号する側で復号することができる。つまり、参照インデックスを省略して符号化し、復号することができる。また、参照インデックスが0でない場合でも隣接ブロックに応じて適当な参照インデックスが決まるので、参照インデックスが0である場合に参照インデックスの符号化を省略できる場合と比べて、より多くのブロックで参照インデックスを省略して符号化することができる。従って、符号化の効率を良くすることができる。
(実施例2)
 実施例2は、実施例1の画像処理装置および画像処理方法を動画像の符号化装置および符号化方法に適用したものである。実施例2を適用可能な動画像符号化方式の一例として、例えばITU-T H.264/ISO/IEC MPEG-4AVCやISO/IEC MPEG-2/MPEG-4が挙げられる。MPEG-2は、Moving Picture Experts Group phase 2の略である。
・符号化装置の説明
 図3は、実施例2にかかる符号化装置のハードウェア構成を示すブロック図である。図3に示すように、符号化装置は、例えばCPU(Central Processing Unit、中央処理装置)41、画像処理プロセッサ42、RAM(Random Access Memory、ランダムアクセスメモリ)43、HDD(Hard Disk Drive、ハードディスクドライブ)44、ROM(Read Only Memory、読み出し専用メモリ)45、入力装置46、モニタ47、媒体読み取り装置48およびネットワークインターフェース49を備えている。各構成部はバス50に接続されている。
 HDD44は、内蔵するハードディスクに画像処理プログラムや動画像データを記憶している。画像処理プログラムは、動画像データを画像処理するプログラムであり、例えば媒体読み取り装置48により着脱可能な記録媒体から読み出されてハードディスクにインストールされている。動画像データは、例えば媒体読み取り装置48により着脱可能な記録媒体から読み出されたデータや、ネットワークインターフェース49を介してネットワークから受信したデータや、テレビジョン放送を受信したデータである。
 RAM43は、CPU41のワークエリアとして使用される。RAM43は、HDD44から読み出された動画像データを格納する。RAM43は、画像処理プロセッサ42による画像処理結果を格納する。画像処理プロセッサ42は、HDD44から画像処理プログラムを読み出して画像処理プロセスを実行し、RAM43から読み出した動画像データに対して符号化や復号などの処理を行う。CPU41は、符号化装置の全体の動作を制御する。実施例2にかかる符号化装置は、画像処理プロセッサ42が画像処理プロセスを実行することにより実現される。
 ROM45は、ブートプログラムなどのプログラムを記憶している。入力装置46は、例えばキーボードや、タッチパネル式の入力パッドや、マウスなどのポインティングデバイスや、リモートコントローラ等の操作機器のスイッチやボタンを含む。モニタ47は、例えばCRT(Cathode Ray Tube、ブラウン管)ディスプレイやTFT(Thin Film Transistor、薄膜トランジスタ)液晶ディスプレイなどの動画像やデータを表示する装置である。媒体読み取り装置48は、DVD(Digital Versatile Disk、デジタルバーサタイルディスク)やメモリカードなどの着脱可能な記録媒体から動画像データを含むデータの読み出しを制御する。
 ネットワークインターフェース49は、通信回線を通じてインターネットなどのネットワークに接続され、ネットワークに接続された他の装置との間で動画像データを含むデータの送受信を制御する。ネットワークインターフェース49は、モデムやLAN(Local Area Network、構内通信網)アダプタなどを含む。符号化装置がテレビジョン放送を受信する装置である場合には、符号化装置は、アンテナ線に接続される図示しないインターフェースを備えている。
 図4は、実施例2にかかる符号化装置の機能的構成を示すブロック図である。図4に示すように、符号化装置は、予測誤差生成部61、直交変換部62、量子化部63および符号化部としてのエントロピー符号化部64を備えている。符号化装置に入力された原画のデータは、符号化対象のフィールドごとに例えば16×16ピクセルのマクロブロックのデータに分割される。符号化処理は、マクロブロック単位で行われる。従って、実施例2では、実施例1の符号化対象ブロックおよび隣接ブロックはそれぞれ符号化対象マクロブロックおよび隣接マクロブロックとなる。
 予測誤差生成部61には、現在の符号化対象マクロブロックのデータが入力する。予測誤差生成部61は、現在の符号化対象マクロブロックのデータと、後述する予測画像選択部72から与えられる動き補償された参照画像のデータとの例えば差分を求めることによって予測誤差信号を生成する。動き補償された参照画像は、後述するインター予測画像生成部70において過去の参照画像に対して動き補償することによって生成される。
 直交変換部62は、予測誤差生成部61の出力信号に対して直交変換処理を行い、水平方向および垂直方向の周波数成分に分離された信号を生成する。量子化部63は、直交変換部62の出力信号に対して量子化処理を行い、符号化することによって予測誤差信号の符号量を低減する。エントロピー符号化部64は、量子化部63の出力信号および動きベクトルを、シンボルの出現頻度に応じて可変長の符号を割り当てることによって符号化して、ビットストリームとして出力する。動きベクトルは、後述する動きベクトル計算部71から与えられる。
 また、符号化装置は、逆量子化部65、逆直交変換部66、復号画像生成部67および復号画像記憶部68を備えている。逆量子化部65は、量子化部63の出力信号に対して逆量子化処理を行う。逆直交変換部66は、逆量子化部65の出力信号に対して逆直交変換処理を行う。このように逆量子化部65および逆直交変換部66によって復号処理が行われることにより、符号化前の予測誤差信号と同程度の信号が得られる。つまり、符号化前の予測誤差信号がほぼ再生される。
 復号画像生成部67は、再生された予測誤差信号と、後述する予測画像選択部72から与えられる動き補償された参照画像のデータとを例えば加算することによって、現在の符号化対象マクロブロックの予測されるデータを再生する。復号画像記憶部68は、再生された符号化対象マクロブロックの予測されるデータを記憶する。復号画像記憶部68に記憶されたマクロブロックのデータは、これ以降の符号化処理を行う際に参照画像として用いられる。
 また、符号化装置は、イントラ予測画像生成部69、予測画像生成部としてのインター予測画像生成部70、動きベクトル計算部71および予測画像選択部72を備えている。イントラ予測画像生成部69は、符号化対象マクロブロックと同じフィールド内で符号化対象マクロブロックの周辺に位置する既に符号化された画素を用いて予測画像を生成する。インター予測画像生成部70は、復号画像記憶部68から得た参照画像のデータを動きベクトルで動き補償することにより、動き補償された参照画像のデータを生成する。参照画像のデータは、後述する参照インデックスの決め方によって決まる参照インデックスに基づいて復号画像記憶部68から読み出される。
 動きベクトル計算部71は、現在の符号化対象マクロブロックのデータと、復号画像記憶部68から得た参照画像のデータとの空間的なずれを示す動きベクトルを求める。予測画像選択部72は、イントラ予測画像生成部69の出力データおよびインター予測画像生成部70の出力データのいずれか一方を選択する。復号画像記憶部68は、例えばフレームメモリを備えており、例えば図3に示すハードウェア構成においてRAM43により実現される。符号化装置の、復号画像記憶部68を除く他の構成部は、例えば図3に示すハードウェア構成において、画像処理プロセッサ42がHDD44から画像処理プログラムを読み出して画像処理プロセスを実行することにより実現される。
 図5は、実施例2にかかる画像処理装置を示すブロック図である。図5に示すように、画像処理装置は、実施例1にかかる画像処理装置の構成に加えて、符号化モード格納部81、動きベクトル格納部82および参照インデックス格納部83を備えている。この画像処理装置は、例えば動きベクトル計算部71、インター予測画像生成部70またはその両方に含まれる。符号化モード格納部81、動きベクトル格納部82および参照インデックス格納部83は、例えば図3に示すハードウェア構成においてRAM43により実現される。
 符号化モード格納部81は、符号化対象マクロブロックに隣接する既に符号化された隣接マクロブロックの符号化モードを格納する。符号化モードとして、例えばイントラ符号化モードおよびインター符号化モードが挙げられる。隣接マクロブロックの予測画像がイントラ予測によって生成されている場合に、符号化モード格納部81にイントラ符号化モードが格納される。隣接マクロブロックの予測画像がインター予測によって生成されている場合に、符号化モード格納部81にインター符号化モードが格納される。
 動きベクトル格納部82は、インター符号化モードの隣接マクロブロックの動きベクトルを格納する。動きベクトル格納部82は、隣接マクロブロックの動きベクトルの縦方向成分を格納してもよいし、縦方向成分と横方向成分の両方を格納してもよい。
 参照インデックス格納部83は、インター符号化モードの隣接マクロブロックの参照画像を示す参照インデックスを格納する。インター符号化モードの隣接マクロブロックが複数存在する場合、例えばA、BおよびCの三つの隣接マクロブロックが存在する場合(図6参照)、隣接マクロブロックA、BおよびCのそれぞれに参照画像が存在する。その場合、参照インデックス格納部83は、それら三つの参照画像を示す三つの参照インデックスのうち、対応する隣接マクロブロックに時間的に最も近い参照画像であることを示す参照インデックスを格納してもよい。
 イントラモード判定部31は、符号化対象マクロブロックの番号に基づいて、この符号化対象マクロブロックの隣接マクロブロックを認識する。イントラモード判定部31は、符号化モード格納部81に格納されている符号化モードに基づいて、隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かを判定する。
 動きベクトル判定部32は、動きベクトル格納部82に格納されている動きベクトルおよび参照インデックス格納部83に格納されている参照インデックスに基づいて、処理対象マクロブロックが静止領域および動領域のいずれに属するかを判定する。判定の基準として、例えば全てのインター符号化モードの隣接マクロブロックについて、次の(1)の条件と(2)の条件の両方を満たすか否かが挙げられる。
 (1)参照画像を示す参照インデックスが0である。
 (2)動きベクトルが0もしくは0と見なし得る程度に小さい値である。
 この(1)と(2)の条件を全てのインター符号化モードの隣接マクロブロックが満たす場合に、動きベクトル判定部32は、処理対象マクロブロックが静止領域に属すると判定する。そうでない場合に、動きベクトル判定部32は、処理対象マクロブロックが動領域に属すると判定する。その際、動きベクトルについては、縦方向成分、または縦方向成分と横方向成分の両方に基づいて判定してもよい。
 また、画面の境界部分や、分割されたスライスの境界部分では、全ての隣接マクロブロックについて、符号化モードや動きベクトルや参照インデックスなどの情報が存在しないことがある。全ての隣接マクロブロックの情報が存在しない場合、動きベクトル判定部32は、処理対象マクロブロックが静止領域に属すると判定してもよい。参照インデックス決定部33については、実施例1において説明したとおりである。
・画像処理方法(参照インデックスの決め方)の説明
 図6は、符号化対象マクロブロック、隣接マクロブロックおよび参照画像の関係を説明する図である。図6に示すように、符号化対象マクロブロック91に対して、左側に位置する符号化済みの左マクロブロックA92、上側に位置する符号化済みの上マクロブロックB93および右上側に位置する符号化済みの右上マクロブロックC94を隣接マクロブロックとする。なお、隣接マクロブロックは、これらA、BおよびCの三つに限らず、符号化済みの周辺マクロブロックであってもよい。符号化対象マクロブロック91の求めるべき参照画像95を示す参照インデックスをrefIdxL0とする。
 左マクロブロックA92について、参照画像A96を示す参照インデックスをrefIdxL0Aとし、動きベクトルをmvL0Aとする。動きベクトルmvL0Aの横方向成分および縦方向成分をそれぞれmvL0A_xおよびmvL0A_yとする。上マクロブロックB93について、参照画像B97を示す参照インデックスをrefIdxL0Bとし、動きベクトルをmvL0Bとする。動きベクトルmvL0Bの横方向成分および縦方向成分をそれぞれmvL0B_xおよびmvL0B_yとする。右上マクロブロックC94について、参照画像C98を示す参照インデックスをrefIdxL0Cとし、動きベクトルをmvL0Cとする。動きベクトルmvL0Cの横方向成分および縦方向成分をそれぞれmvL0C_xおよびmvL0C_yとする。以下、これらの参照インデックスおよび動きベクトルの表記を用いて、図6を例にして実施例2にかかる画像処理方法(参照インデックスの決め方)について説明する。また、インデクッス番号の付し方は、図9に示す付し方に従うとする。
 図7は、実施例2にかかる画像処理方法を示すフローチャートである。図7に示すように、一つの処理対象ブロックに対する画像処理が開始されると、まず、動きベクトル判定部32により、左マクロブロックA92、上マクロブロックB93および右上マクロブロックC94のうちの少なくとも一つに隣接マクロブロックとしての情報が存在するか否かが判定される。つまり、少なくとも一つの隣接マクロブロックが利用可能であるか否かが判定される(ステップS11)。
 隣接マクロブロックとして利用可能なマクロブロックがない場合(ステップS11:No)、動きベクトル判定部32により、符号化対象マクロブロック91が静止領域に属すると判定される。その判定結果に基づいて、参照インデックス決定部33によりrefIdxL0は0に決定される(ステップS15)。これによって、符号化対象マクロブロック91の求めるべき参照画像95として、符号化対象マクロブロック91に対して直近の同パリティの画像が選択されたことになる。そして、一つの符号化対象マクロブロック91に対する一連の処理が終了する。利用可能な隣接マクロブロックがない場合の例として、例えば符号化対象マクロブロック91が画面の境界部分や、分割されたスライスの境界部分に位置する場合が挙げられる。
 一方、いずれか一つでも隣接マクロブロックとして利用可能である場合(ステップS11:Yes)、イントラモード判定部31により、その利用可能な隣接マクロブロックがイントラ符号化モードであるか否かが判定される。利用可能な隣接マクロブロックが複数存在する場合には、全ての利用可能な隣接マクロブロックがイントラ符号化モードであるか否かが判定される(ステップS12)。
 全ての利用可能な隣接マクロブロックがイントラ符号化モードであると判定された場合(ステップS12:Yes)、参照インデックス決定部33によりrefIdxL0は1に決定される(ステップS13)。これによって、符号化対象マクロブロック91の求めるべき参照画像95として、符号化対象マクロブロック91に対して直近の異パリティの画像が選択されたことになる。そして、一つの符号化対象マクロブロック91に対する一連の処理が終了する。全ての利用可能な隣接マクロブロックがイントラ符号化モードである場合の例として、物体の移動によってオクルージョンが発生する場合が挙げられる。このような場合は、符号化対象マクロブロック91が動領域に属すると見なすことができるので、直近の異パリティの画像が選択されることによって予測効率が上がる。
 利用可能な隣接マクロブロックのうちの少なくとも一つがイントラ符号化モードでない、すなわちインター符号化モードであると判定された場合(ステップS12:No)、動きベクトル判定部32により、符号化対象マクロブロック91が静止領域および動領域のいずれに属するかが判定される(ステップS14)。具体的には、例えば左マクロブロックA92、上マクロブロックB93および右上マクロブロックC94の三つが利用可能なインター符号化モードの隣接マクロブロックであるとする。この場合、次の(3)、(4)および(5)の条件を満たす場合、静止領域と判定される(ステップS14)。あるいは、(3)、(4)および(5)の三つとも満たさなくても、いずれか一つ、または二つ以上の組み合わせを満たす場合に、静止領域と判定してもよい。なお、図7のステップS14の表記において、*はA、BまたはCを表している。また、図7のステップS14の表記においては、動きベクトルの横方向成分(x成分)については省略している。
 (3)refIdxL0A=0 かつ mvL0A_x=mvL0A_y=0
 (4)refIdxL0B=0 かつ mvL0B_x=mvL0B_y=0
 (5)refIdxL0C=0 かつ mvL0C_x=mvL0C_y=0
 また、動きベクトルの横方向成分および縦方向成分が0であるか否かを判定する代わりに、横方向成分の絶対値および縦方向成分の絶対値を用いて次のように判定してもよい。動きベクトルの横方向成分および縦方向成分についてそれぞれ閾値THxおよびTHyを予め設定し、次の(6)および(7)の条件を満たすときに、動きベクトルが実質的に0であると見なしてもよい。あるいは、動きベクトルの横方向成分の絶対値と縦方向成分の絶対値との和について閾値THを予め設定し、次の(8)の条件を満たすときに、動きベクトルが実質的に0であると見なしてもよい。次の(6)、(7)および(8)の条件の表記において、*はA、BまたはCを表している。
 (6)|mvL0*_x|<THx
 (7)|mvL0*_y|<THy
 (8)|mvL0*_x|+|mvL0*_y|<TH
 なお、インターレース方式の場合、トップフィールドとボトムフィールドとは空間的に上下の異なる側にある。従って、上述した(3)から(8)までの条件において、動きベクトルの横方向成分(x成分)を判定の基準から省略してもよい。
 符号化対象マクロブロック91が静止領域に属すると判定された場合(ステップS14:Yes)、参照インデックス決定部33によりrefIdxL0は0に決定される(ステップS15)。これによって、符号化対象マクロブロック91の求めるべき参照画像95として、符号化対象マクロブロック91に対して直近の同パリティの画像が選択されたことになる。そして、一つの符号化対象マクロブロック91に対する一連の処理が終了する。符号化対象マクロブロック91が静止領域に属する場合、直近の同パリティの画像との間で絵柄の変化が殆どない。従って、直近の同パリティの画像が選択されることによって予測効率が上がる。
 上述した静止領域の判定条件を満たさない場合、符号化対象マクロブロック91は動領域に属すると判定される(ステップS14:No)。この場合、ステップS11で利用可能であると判定され、かつステップS12でインター符号化モードであると判定された隣接マクロブロックを対象とし、参照インデックス決定部33によりrefIdxL0は次のように決定される。
 例えば左マクロブロックA92、上マクロブロックB93および右上マクロブロックC94の三つが利用可能なインター符号化モードの隣接マクロブロックであるとする。図9に示す付し方に従ってインデクッス番号が付されるとしたので、refIdxL0の優先順位は1、0、3、2の順となる。従って、次の(9)から(12)に従ってrefIdxL0が決定される(ステップS16)。
 (9)refIdxL0A、refIdxL0BおよびrefIdxL0Cのいずれかが1である場合、refIdxL0=1
 (10)上記(9)でない場合で、かつrefIdxL0A、refIdxL0BおよびrefIdxL0Cのいずれかが0である場合、refIdxL0=0
 (11)上記(10)でない場合で、かつrefIdxL0A、refIdxL0BおよびrefIdxL0Cのいずれかが3である場合、refIdxL0=3
 (12)上記(11)でない場合で、かつrefIdxL0A、refIdxL0BおよびrefIdxL0Cのいずれかが2である場合、refIdxL0=2
 そして、一つの符号化対象マクロブロック91に対する一連の処理が終了する。以上の処理が全ての符号化対象マクロブロック91に対して行われる。インター符号化モードの隣接マクロブロックがあり、かつ符号化対象マクロブロック91が動領域に属する場合、符号化対象マクロブロック91と参照画像との時間的な隔たりが大きくなるほど予測が当たり難くなる。従って、パリティが同じであるか異なっているかに拘わらず、直近の画像が選択されることによって予測効率が上がる。
 実施例2によれば、符号化装置において、符号化対象マクロブロック91の既に符号化された隣接マクロブロックの符号化モード、動きベクトルおよび参照インデックスに基づいて、符号化対象マクロブロック91の参照インデックスが決まる。復号装置においても、符号化装置から出力された画像データのビットストリームを復号する際に、符号化装置と同じようにして復号対象のマクロブロックの参照インデックスが決まるようにすれば、符号化装置から復号装置へ参照インデックスを通知しなくてもよい。従って、実施例1と同様に、符号化装置において、より多くのマクロブロックで参照インデックスを省略して符号化することができるので、符号化の効率を良くすることができる。
(実施例3)
 実施例3は、実施例1の画像処理装置および画像処理方法を動画像の復号装置および復号方法に適用したものである。実施例3を適用可能な動画像復号方式の一例として、例えばITU-T H.264/ISO/IEC MPEG-4AVCやISO/IEC MPEG-2/MPEG-4が挙げられる。実施例3にかかる復号装置のハードウェア構成については、図3に示す構成と同様であるので、説明を省略する。
 図8は、実施例3にかかる画像処理装置を適用した復号装置の機能的構成を示すブロック図である。図8に示すように、復号装置は、復号部としてのエントロピー復号部101、逆量子化部102、逆直交変換部103、動き補償画像生成部104、予測値生成部105、復号画像生成部106および復号画像記憶部107を備えている。実施例2と同様に、復号処理は、復号対象のフィールドごとに例えば16×16ピクセルのマクロブロック単位で行われる。復号装置は、例えば実施例2にかかる符号化装置により符号化された符号化情報を復号して画像を再生する。
 エントロピー復号部101は、入力ストリームの符号化情報を復号して差分情報および動きベクトルを生成する。逆量子化部102は、エントロピー復号部101で生成された差分情報に対して逆量子化処理を行う。逆直交変換部103は、逆量子化部102の出力信号に対して逆直交変換処理を行う。エントロピー復号部101、逆量子化部102および逆直交変換部103により、例えば実施例2にかかる符号化装置のエントロピー符号化部64、量子化部63および直交変換部62(図4参照)のそれぞれに対応する逆の処理を行うことで、入力ストリームから予測誤差信号が再生される。
 動き補償画像生成部104は、例えば図5に示す構成の画像処理装置を備えている。例えば図5に示す構成の画像処理装置は、実施例2において説明したように、復号対象マクロブロックに隣接する隣接マクロブロックの符号化モード、動きベクトルおよび参照インデックスに基づいて復号対象マクロブロックを復号する際の参照インデックスを決定する。動き補償画像生成部104は、復号画像記憶部107から、決定された参照インデックスに対応する参照画像を読み出し、この参照画像と入力ストリームから通知された動きベクトルに基づいて動き補償画像信号を生成する。予測値生成部105は、動き補償画像生成部104で生成された動き補償画像信号に基づいて、復号画像の予測値を表す予測信号を生成する。動き補償画像生成部104および予測値生成部105は、例えば実施例2にかかる符号化装置の動きベクトル計算部71およびインター予測画像生成部70(図4参照)と同様にして予測信号を生成する。
 復号画像生成部106は、予測値生成部105で生成された予測信号と、再生された予測誤差信号とを例えば加算することによって、復号画像を生成する。復号画像記憶部107は、再生された復号画像のデータを記憶する。復号画像記憶部107に記憶された復号画像のデータは、これ以降の復号処理を行う際に参照画像として用いられる。復号画像記憶部107は、例えばフレームメモリを備えており、例えば図3に示すハードウェア構成においてRAM43により実現される。復号装置の、復号画像記憶部107を除く他の構成部は、例えば図3に示すハードウェア構成において、画像処理プロセッサ42がHDD44から画像処理プログラムを読み出して画像処理プロセスを実行することにより実現される。実施例3にかかる画像処理方法における参照インデックスの決め方については、実施例2と同様であるので、説明を省略する。
 実施例3によれば、復号装置において、復号対象マクロブロックの隣接マクロブロックの符号化モード、動きベクトルおよび参照インデックスに基づいて、復号対象マクロブロックの参照インデックスが決まる。符号化装置においても、符号化対象マクロブロックの参照インデックスが同様にして決まるようにすれば、符号化装置から復号装置へ参照インデックスを通知しなくてもよい。従って、この復号装置と、この復号装置と同様にして符号化対象マクロブロックの参照インデックスを決定する符号化装置を用いることによって、実施例1と同様に、符号化の効率を良くすることができる。
 31 イントラモード判定部
 32 動きベクトル判定部
 33 参照インデックス決定部
 61 予測誤差生成部
 62 直交変換部
 63 量子化部
 64 符号化部
 65,102 逆量子化部
 66,103 逆直交変換部
 67,106 復号画像生成部
 70 予測画像生成部
 101 復号部
 104 動き補償画像生成部
 105 予測値生成部

Claims (9)

  1.  一フレームを異なるタイミングで表示される複数のフィールドに分け、各フィールドの画像をそれぞれ複数のブロックに分割し、ブロックごとに過去の複数の参照画像の候補から選択した参照画像および該参照画像に対する動きベクトルに基づいて動き補償予測を行う画像処理装置において、
     処理対象ブロックに隣接する複数の隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かを判定するイントラモード判定部と、
     前記イントラモード判定部により前記隣接ブロックのうちの少なくとも一つがイントラ符号化モードでないと判定された場合に、該イントラ符号化モードでないと判定された隣接ブロックの動きベクトルおよび該イントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスに基づいて前記処理対象ブロックが静止領域および動領域のいずれに属するかを判定する動きベクトル判定部と、
     前記イントラモード判定部により全ての前記隣接ブロックがイントラ符号化モードであると判定された場合に、前記処理対象ブロックが属するフィールドと異なるフィールドの時間的に最も近い画像に付されたインデックス番号を選択し、前記動きベクトル判定部により静止領域に属すると判定された場合に、前記処理対象ブロックが属するフィールドと同じフィールドの時間的に最も近い画像に付されたインデックス番号を選択し、前記動きベクトル判定部により動領域に属すると判定された場合に、前記イントラモード判定部によりイントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスの中で時間的に最も近い参照画像のインデックス番号を選択し、該選択したインデックス番号を前記処理対象ブロックの参照画像を示す参照インデックスに決定する参照インデックス決定部と、
     を備えることを特徴とする画像処理装置。
  2.  画面内で前記複数のフィールドの縦方向の位置が異なっており、前記動きベクトル判定部は、前記イントラモード判定部によりイントラ符号化モードでないと判定された隣接ブロックの動きベクトルの縦方向成分に基づいて判定を行うことを特徴とする請求項1に記載の画像処理装置。
  3.  前記隣接ブロックの情報が存在しない場合、前記動きベクトル判定部は、前記処理対象ブロックが静止領域に属すると判定することを特徴とする請求項1に記載の画像処理装置。
  4.  前記参照インデックス決定部により決定された参照インデックス、該参照インデックスに対応する参照画像および該参照画像に対する前記処理対象ブロックの動きベクトルに基づいて、前記処理対象ブロックの予測画像を生成する予測画像生成部と、
     前記処理対象ブロックの原画に対する前記処理対象ブロックの予測画像の誤差を生成する予測誤差生成部と、
     前記予測誤差生成部により生成された誤差を直交変換する直交変換部と、
     前記直交変換部の出力信号を量子化する量子化部と、
     前記量子化部の出力信号および前記参照画像に対する前記処理対象ブロックの動きベクトルを符号化する符号化部と、
     を備えることを特徴とする請求項1に記載の画像処理装置。
  5.  前記量子化部の出力信号を逆量子化する逆量子化部と、
     前記量子化部の出力信号を逆直交変換して前記予測画像の誤差を再生する逆直交変換部と、
     前記逆直交変換部により再生された前記予測画像の誤差および前記予測画像生成部により生成された予測画像に基づいて前記処理対象ブロックの復号画像を生成する復号画像生成部と、
     を備えることを特徴とする請求項4に記載の画像処理装置。
  6.  前記処理対象ブロックの予測画像の誤差および該処理対象ブロックの動きベクトルの各情報が符号化された符号化情報を復号する復号部と、
     前記復号部の出力信号を逆量子化する逆量子化部と、
     前記逆量子化部の出力信号を逆直交変換して前記処理対象ブロックの予測画像の誤差を再生する逆直交変換部と、
     前記参照インデックス決定部により決定された参照インデックス、該参照インデックスに対応する参照画像および該参照画像に対する前記処理対象ブロックの動きベクトルに基づいて、前記処理対象ブロックの動き補償画像を生成する動き補償画像生成部と、
     前記動き補償画像生成部により生成された前記処理対象ブロックの動き補償画像に基づいて前記処理対象ブロックの復号画像の予測値を生成する予測値生成部と、
     前記逆直交変換部により再生された前記予測画像の誤差および前記予測値生成部により生成された前記復号画像の予測値に基づいて前記処理対象ブロックの復号画像を生成する復号画像生成部と、
     を備えることを特徴とする請求項1に記載の画像処理装置。
  7.  一フレームを異なるタイミングで表示される複数のフィールドに分け、各フィールドの画像をそれぞれ複数のブロックに分割し、ブロックごとに過去の複数の参照画像の候補から選択した参照画像および該参照画像に対する動きベクトルに基づいて動き補償予測を行う画像処理方法において、
     処理対象ブロックに隣接する複数の隣接ブロックの符号化モードが全てイントラ符号化モードであるか否かを判定するステップと、
     全ての前記隣接ブロックがイントラ符号化モードであると判定された場合に、前記処理対象ブロックの参照画像を示す参照インデックスとして、前記処理対象ブロックが属するフィールドと異なるフィールドの時間的に最も近い画像に付されたインデックス番号を選択するステップと、
     前記隣接ブロックのうちの少なくとも一つがイントラ符号化モードでないと判定された場合に、該イントラ符号化モードでないと判定された隣接ブロックの動きベクトルおよび該イントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスに基づいて前記処理対象ブロックが静止領域および動領域のいずれに属するかを判定するステップと、
     前記処理対象ブロックが静止領域に属すると判定された場合に、前記処理対象ブロックの参照画像を示す参照インデックスとして、前記処理対象ブロックが属するフィールドと同じフィールドの時間的に最も近い画像に付されたインデックス番号を選択するステップと、
     前記処理対象ブロックが動領域に属すると判定された場合に、前記処理対象ブロックの参照画像を示す参照インデックスとして、前記イントラ符号化モードでないと判定された隣接ブロックの参照画像を示す参照インデックスの中で時間的に最も近い参照画像のインデックス番号を選択するステップと、
     を含むことを特徴とする画像処理方法。
  8.  画面内で前記複数のフィールドの縦方向の位置が異なっており、前記処理対象ブロックが静止領域および動領域のいずれに属するかを判定するステップでは、前記イントラ符号化モードでないと判定された隣接ブロックの動きベクトルの縦方向成分に基づいて判定を行うことを特徴とする請求項7に記載の画像処理方法。
  9.  前記隣接ブロックの情報が存在しない場合、前記処理対象ブロックが静止領域に属すると判定するステップを、さらに含むことを特徴とする請求項7に記載の画像処理方法。
PCT/JP2010/055712 2010-03-30 2010-03-30 画像処理装置および画像処理方法 WO2011121731A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012507956A JP5522252B2 (ja) 2010-03-30 2010-03-30 画像処理装置および画像処理方法
KR1020127025639A KR101380460B1 (ko) 2010-03-30 2010-03-30 화상 처리 장치 및 화상 처리 방법
CN201080065869.4A CN102823247B (zh) 2010-03-30 2010-03-30 图像处理装置和图像处理方法
PCT/JP2010/055712 WO2011121731A1 (ja) 2010-03-30 2010-03-30 画像処理装置および画像処理方法
US13/612,063 US9036918B2 (en) 2010-03-30 2012-09-12 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/055712 WO2011121731A1 (ja) 2010-03-30 2010-03-30 画像処理装置および画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/612,063 Continuation US9036918B2 (en) 2010-03-30 2012-09-12 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2011121731A1 true WO2011121731A1 (ja) 2011-10-06

Family

ID=44711521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/055712 WO2011121731A1 (ja) 2010-03-30 2010-03-30 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US9036918B2 (ja)
JP (1) JP5522252B2 (ja)
KR (1) KR101380460B1 (ja)
CN (1) CN102823247B (ja)
WO (1) WO2011121731A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107105264A (zh) * 2011-10-18 2017-08-29 株式会社Ntt都科摩 动态图像预测解码方法、动态图像预测解码装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147291A (ja) * 2011-01-13 2012-08-02 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
KR101783617B1 (ko) * 2013-04-11 2017-10-10 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
CN105594212B (zh) * 2013-07-24 2019-04-16 三星电子株式会社 用于确定运动矢量的方法及其设备
CN110213593B (zh) * 2018-05-25 2023-01-24 腾讯科技(深圳)有限公司 一种运动矢量的确定方法、编码压缩方法和相关装置
EP3648059B1 (en) * 2018-10-29 2021-02-24 Axis AB Video processing device and method for determining motion metadata for an encoded video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006094454A (ja) * 2004-08-27 2006-04-06 Matsushita Electric Ind Co Ltd 映像信号の予測符号化における参照ピクチャ決定方法
JP2008011117A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd 画像符号化におけるインターレース符号化時の参照ピクチャ決定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100396558B1 (ko) * 2001-10-25 2003-09-02 삼성전자주식회사 적응 움직임 보상형 프레임 및/또는 레이트 변환 장치 및그 방법
JP2006295734A (ja) * 2005-04-13 2006-10-26 Pioneer Electronic Corp 再符号化装置、再符号化方法、および再符号化用プログラム
WO2007040197A1 (ja) * 2005-10-05 2007-04-12 Matsushita Electric Industrial Co., Ltd. 参照画像選択方法および装置
US8451899B2 (en) * 2006-01-09 2013-05-28 Lg Electronics Inc. Inter-layer prediction method for video signal
KR20070075257A (ko) * 2006-01-12 2007-07-18 엘지전자 주식회사 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법
JP2009011117A (ja) * 2007-06-29 2009-01-15 Kansai Electric Power Co Inc:The 電力変換装置
JP2009055542A (ja) * 2007-08-29 2009-03-12 Toshiba Corp 動画像符号化装置および動画像符号化方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006094454A (ja) * 2004-08-27 2006-04-06 Matsushita Electric Ind Co Ltd 映像信号の予測符号化における参照ピクチャ決定方法
JP2008011117A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd 画像符号化におけるインターレース符号化時の参照ピクチャ決定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107105264A (zh) * 2011-10-18 2017-08-29 株式会社Ntt都科摩 动态图像预测解码方法、动态图像预测解码装置
CN107105264B (zh) * 2011-10-18 2019-11-08 株式会社Ntt都科摩 动态图像预测解码方法、动态图像预测解码装置

Also Published As

Publication number Publication date
KR20120135296A (ko) 2012-12-12
US20130011072A1 (en) 2013-01-10
JP5522252B2 (ja) 2014-06-18
US9036918B2 (en) 2015-05-19
KR101380460B1 (ko) 2014-04-02
CN102823247B (zh) 2015-04-08
JPWO2011121731A1 (ja) 2013-07-04
CN102823247A (zh) 2012-12-12

Similar Documents

Publication Publication Date Title
JP5768662B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
JP5697614B2 (ja) デジタルビデオコンテンツのマクロブロックレベルにおける適応フレーム/フィールド符号化
US9277220B2 (en) Image coding apparatus including a geometric-transformation motion compensation prediction unit utilizing at least two prediction modes out of four prediction modes
US11979581B2 (en) Method and apparatus for encoding or decoding video data in FRUC mode with reduced memory accesses
JP4527677B2 (ja) 動画像符号化方法、動画像符号化装置、動画像符号化プログラム
US20050123051A1 (en) Macroblock level adaptive frame/field coding for digital video content
US20090110076A1 (en) Method and System for Optical Flow Based Motion Vector Estimation for Picture Rate Up-Conversion
JP5522252B2 (ja) 画像処理装置および画像処理方法
JP2008131643A (ja) Mpeg2規格からmpeg4規格にデータをトランスコードする方法
JP2005510984A (ja) デジタルビデオコンテンツのためのピクチャレベルの適応フレーム/フィールド符号化
JP2011029863A (ja) 復号化処理方法
JP2017069866A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
JP2016158282A (ja) 動画像予測復号方法及び動画像予測復号装置
JP5972687B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
WO2015008339A1 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
JP6646125B2 (ja) 動画像予測復号方法及び動画像予測復号装置
US9247196B1 (en) High efficiency video coding for video with interlaced and progressive content using lookahead
KR101601856B1 (ko) 방향적 인트라 예측 장치 및 그 예측 방법
US8396124B2 (en) Method of predicting motion and texture data
JP2019097076A (ja) 映像符号化装置及び映像復号装置
JP5390458B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
JP2002232892A (ja) 画像符号化装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080065869.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10848910

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012507956

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20127025639

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10848910

Country of ref document: EP

Kind code of ref document: A1